JP2021012741A - Image processor, method for processing image, and program - Google Patents

Image processor, method for processing image, and program Download PDF

Info

Publication number
JP2021012741A
JP2021012741A JP2020177513A JP2020177513A JP2021012741A JP 2021012741 A JP2021012741 A JP 2021012741A JP 2020177513 A JP2020177513 A JP 2020177513A JP 2020177513 A JP2020177513 A JP 2020177513A JP 2021012741 A JP2021012741 A JP 2021012741A
Authority
JP
Japan
Prior art keywords
character string
image
feature amount
document
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020177513A
Other languages
Japanese (ja)
Other versions
JP7111143B2 (en
Inventor
裕一 中谷
Yuichi Nakatani
裕一 中谷
克彦 近藤
Katsuhiko Kondo
克彦 近藤
哲 ▲瀬▼川
哲 ▲瀬▼川
Satoru Segawa
杉本 充
Mitsuru Sugimoto
充 杉本
康 日高
Yasushi Hidaka
康 日高
隼哉 秋山
Junya Akiyama
隼哉 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2020177513A priority Critical patent/JP7111143B2/en
Publication of JP2021012741A publication Critical patent/JP2021012741A/en
Application granted granted Critical
Publication of JP7111143B2 publication Critical patent/JP7111143B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

To allow a support for a worker so that the worker will be able to get to know which item is shown in which place even when the format of a document as a character recognition target is not known in advance.SOLUTION: An image processor includes: a character string recognition unit for recognizing a character string in a specific item in an image of a recognition target on the basis of a result of learning using a plurality of images including character strings; and an output unit for outputting the image of the recognition target and the character string recognition result so that the correspondence between the image of the recognition target and the character string recognition result showing the same specific item obtained by the character string recognition unit can be grasped.SELECTED DRAWING: Figure 3

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method and a program.

帳票のフォーマットに関連して、特許文献1には、帳票に最適な帳票フォーマットを効率的に選出するための方法が記載されている。この方法では、帳票フォーマットをグループ分けし、グループ毎に代表帳票フォーマットを1つ定めておく。そしてこの方法では、読み取った帳票画像と代表帳票フォーマットとの特徴合致率に基づいて何れか1つのグループを選出する。さらにこの方法では、選出したグループ内の各帳票フォーマットのうち、読み取った帳票画像との特徴合致率が最も高い帳票フォーマットを選択する。 In relation to the form format, Patent Document 1 describes a method for efficiently selecting the optimum form format for the form. In this method, the form formats are divided into groups, and one representative form format is defined for each group. Then, in this method, any one group is selected based on the feature matching rate between the read form image and the representative form format. Further, in this method, among the form formats in the selected group, the form format having the highest feature matching rate with the read form image is selected.

また、文字認識結果の修正に関連して、特許文献2には、複数種類の帳票が混在している場合の文字認識で読取不能文字(リジェクト文字)が生じた場合に、読取不能文字の訂正処理を行う帳票の種類を指定し、指定された種類の帳票における読取不能文字の訂正処理を行うことで、同じ種類の帳票の訂正処理を連続的に行うことが記載されている。 Further, in relation to the correction of the character recognition result, in Patent Document 2, when an unreadable character (rejected character) occurs in the character recognition when a plurality of types of forms are mixed, the unreadable character is corrected. It is described that the correction processing of the same type of form is continuously performed by designating the type of the form to be processed and performing the correction processing of unreadable characters in the specified type of form.

また、文字認識結果の修正に関連して、特許文献3には、イメージ入力(文字認識)された帳票の修正・確認を行う際、入力された内容を所定の書式に従って表示して修正を受け付けること、および、利用者から修正項目が指示されると、受け付けた修正項目に対応する特定のイメージ部分を強調表示することが記載されている。 Further, in relation to the correction of the character recognition result, in Patent Document 3, when the image input (character recognition) form is corrected / confirmed, the input content is displayed according to a predetermined format and the correction is accepted. It also states that when the user instructs the correction item, the specific image part corresponding to the received correction item is highlighted.

特開2016−048444号公報Japanese Unexamined Patent Publication No. 2016-408444 特開2004−118380号公報Japanese Unexamined Patent Publication No. 2004-118380 特開2002−007951号公報JP-A-2002-007951

文字認識結果の確認および訂正の際、確認訂正の作業者が、どの項目がどこに示されているかを把握できることが重要である。特に、作業者が普段見慣れていないフォーマットの文書の読み取り結果を確認および訂正する場合、確認したい項目がどこに記載されているかの把握に手間取る可能性がある。
そこで、作業者が、どの項目がどこに示されているかを把握できるよう補助できることが好ましい。その際、文字認識対象の文書のフォーマットが予めわかっていない場合でも、補助を行えることが好ましい。
When confirming and correcting the character recognition result, it is important for the confirmation and correction worker to be able to understand which item is shown where. In particular, when a worker confirms and corrects the reading result of a document in a format that he / she is not familiar with, it may take time to grasp where the item to be confirmed is described.
Therefore, it is preferable to be able to assist the worker in grasping which item is shown where. At that time, even if the format of the document to be recognized is not known in advance, it is preferable to be able to assist.

本発明は、上述の課題を解決することのできる画像処理装置、画像処理方法およびプログラムを提供することを目的としている。 An object of the present invention is to provide an image processing apparatus, an image processing method, and a program capable of solving the above-mentioned problems.

本発明の第1の態様によれば、画像処理装置は、文字列を含む複数の画像を用いた学習の結果に基づいて、認識対象の画像における特定項目の前記文字列を認識する文字列認識部と、前記認識対象の画像と、前記文字列認識部による文字列認識結果とにおいて同じ前記特定項目を示す対応関係が把握可能な態様で、前記認識対象の画像と前記文字列認識結果とを出力する出力部と、を備える。 According to the first aspect of the present invention, the image processing apparatus recognizes the character string of a specific item in the image to be recognized based on the result of learning using a plurality of images including the character string. The image of the recognition target and the character string recognition result are displayed in such a manner that the correspondence relationship indicating the same specific item in the unit, the image of the recognition target, and the character string recognition result by the character string recognition unit can be grasped. It includes an output unit for output.

本発明の第2の態様によれば、画像処理方法は、文字列を含む複数の画像を用いた学習の結果に基づいて、認識対象の画像における特定項目の前記文字列を認識する工程と、前記認識対象の画像と、文字列認識結果とにおいて同じ前記特定項目を示す対応関係が把握可能な態様で、前記認識対象の画像と前記文字列認識結果とを出力する工程と、を含む。 According to the second aspect of the present invention, the image processing method includes a step of recognizing the character string of a specific item in the image to be recognized based on the result of learning using a plurality of images including a character string. It includes a step of outputting the image of the recognition target and the character string recognition result in a manner in which the correspondence relationship indicating the same specific item in the image of the recognition target and the character string recognition result can be grasped.

本発明の第3の態様によれば、プログラムは、コンピュータに、文字列を含む複数の画像を用いた学習の結果に基づいて、認識対象の画像における特定項目の前記文字列を認識する工程と、前記認識対象の画像と、文字列認識結果とにおいて同じ前記特定項目を示す対応関係が把握可能な態様で、前記認識対象の画像と前記文字列認識結果とを出力する工程と、を実行させるためのプログラムである。 According to the third aspect of the present invention, the program recognizes the character string of a specific item in the image to be recognized based on the result of learning using a plurality of images including the character string on the computer. , The step of outputting the image of the recognition target and the character string recognition result is executed in a manner in which the correspondence relationship indicating the same specific item in the recognition target image and the character string recognition result can be grasped. It is a program for.

この発明によれば、文字認識対象の文書のフォーマットが予めわかっていない場合でも、作業者が、どの項目がどこに示されているかを把握できるよう補助を行うことができる。 According to the present invention, even if the format of the document to be recognized for characters is not known in advance, it is possible to assist the operator in grasping which item is shown where.

実施形態に係る画像処理装置を含む画像処理システムの装置構成例を示す図である。It is a figure which shows the apparatus configuration example of the image processing system including the image processing apparatus which concerns on embodiment. 実施形態に係る画像処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the image processing apparatus which concerns on embodiment. 第一実施形態に係る画像処理装置の機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the functional structure of the image processing apparatus which concerns on 1st Embodiment. 文書帳票の一例を示す図である。It is a figure which shows an example of a document form. 第一実施形態に係るデータベースが記憶する記録テーブルの概要を示す図である。It is a figure which shows the outline of the record table stored in the database which concerns on 1st Embodiment. 第一実施形態に係る画像処理装置の処理フローを示す第一の図である。It is the first figure which shows the processing flow of the image processing apparatus which concerns on 1st Embodiment. 第一実施形態に係る画像処理装置の処理フローを示す第二の図である。It is a 2nd figure which shows the processing flow of the image processing apparatus which concerns on 1st Embodiment. 第一実施形態に係る表示部が、記録文字列の表示と、文書帳票の画像とを並べて表示した表示画面の例を示す図である。FIG. 5 is a diagram showing an example of a display screen in which the display unit according to the first embodiment displays a display of a recorded character string and an image of a document form side by side. 第一実施形態に係る表示部が、記録文字列の表示と文書帳票の画像との対応関係を表示した表示画面の例を示す図である。FIG. 5 is a diagram showing an example of a display screen in which the display unit according to the first embodiment displays the correspondence between the display of the recorded character string and the image of the document form. 第二実施形態に係る画像処理装置の機能構成を示す概略ブロック図である。It is a schematic block diagram which shows the functional structure of the image processing apparatus which concerns on 2nd Embodiment. 第二実施形態に係る画像処理装置の処理フローを示す第一の図である。It is the first figure which shows the processing flow of the image processing apparatus which concerns on 2nd Embodiment. 第二実施形態に係る画像処理装置の処理フローを示す第二の図である。It is the 2nd figure which shows the processing flow of the image processing apparatus which concerns on 2nd Embodiment. 実施形態に係る画像処理装置の構成の例を示す図である。It is a figure which shows the example of the structure of the image processing apparatus which concerns on embodiment.

以下、本発明の実施形態を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, embodiments of the present invention will be described, but the following embodiments do not limit the inventions claimed. Also, not all combinations of features described in the embodiments are essential to the means of solving the invention.

図1は、実施形態に係る画像処理装置を含む画像処理システムの装置構成例を示す図である。
図1に示す構成で、画像処理システム100は画像処理装置1、画像読取装置2、記録装置3およびデータベース4により構成される。
画像処理装置1は画像読取装置2と通信ケーブルにより接続されている。画像読取装置2は光学的に文書帳票などの画像データを取得して画像処理装置1へ出力する。画像処理装置1は文書帳票の画像データをOCR処理し文字認識する。画像処理装置1は文字認識結果を記録装置3に出力し、記録装置3がその文字認識結果をデータベースに記録する。なお、画像処理装置1が対象とする文書は、特定の種類のものに限定されない。OCR処理可能ないろいろな文書を、画像処理装置1の処理対象とすることができる。
FIG. 1 is a diagram showing an example of an apparatus configuration of an image processing system including the image processing apparatus according to the embodiment.
With the configuration shown in FIG. 1, the image processing system 100 is composed of an image processing device 1, an image reading device 2, a recording device 3, and a database 4.
The image processing device 1 is connected to the image reading device 2 by a communication cable. The image reading device 2 optically acquires image data such as a document form and outputs it to the image processing device 1. The image processing device 1 performs OCR processing on the image data of the document form and recognizes the characters. The image processing device 1 outputs the character recognition result to the recording device 3, and the recording device 3 records the character recognition result in the database. The document targeted by the image processing device 1 is not limited to a specific type. Various documents capable of OCR processing can be processed by the image processing apparatus 1.

データベース4は画像処理装置1と記録装置3とに接続されている。データベース4は記録装置3から過去に登録された複数の文書帳票の画像データとその画像データに含まれる文字列のうち記録対象となる文字列を示す記録文字列の対応関係を記憶している。記録文字列が示す文字列は文書帳票に記述される文字列のうちデータベース4に記録、保存しておくべき重要な文字列である。画像処理システム100を利用する作業者は予め、記録装置3を用いて過去に登録された複数の文書帳票の画像データとその画像データに含まれる文字列のうちの記録文字列をデータベース4に登録しておく。
作業者を、画像処理装置1のユーザ、または単にユーザとも称する。
The database 4 is connected to the image processing device 1 and the recording device 3. The database 4 stores the correspondence between the image data of a plurality of document forms registered in the past from the recording device 3 and the recorded character string indicating the character string to be recorded among the character strings included in the image data. The character string indicated by the recorded character string is an important character string to be recorded and saved in the database 4 among the character strings described in the document form. The worker who uses the image processing system 100 registers in advance the image data of a plurality of document forms registered in the past using the recording device 3 and the recorded character string among the character strings included in the image data in the database 4. I will do it.
The worker is also referred to as a user of the image processing device 1 or simply a user.

そしてデータベース4には文書帳票の画像データとその画像データに含まれる文字列の情報のうち記録対象となる文字列を示す記録文字列の情報との対応関係が、多くの文書帳票について十分に記録されているものとする。このような状態において、画像処理装置1は処理を行う。 Then, in the database 4, the correspondence between the image data of the document form and the information of the recorded character string indicating the character string to be recorded among the information of the character string included in the image data is sufficiently recorded for many document forms. It is assumed that it has been done. In such a state, the image processing device 1 performs processing.

図2は画像処理装置のハードウェア構成例を示す図である。
図2に示す構成で、画像処理装置1は、画像処理装置本体10と、表示装置17と、入力デバイス18とを備える。
画像処理装置本体10は、CPU(Central Processing Unit)11、IF(Interface)12、通信モジュール13、ROM(Read Only Memory)14、RAM(Random Access Memory)15、HDD(Hard Disk Drive)16などの構成を備えたコンピュータである。通信モジュール13は画像読取装置2、記録装置3、データベース4との間で無線通信を行うものであっても、有線通信を行うものであってもよく、それら2つの機能を有していてもよい。
表示装置17は、例えば液晶パネルまたはLED(Light Emitting Diode)パネル等の表示画面を備える。
入力デバイス18は、例えばキーボードおよびマウス、あるいは、表示装置17の表示画面に設けられてタッチパネルを構成するタッチセンサ、あるいはこれらの組み合わせなど、ユーザ操作を受ける装置である。
FIG. 2 is a diagram showing a hardware configuration example of the image processing device.
In the configuration shown in FIG. 2, the image processing device 1 includes an image processing device main body 10, a display device 17, and an input device 18.
The image processing device main body 10 includes a CPU (Central Processing Unit) 11, an IF (Interface) 12, a communication module 13, a ROM (Read Only Memory) 14, a RAM (Random Access Memory) 15, an HDD (Hard Disk Drive) 16, and the like. It is a computer with a configuration. The communication module 13 may perform wireless communication with the image reading device 2, the recording device 3, and the database 4, or may perform wired communication, and may have these two functions. Good.
The display device 17 includes a display screen such as a liquid crystal panel or an LED (Light Emitting Diode) panel.
The input device 18 is a device that receives user operations, such as a keyboard and mouse, a touch sensor provided on the display screen of the display device 17 to form a touch panel, or a combination thereof.

<第一実施形態>
図3は、第一実施形態に係る画像処理装置1の機能構成を示す概略ブロック図である。
通信部110は、図2の通信モジュールを用いて構成され、他の装置と通信を行う。特に、通信部110は、画像読取装置2、記録装置3、データベース4と通信を行う。
表示部120は、図2の表示装置17を用いて構成され、各種画像を表示する。特に、表示部120は出力部の例に該当し、第一の文書画像と、第一の文書画像に対応して表示されている第二の文書画像とで、同じ特定項目を示す対応関係情報を出力する。
<First Embodiment>
FIG. 3 is a schematic block diagram showing a functional configuration of the image processing device 1 according to the first embodiment.
The communication unit 110 is configured by using the communication module of FIG. 2 and communicates with other devices. In particular, the communication unit 110 communicates with the image reading device 2, the recording device 3, and the database 4.
The display unit 120 is configured by using the display device 17 of FIG. 2 and displays various images. In particular, the display unit 120 corresponds to the example of the output unit, and the correspondence information indicating the same specific item in the first document image and the second document image displayed corresponding to the first document image. Is output.

例えば、表示部120は、第一の文書画像として文書帳票の画像(OCR結果ではなく生の画像)を表示し、第二の文書画像として、画像処理装置1の処理結果である記録文字列を所定の書式で表示するGUI画面画像を表示する。そして、表示部120は、第二の文書画像に示す文字列が、第一の文書画像におけるどの文字列の読み取り結果かを、両者の文字列間に線を引くことで示す。 For example, the display unit 120 displays a document form image (a raw image instead of an OCR result) as a first document image, and a recorded character string which is a processing result of the image processing device 1 as a second document image. Display a GUI screen image to be displayed in a predetermined format. Then, the display unit 120 indicates which character string in the first document image the character string shown in the second document image is the reading result of, by drawing a line between both character strings.

あるいは、記録文字列の正解の文字列が得られている場合、表示部120が、第一の文書画像として文書帳票のOCR結果を、その文書帳票の書式で表示し、第二の文書画像として正解の文字列を所定の書式で表示するGUI画面画像を表示するようにしてもよい。そして、表示部120が、第二の文書画像に示す文字列が、第一の文書画像におけるどの文字列の正解を示すかを、両者の文字列間に線を引くことで示すようにしてもよい。
但し、出力部が画像および関係情報を出力する方法は、これら画像および関係情報を表示する方法に限定されない。例えば、通信部110が出力部として機能し、画像および関係情報を他の装置に送信して表示させるようにしてもよい。
Alternatively, when the correct character string of the recorded character string is obtained, the display unit 120 displays the OCR result of the document form as the first document image in the document form format, and displays it as the second document image. A GUI screen image that displays the correct character string in a predetermined format may be displayed. Then, the display unit 120 may indicate which character string in the first document image the character string shown in the second document image indicates the correct answer by drawing a line between the two character strings. Good.
However, the method of outputting the image and the related information by the output unit is not limited to the method of displaying the image and the related information. For example, the communication unit 110 may function as an output unit to transmit an image and related information to another device for display.

操作入力部130は、図2の入力デバイスを用いて構成され、ユーザ操作を受け付ける。特に、操作入力部130は、表示部120が表示する文字列に対する修正操作を受け付ける。
記憶部180は、図2のROM14、RAM15およびHDD16を用いて構成され、各種データを記憶する。
制御部190は、図2のCPU11が、記憶部180(図2のROM14、RAM15およびHDD16)からプログラムを読み出して実行することで構成される。制御部190は、画像処理装置1の各部を制御して各種処理を実行する。
取得部191は、文書帳票の画像データを取得する。
The operation input unit 130 is configured by using the input device shown in FIG. 2 and accepts user operations. In particular, the operation input unit 130 accepts a correction operation for the character string displayed by the display unit 120.
The storage unit 180 is configured by using the ROM 14, RAM 15 and HDD 16 of FIG. 2 and stores various data.
The control unit 190 is configured by the CPU 11 of FIG. 2 reading a program from the storage unit 180 (ROM 14, RAM 15 and HDD 16 of FIG. 2) and executing the program. The control unit 190 controls each unit of the image processing device 1 to execute various processes.
The acquisition unit 191 acquires the image data of the document form.

特徴量抽出部192は、文書帳票の画像データの認識処理結果から文字列の特徴量を抽出する。例えば特徴量抽出部192は、複数の文書帳票の画像データの認識処理結果に基づいて、文書帳票の画像データに含まれる記録文字列の特徴を示す第一特徴量を文書帳票の画像データ毎に抽出する。具体的には、特徴量抽出部192は、文字認識処理された文書画像に含まれる記録文字列を特定し、特定した記録文字列の文書画像中における第一特徴量を抽出する。ここでいう記録文字列の特定は、文書帳票における文字列のうち何れか1つを、1つの記録文字列に決定することである。特徴量の抽出を特徴量の生成とも称する。 The feature amount extraction unit 192 extracts the feature amount of the character string from the recognition processing result of the image data of the document form. For example, the feature amount extraction unit 192 sets a first feature amount indicating the characteristics of the recorded character string included in the image data of the document form for each image data of the document form based on the recognition processing result of the image data of a plurality of document forms. Extract. Specifically, the feature amount extraction unit 192 specifies a recorded character string included in the character recognition-processed document image, and extracts the first feature amount in the document image of the specified recorded character string. The specification of the recorded character string referred to here is to determine any one of the character strings in the document form as one recorded character string. Extraction of features is also referred to as feature generation.

記録部193は、新たな文書帳票の画像データにおける文字列の特徴量を用いて、新たな文書帳票の画像データから読み取った文字列の情報のうちの記録文字列を抽出して記録する。特に、記録部193は、文字列検出部の例に該当し、複数の文書画像を用いた学習の結果に基づいて予め記録され、文書画像の種別毎かつ特定項目毎にその項目の文字列の特徴を示す特徴量(第一特徴量)のうち、表示されている第一の文書画像(文書帳票の画像)についての特徴量に基づいて、第一の文書画像における特定項目の文字列を検出する。 The recording unit 193 uses the feature amount of the character string in the image data of the new document form to extract and record the recorded character string from the information of the character string read from the image data of the new document form. In particular, the recording unit 193 corresponds to the example of the character string detection unit, and is pre-recorded based on the result of learning using a plurality of document images, and the character string of the item is recorded for each type of document image and for each specific item. Detects the character string of a specific item in the first document image based on the feature amount of the displayed first document image (document form image) among the feature amounts indicating the features (first feature amount). To do.

また、記録部193は、第一の文書画像における特定項目と同じ項目の文字列を第二の文書画像から検出する。記録部193が、第二の文書画像の書式について既知の場合は、書式の情報を用いて第二の文書画像における記録文字列を検出する。一方、記録部193が第二の文書画像の書式について既知でない場合、特徴量抽出部192が第二の文書画像についても第一特徴量を抽出し、記録部193が、得られた第一特徴量を用いて記録文字列を特定するようにしてもよい。 Further, the recording unit 193 detects a character string of the same item as the specific item in the first document image from the second document image. When the recording unit 193 is known about the format of the second document image, the recording unit 193 detects the recorded character string in the second document image by using the format information. On the other hand, when the recording unit 193 does not know the format of the second document image, the feature amount extraction unit 192 extracts the first feature amount also for the second document image, and the recording unit 193 obtains the first feature. The recorded character string may be specified by using the quantity.

また、特徴量抽出部192と記録部193との組み合わせは、対応関係学習部の例に該当し、第一の文書画像と第二の文書画像との、同じ特定項目の対応関係を機械学習する。
例えば、記録部193が第二の文書画像の書式について既知の場合、特徴量抽出部192が機械学習にて第一の文書画像(文書帳票の画像)における文字列の特徴量を抽出し、記録部193が、得られた文字列の特徴量に基づいて第一の文書画像における記録文字列を特定する。これにより、記録部193は、第一の文書画像、第二の文書画像のいずれについても記録文字列について既知であり、これら2つの文書画像間での記録文字列の対応関係を取得している。
Further, the combination of the feature amount extraction unit 192 and the recording unit 193 corresponds to the example of the correspondence learning unit, and machine learning the correspondence between the first document image and the second document image of the same specific item. ..
For example, when the recording unit 193 is known about the format of the second document image, the feature amount extraction unit 192 extracts and records the feature amount of the character string in the first document image (image of the document form) by machine learning. Part 193 identifies the recorded character string in the first document image based on the feature amount of the obtained character string. As a result, the recording unit 193 is known about the recorded character strings for both the first document image and the second document image, and has acquired the correspondence between the recorded character strings between these two document images. ..

あるいは、記録部193が第二の文書画像の書式について未知の場合、特徴量抽出部192が、第一の文書画像に加えて第二の文書画像についても文字列の特徴量を抽出するようにしてもよい。この場合、記録部193は、第一の文書画像、第二の文書画像それぞれについて、得られた文字列の特徴量に基づいて記録文字列を特定する。これにより、記録部193は、第一の文書画像、第二の文書画像のいずれについても記録文字列について既知であり、これら2つの文書画像間での記録文字列の対応関係を取得している。 Alternatively, when the recording unit 193 does not know the format of the second document image, the feature amount extraction unit 192 extracts the feature amount of the character string for the second document image in addition to the first document image. You may. In this case, the recording unit 193 specifies the recorded character string for each of the first document image and the second document image based on the feature amount of the obtained character string. As a result, the recording unit 193 is known about the recorded character strings for both the first document image and the second document image, and has acquired the correspondence between the recorded character strings between these two document images. ..

対応関係学習部(特徴量抽出部192と記録部193との組み合わせ)が、第二の文書画像の文字列が確定されたとき以後の画像を用いて、第一の文書画像と第二の文書画像との、同じ特定項目の対応関係を機械学習するようにしてもよい。第二の文書画像の文字列が確定された場合、確定された文字列は正確であると考えられる。対応関係学習部が、この正確な文字列を利用して機械学習を行うことで、第一の文書画像と第二の文書画像との、同じ特定項目の対応関係を比較的高精度に学習できると期待される。 The correspondence learning unit (combination of the feature amount extraction unit 192 and the recording unit 193) uses the images after the character string of the second document image is determined, and uses the first document image and the second document. Machine learning may be performed on the correspondence between the image and the same specific item. When the character string of the second document image is confirmed, the confirmed character string is considered to be accurate. By performing machine learning using this accurate character string, the correspondence learning unit can learn the correspondence between the first document image and the second document image of the same specific item with relatively high accuracy. Is expected.

このような処理により画像処理装置1は新たな文書帳票の画像データに含まれる記録するべき文字列情報の記録の労力を軽減する。 By such processing, the image processing apparatus 1 reduces the labor of recording the character string information to be recorded included in the image data of the new document form.

図4は文書帳票の一例を示す図である。
この図が示すように文書帳票には、その文書を作成した企業のマーク、作成日、作成担当者、文書内容が、その文書帳票に特有のフォーマットで記述されている。文書内容は、例えば文書帳票が発注票であれば発注した商品名やその発注個数などの情報の組が1つまたは複数示される。作業者はある1つの文書帳票に基づいて、その文書帳票に記述されている文字列のうち記録すべき特定の文字列(記録文字列)を、記録装置3を用いてデータベース4へ記録する。具体的には作業者は文書帳票を見ながら記録装置3がデータベース4に記録すべき記録文字列を入力する。また作業者は文書帳票の画像データを画像読取装置2に読み込ませる。文書帳票は作業者の操作に基づいて画像読取装置2が読み取り画像処理装置1へ出力する。そして記録装置3は作業者の操作と画像処理装置1の制御とに基づいて、1つの文書帳票についての画像データと、その文書帳票に記述されている文字列のうち記録文字列を対応付けてデータベース4に記録する。図4の例においては、日付51、発注先52、商品名53、数量54、金額55が記録文字列である。文書帳票5には作業者によって記録されない非記録文字列等のその他の情報も印字されている。当該情報は例えば文書帳票を発行した発注者の名称501、発注者のエンブレム画像502、文書帳票のタイトル503、挨拶文504などである。
FIG. 4 is a diagram showing an example of a document form.
As shown in this figure, in the document form, the mark of the company that created the document, the date of creation, the person in charge of creation, and the content of the document are described in a format peculiar to the document form. For the document content, for example, if the document form is an order form, one or a plurality of sets of information such as the ordered product name and the ordered quantity are shown. Based on a certain document form, the worker records a specific character string (recording character string) to be recorded among the character strings described in the document form in the database 4 by using the recording device 3. Specifically, the worker inputs a recording character string to be recorded in the database 4 by the recording device 3 while looking at the document form. Further, the worker causes the image reading device 2 to read the image data of the document form. The document form is read by the image reading device 2 and output to the image processing device 1 based on the operation of the operator. Then, the recording device 3 associates the image data of one document form with the recorded character string among the character strings described in the document form based on the operation of the operator and the control of the image processing device 1. Record in database 4. In the example of FIG. 4, the date 51, the supplier 52, the product name 53, the quantity 54, and the amount 55 are the record character strings. Other information such as non-recorded character strings that are not recorded by the operator is also printed on the document form 5. The information includes, for example, the name 501 of the orderer who issued the document form, the emblem image 502 of the orderer, the title 503 of the document form, and the greeting text 504.

図5はデータベースが記憶する記録テーブルの概要を示す図である。
図5で示すようにデータベース4は文書帳票についての画像データと、その文書帳票に記述されている文字列のうち記録文字列を対応付けて記録テーブルに記憶する。
FIG. 5 is a diagram showing an outline of a recording table stored in the database.
As shown in FIG. 5, the database 4 stores the image data of the document form and the recorded character string among the character strings described in the document form in association with each other in the recording table.

図6は第一実施形態に係る画像処理装置の処理フローを示す第一の図である。図6は、画像処理装置1が第一特徴量を抽出する処理手順の例を示す。
次に画像処理装置1の処理フローについて順を追って説明する。
まずデータベース4にはある文書帳票についての画像データと、その文書帳票に記述されている記録文字列との組み合わせが、同じ書式(Format)の文書帳票複数枚分記録されている。例えば図4で示す文書帳票5の書式の記録文字列情報(記録文字列を示す情報)が複数枚分記録されているとする。
これら画像データと記録文字列情報との組み合わせとして、例えば過去の業務で扱われた文書帳票の画像データおよび記録文字列情報を用いることができる。過去の業務から画像データおよび記録文字列情報を必要量確保できる場合、画像処理装置に第一特徴量を取得させるために画像データおよび記録文字列情報を別途用意する必要はない。
このような状態で作業者が画像処理装置1を起動し、当該画像処理装置1へ処理開始を指示する。
FIG. 6 is a first diagram showing a processing flow of the image processing apparatus according to the first embodiment. FIG. 6 shows an example of a processing procedure in which the image processing apparatus 1 extracts the first feature amount.
Next, the processing flow of the image processing apparatus 1 will be described step by step.
First, in the database 4, a combination of image data of a certain document form and a recording character string described in the document form is recorded for a plurality of document forms of the same format. For example, it is assumed that a plurality of recorded character string information (information indicating the recorded character string) in the format of the document form 5 shown in FIG. 4 is recorded.
As a combination of these image data and the recorded character string information, for example, the image data of the document form handled in the past business and the recorded character string information can be used. When the required amount of image data and recorded character string information can be secured from past work, it is not necessary to separately prepare the image data and recorded character string information in order for the image processing apparatus to acquire the first feature amount.
In such a state, the operator activates the image processing device 1 and instructs the image processing device 1 to start processing.

画像処理装置1の取得部191は、通信部110を制御してデータベース4から文書帳票の画像データとその画像データに対応する記録文字列の情報とを読み取る(ステップS601)。取得部191は画像データと記録文字列とを特徴量抽出部192へ出力する。特徴量抽出部192は画像データをOCR処理して画像データ中の全ての文字列と、当該文字列の範囲を示す画像データ内の座標とを検出する(ステップS602)。なお文字列は複数の文字によって構成される文字の纏まりである。特徴量抽出部192は他の文字との間隔などによってその1つの纏まりの範囲を解析し、その範囲に含まれる1つまたは複数の文字を文字列として抽出すると共に、その画像データ内の文字列の範囲を示す座標を検出する。文字列として含まれる文字は、表意文字、表音文字などの記号、マーク、アイコン画像などを含んでよい。 The acquisition unit 191 of the image processing device 1 controls the communication unit 110 to read the image data of the document form and the information of the recorded character string corresponding to the image data from the database 4 (step S601). The acquisition unit 191 outputs the image data and the recorded character string to the feature amount extraction unit 192. The feature amount extraction unit 192 performs OCR processing on the image data to detect all the character strings in the image data and the coordinates in the image data indicating the range of the character strings (step S602). A character string is a group of characters composed of a plurality of characters. The feature amount extraction unit 192 analyzes the range of one group according to the distance from other characters, extracts one or more characters included in the range as a character string, and extracts the character string in the image data. Detects coordinates that indicate the range of. The characters included as a character string may include symbols such as ideographic characters and phonetic characters, marks, icon images, and the like.

特徴量抽出部192はOCR処理により画像データから抽出した文字列と、画像データと共にデータベース4から読み取った記録文字列とを比較する。特徴量抽出部192はOCR処理により画像データから抽出した文字列のうち、記録文字列の文字情報と一致した画像データ中の文字列と、その文字列に含まれる文字の属性と、その範囲の座標とを特定する(ステップS603)。 The feature amount extraction unit 192 compares the character string extracted from the image data by the OCR process with the recorded character string read from the database 4 together with the image data. Among the character strings extracted from the image data by the OCR process, the feature amount extraction unit 192 includes the character strings in the image data that match the character information of the recorded character strings, the attributes of the characters included in the character strings, and the range thereof. The coordinates are specified (step S603).

ここでいう文字の属性(文字属性)は、数字、アルファベット、ひらがな、漢字、文字数、文字高さ、フォントなどにより表される情報である。また文字列の範囲の座標は、文書帳票における文字列の位置を示す座標である。例えば、文字列の範囲の座標は、文字列に含まれる先頭文字の座標、終了文字の座標などを示す情報であってもよい。以下、文字列に含まれる文字の属性と文字列の範囲の座標とを総称して、文字列の属性または文字列属性と表記する。 The character attributes (character attributes) referred to here are information represented by numbers, alphabets, hiragana, kanji, number of characters, character height, fonts, and the like. The coordinates of the character string range are the coordinates indicating the position of the character string in the document form. For example, the coordinates of the range of the character string may be information indicating the coordinates of the first character and the coordinates of the end character included in the character string. Hereinafter, the attribute of the character included in the character string and the coordinates of the range of the character string are collectively referred to as a character string attribute or a character string attribute.

また、ここでの文字情報は、文字列のみであってもよいし、文字列属性を含んでいてもよい。すなわち、特徴量抽出部192が、記録文字列と画像データ中の文字列とが文字列として同一か否かを判定するようにしてもよい。あるいは、特徴量抽出部192が、文字の同一性に加えて、文字列属性の同一性を判定するようにしてもよい。 Further, the character information here may be only a character string or may include a character string attribute. That is, the feature amount extraction unit 192 may determine whether or not the recorded character string and the character string in the image data are the same as the character string. Alternatively, the feature amount extraction unit 192 may determine the identity of the character string attributes in addition to the identity of the characters.

なお、特徴量抽出部192が記録文字列と文字情報が一致する文字列を一意に特定できない場合、画像処理装置1が、その文書画像を処理対象(第一特徴量の抽出対象)から除外するようにしてもよい。あるいは、画像処理装置1が、記録文字列の候補それぞれの範囲を枠で示した画像を表示部120に表示させ、作業者によって選択された文字列に記録文字列を特定するようにしてもよい。ここでいう記録文字列の候補は、文字情報が記録文字列の文字情報と一致した文字列のうち、一意に特定されていないと判定された記録文字列に対応付けられている文字列である。また、ここでいう記録文字列の特定は、文書帳票における文字列のうち何れか1つを、1つの記録文字列に決定することである。
特徴量抽出部192が、1つの記録文字列の文字情報に対して、文書帳票における複数の文字列それぞれの文字情報が一致すると判定した場合、これら複数の文字列が、その記録情報の候補となる。作業者が、これら複数の文字列のうち何れか1つを選択することで、記録文字列が一意に特定される。
If the feature amount extraction unit 192 cannot uniquely identify a character string whose character information matches the recorded character string, the image processing device 1 excludes the document image from the processing target (the extraction target of the first feature amount). You may do so. Alternatively, the image processing device 1 may display an image showing the range of each candidate of the recording character string in a frame on the display unit 120, and specify the recording character string in the character string selected by the operator. .. The candidate for the recorded character string here is a character string associated with the recorded character string determined to be not uniquely specified among the character strings whose character information matches the character information of the recorded character string. .. Further, the specification of the recorded character string referred to here is to determine any one of the character strings in the document form as one recorded character string.
When the feature amount extraction unit 192 determines that the character information of each of the plurality of character strings in the document form matches the character information of one recorded character string, these plurality of character strings are candidates for the recorded information. Become. The recorded character string is uniquely specified by the operator selecting any one of the plurality of character strings.

次に、特徴量抽出部192は、文書帳票毎かつ記録文字列毎に抽出した文字列属性を用いて、同じ書式の文書帳票に共通かつ記録文字列毎の特徴量を抽出する(ステップS604)。
具体的には、特徴量抽出部192は、記録文字列毎に、複数の文書帳票におけるその記録文字列の文字列属性を解析して、1つの記録文字列に1つの特徴量を抽出する。
特徴量抽出部192が、同じ書式の文書帳票に共通かつ記録文字列毎の特徴量を抽出する方法は、特定の方法に限定されない。例えば、特徴量抽出部192が、複数の文書帳票から得られた複数の文字列属性について、先頭の文字の座標、末尾の文字の座標、文字の種類、文字の高さ、フォントの種類などの項目毎に最頻値(Mode)を求めるようにしてもよい。また、特徴量抽出部192が、先頭の文字の座標、末尾の文字の座標、文字の高さ、文字間の距離など数値で示される属性について項目毎に平均値(Average)または中央値(Median)を求めるようにしてもよい。また、特徴量抽出部192が、数値で表される項目について、その最大値および最小値を特徴量とするなど、範囲を有する特徴量、あるいは、複数の数値で表される特徴量を用いるようにしてもよい。また、特徴量抽出部192が、文字の種類、フォントの種類など数値以外の属性を数値化して特徴量を求めるようにしてもよい。また、特徴量抽出部192が、公知の機械学習アルゴリズムを用いて特徴量を抽出するようにしてもよい。
特徴量抽出部192が、文書帳票の1つの書式かつ1つの記録文字列について複数の数値を取得した場合、これら複数の数値をベクトル化して1つのベクトルの特徴量を抽出するようにしてもよい。
Next, the feature amount extraction unit 192 extracts the feature amount common to the document forms of the same format and for each recorded character string by using the character string attributes extracted for each document form and each recorded character string (step S604). ..
Specifically, the feature amount extraction unit 192 analyzes the character string attribute of the recorded character string in a plurality of document forms for each recorded character string, and extracts one feature amount for one recorded character string.
The method by which the feature amount extraction unit 192 extracts the feature amount common to the document forms of the same format and for each recorded character string is not limited to a specific method. For example, the feature amount extraction unit 192 describes the coordinates of the first character, the coordinates of the last character, the character type, the character height, the font type, etc. for a plurality of character string attributes obtained from a plurality of document forms. The mode may be calculated for each item. In addition, the feature amount extraction unit 192 determines the average value (Average) or median value (Median) for each item of the attributes indicated by numerical values such as the coordinates of the first character, the coordinates of the last character, the height of the characters, and the distance between the characters. ) May be obtained. Further, the feature amount extraction unit 192 uses a feature amount having a range, such as setting the maximum value and the minimum value as the feature amount, or a feature amount represented by a plurality of numerical values, for the item represented by the numerical value. It may be. Further, the feature amount extraction unit 192 may obtain the feature amount by digitizing attributes other than numerical values such as a character type and a font type. Further, the feature amount extraction unit 192 may extract the feature amount by using a known machine learning algorithm.
When the feature amount extraction unit 192 acquires a plurality of numerical values for one format of a document form and one recorded character string, the plurality of numerical values may be vectorized to extract the feature amount of one vector. ..

特徴量抽出部192が抽出した、同じ書式の文書帳票に共通かつ記録文字列毎の特徴量を第一特徴量と称する。特徴量抽出部192は、同じ書式の複数枚の文書帳票を用いて、その書式における記録文字列それぞれの第一特徴量を抽出する。第一特徴量は記録文字列を抽出するための特徴量である。第一特徴量に、文字の属性を示す情報、文字列の範囲を示す座標の何れか、またはこれらの組み合わせが含まれていてもよい。
特徴量抽出部192は、記録文字列毎に得られた第一特徴量を、文書帳票の書式の識別子に紐づけてデータベース4に記録する(ステップS605)。
The feature amount extracted by the feature amount extraction unit 192, which is common to the document forms of the same format and for each recorded character string, is referred to as a first feature amount. The feature amount extraction unit 192 extracts the first feature amount of each recorded character string in the format by using a plurality of document forms of the same format. The first feature amount is a feature amount for extracting a recorded character string. The first feature quantity may include information indicating a character attribute, any of coordinates indicating a range of a character string, or a combination thereof.
The feature amount extraction unit 192 records the first feature amount obtained for each recorded character string in the database 4 in association with the identifier in the document form format (step S605).

例えば特徴量抽出部192は、図4の文書帳票5の書式に含まれる記録文字列である日付51、発注先52、商品名53、数量54、金額55それぞれの、文字属性、文字列の範囲を示す座標などを示す各第一特徴量を、文書帳票5の書式識別子に紐づけてデータベース4に記録する。
ステップS605の後、画像処理装置1は、図6の処理を終了する。
For example, the feature quantity extraction unit 192 has a character attribute and a range of character strings for each of the date 51, the supplier 52, the product name 53, the quantity 54, and the amount 55, which are the record character strings included in the format of the document form 5 of FIG. Each first feature amount indicating the coordinates and the like indicating the above is recorded in the database 4 in association with the format identifier of the document form 5.
After step S605, the image processing apparatus 1 ends the process of FIG.

以上の処理により画像処理装置1は、作業者の記録文字列を記録する労力を軽減するために利用する情報(第一特徴量)を抽出してデータベース4に蓄積することができる。これにより画像処理装置1は新たな文書帳票の画像データの入力を受けて、その文書帳票に含まれる記録文字列を自動でデータベース4に記録していくことができる。図7を参照して、その処理について説明する。 By the above processing, the image processing apparatus 1 can extract the information (first feature amount) used for reducing the labor of recording the recorded character string of the worker and store it in the database 4. As a result, the image processing device 1 can receive the input of the image data of the new document form and automatically record the recording character string included in the document form in the database 4. The process will be described with reference to FIG. 7.

図7は第一実施形態に係る画像処理装置の処理フローを示す第二の図である。図7は、画像処理装置1が、新たに入力された画像データから記録文字列を抽出する処理手順の例を示す。
作業者は新たな文書帳票を画像読取装置2に読み取らせる操作を行う。これにより画像読取装置2は文書帳票の画像データを生成して画像処理装置1へ出力(送信)する。画像処理装置1の取得部191は、通信部110の受信データから画像データを取得する(ステップS701)。取得部191は画像データを特徴量抽出部192へ出力する。特徴量抽出部192は画像データをOCR処理して、文字列と、その文字列に含まれる文字の特徴(文字属性)と、その文字列の範囲の画像データ中の座標とを文字列毎に検出する(ステップS702)。特徴量抽出部192はそれら検出した情報を特徴量化した第三特徴量を、画像データ中の文字列毎に抽出する(ステップS703)。つまり第三特徴量は新たに読み込んだ画像データの文書帳票に含まれる文字列の特徴を示す情報である。その後、特徴量抽出部192はデータベース4から記録文字列毎の第一特徴量を読み出す(ステップS704)。特徴量抽出部192は記録部193へ第三特徴量と第一特徴量とを出力する。
FIG. 7 is a second diagram showing a processing flow of the image processing apparatus according to the first embodiment. FIG. 7 shows an example of a processing procedure in which the image processing device 1 extracts a recorded character string from the newly input image data.
The operator performs an operation of causing the image reading device 2 to read a new document form. As a result, the image reading device 2 generates image data of the document form and outputs (transmits) it to the image processing device 1. The acquisition unit 191 of the image processing device 1 acquires image data from the received data of the communication unit 110 (step S701). The acquisition unit 191 outputs the image data to the feature amount extraction unit 192. The feature amount extraction unit 192 performs OCR processing on the image data to obtain the character string, the feature (character attribute) of the character included in the character string, and the coordinates in the image data of the range of the character string for each character string. Detect (step S702). The feature amount extraction unit 192 extracts a third feature amount obtained by converting the detected information into a feature amount for each character string in the image data (step S703). That is, the third feature amount is information indicating the feature of the character string included in the document form of the newly read image data. After that, the feature amount extraction unit 192 reads out the first feature amount for each recorded character string from the database 4 (step S704). The feature amount extraction unit 192 outputs the third feature amount and the first feature amount to the recording unit 193.

記録部193は画像データ中の文字列毎の第三特徴量と、記録文字列毎の第一特徴量とを取得し、第一特徴量と第三特徴量とを対応付ける(ステップS705)。具体的には、記録部193は、第一特徴量の各々について、その特徴量と一致する第三特徴量、または、最も近い第三特徴量を1つ対応付ける。この対応付けにより、文書帳票の画像データをOCR処理して得られた文字列の中から記録文字列が選択される。
次に、特徴量抽出部192は、表示部120を制御して、画像処理装置1による処理結果である記録文字列の表示と、文書帳票の画像とを並べて表示させる(ステップS706)。
The recording unit 193 acquires the third feature amount for each character string in the image data and the first feature amount for each recorded character string, and associates the first feature amount with the third feature amount (step S705). Specifically, the recording unit 193 associates each of the first feature amounts with one third feature amount that matches the feature amount or one closest third feature amount. By this association, the recorded character string is selected from the character strings obtained by OCR processing the image data of the document form.
Next, the feature amount extraction unit 192 controls the display unit 120 to display the recorded character string, which is the processing result of the image processing device 1, and the image of the document form side by side (step S706).

図8は、表示部120が、記録文字列の表示と、文書帳票の画像とを並べて表示した表示画面の例を示す図である。図8の例で、表示部120は、文書帳票の画像W1と、記録文字列の表示ウィンドウW2とを表示している。文書帳票の画像W1における文字列C1aおよびC1bのOCR結果の文字列が、それぞれ、記録文字列の表示ウィンドウW2に記録文字列である文字列C2aおよびC2bとして表示されている。「OK」ボタンのアイコンB1は、操作者が記録文字列の表示ウィンドウW2に示される記録文字列を確認・修正した後、記録文字列を確定させるために押下するボタンアイコンである。ボタンアイコンの押下操作は、例えばボタンアイコンに対するタッチ操作、またはマウスクリック等で行う。 FIG. 8 is a diagram showing an example of a display screen in which the display unit 120 displays the display of the recorded character string and the image of the document form side by side. In the example of FIG. 8, the display unit 120 displays the image W1 of the document form and the display window W2 of the recorded character string. The character strings of the OCR results of the character strings C1a and C1b in the image W1 of the document form are displayed as the recorded character strings C2a and C2b in the recorded character string display window W2, respectively. The "OK" button icon B1 is a button icon that the operator presses to confirm and correct the recorded character string displayed in the recorded character string display window W2. The button icon is pressed by, for example, a touch operation on the button icon or a mouse click.

次に、記録部193は、記録文字列の表示と文書帳票の画像との対応関係を取得済か判定する(ステップS707)。例えば、記録部193は、記録文字列の表示と文書帳票の画像との対応関係の把握のための学習の回数が所定回数以上である場合に、対応関係を取得済と判定する。上記のように、記録文字列の表示と文書帳票の画像との対応関係の把握のための学習は、記録文字列の表示における記録文字列の特定のための学習であってもよいし、文書帳票の画像における記録文字列の特定のための学習であってもよい。あるいは、これらの学習の組み合わせであってもよい。 Next, the recording unit 193 determines whether the correspondence between the display of the recorded character string and the image of the document form has been acquired (step S707). For example, the recording unit 193 determines that the correspondence relationship has been acquired when the number of times of learning for grasping the correspondence relationship between the display of the recorded character string and the image of the document form is equal to or more than a predetermined number of times. As described above, the learning for grasping the correspondence between the display of the recorded character string and the image of the document form may be the learning for specifying the recorded character string in the display of the recorded character string, or the document. It may be learning for specifying the recorded character string in the image of a form. Alternatively, it may be a combination of these learnings.

記録文字列の表示と文書帳票の画像との対応関係を取得済と判定した場合(ステップS707:YES)、記録部193は、表示部120を制御して、記録文字列の表示と文書帳票の画像との対応関係を表示させる(ステップS708)。
図9は、表示部120が、記録文字列の表示と文書帳票の画像との対応関係を表示した表示画面の例を示す図である。
図9では、図8の表示画面にて、記録文字列の表示と文書帳票の画像との対応関係を表示した例を示している。文字列C1a、C1b、C2a、C2bがそれぞれ矩形F1a、F1b、F2a、F2bで囲って示されている。そして、文字列C1aとC2aとが対応することが、線Laにて示されている。文字列C1bとC2bとが対応することが、線Lbにて示されている。
このように、表示部120が、記録文字列の表示と文書帳票の画像との対応関係を表示することで、作業者が、文書帳票の書式または記録文字列の表示ウィンドウの書式のいずれかまたは両方に不慣れな場合でも、文字列の対応関係を容易かつ確実に把握できる。
When it is determined that the correspondence between the display of the recorded character string and the image of the document form has been acquired (step S707: YES), the recording unit 193 controls the display unit 120 to display the recorded character string and display the document form. The correspondence with the image is displayed (step S708).
FIG. 9 is a diagram showing an example of a display screen in which the display unit 120 displays the correspondence between the display of the recorded character string and the image of the document form.
FIG. 9 shows an example in which the correspondence between the display of the recorded character string and the image of the document form is displayed on the display screen of FIG. The character strings C1a, C1b, C2a, and C2b are shown surrounded by rectangles F1a, F1b, F2a, and F2b, respectively. Then, it is shown by the line La that the character strings C1a and C2a correspond to each other. The line Lb indicates that the character strings C1b and C2b correspond to each other.
In this way, the display unit 120 displays the correspondence between the display of the recorded character string and the image of the document form, so that the worker can use either the format of the document form or the format of the display window of the recorded character string. Even if you are unfamiliar with both, you can easily and surely grasp the correspondence between character strings.

作業者が記録文字列を確認し修正した後、確定操作を行うと、画像処理装置1は、修正後の記録文字列を取得する(ステップS709)。ステップS707で、記録部193が、記録文字列の表示と文書帳票の画像との対応関係を取得済でないと判定した場合(ステップS707:NO)も、処理がステップS709へ進む。
そして、対応関係学習部としての特徴量抽出部192および記録部193は、処理結果の表示(図8、9の例では、記録文字列の表示ウィンドウW2)における記録文字列の座標を学習する(ステップS710)。例えば、特徴量抽出部192が、文書帳票の場合と同様に、処理結果の表示についても第一特徴量を抽出し、記録部193が、第一特徴量を用いて、記録文字列の位置を特定し、記憶する。
記録部193が、処理結果の表示の書式を既知の場合は、ステップS710の処理は不要である。
When the operator confirms and corrects the recorded character string and then performs a confirming operation, the image processing device 1 acquires the corrected recorded character string (step S709). If the recording unit 193 determines in step S707 that the correspondence between the display of the recorded character string and the image of the document form has not been acquired (step S707: NO), the process proceeds to step S709.
Then, the feature amount extraction unit 192 and the recording unit 193 as the correspondence learning unit learn the coordinates of the recorded character string in the display of the processing result (in the example of FIGS. 8 and 9, the recording character string display window W2). Step S710). For example, the feature amount extraction unit 192 extracts the first feature amount for the display of the processing result as in the case of the document form, and the recording unit 193 uses the first feature amount to determine the position of the recorded character string. Identify and remember.
If the recording unit 193 knows the format for displaying the processing result, the processing in step S710 is unnecessary.

記録部193は、記録文字列を文書帳票の識別情報に対応付けて記録テーブルに記録する(ステップS711)。
例えば、文書帳票の画像データ中から第三特徴量a3、第三特徴量b3、第三特徴量c3、第三特徴量d3が取得できたとする。そして第三特徴量a3が予めデータベースに記録されている第一特徴量a1と、第三特徴量b3が第一特徴量b1と、第三特徴量c3が第一特徴量c1と、第三特徴量d3が第一特徴量d1とそれぞれ特徴量が一致したとする。この場合、記録部193は、第三特徴量a3、第三特徴量b3、第三特徴量c3、第三特徴量d3それぞれに対応する文字列を、記録文字列として文書帳票の記録テーブルに記録する。ここでいう第三特徴量に対応する文字列は、その第三特徴量の抽出元の文字列である。作業者による記録文字列の修正があった場合、記録部193は、修正後の記録文字列を文書帳票の記録テーブルに記録する。
ステップS711の後、画像処理装置1は、図7の処理を終了する。
The recording unit 193 records the recorded character string in the recording table in association with the identification information of the document form (step S711).
For example, it is assumed that the third feature amount a3, the third feature amount b3, the third feature amount c3, and the third feature amount d3 can be obtained from the image data of the document form. Then, the third feature amount a3 is recorded in the database in advance, the first feature amount a1, the third feature amount b3 is the first feature amount b1, the third feature amount c3 is the first feature amount c1, and the third feature amount. It is assumed that the feature amount d3 coincides with the first feature amount d1. In this case, the recording unit 193 records the character strings corresponding to the third feature amount a3, the third feature amount b3, the third feature amount c3, and the third feature amount d3 in the recording table of the document form as recording character strings. To do. The character string corresponding to the third feature amount referred to here is the character string from which the third feature amount is extracted. When the recorded character string is modified by the operator, the recording unit 193 records the modified recorded character string in the recording table of the document form.
After step S711, the image processing device 1 ends the process of FIG. 7.

画像処理装置1が、図7の処理で文書帳票における第一特徴量を更新するようにしてもよい。例えば画像処理装置1が、ステップS710で、処理結果の表示における第一特徴量の機械学習に加えて、あるいは代えて、文書帳票における第一特徴量を学習するようにしてもよい。その場合、画像処理装置1が、図6の処理フローを再度実施するようにしてもよい。あるいは画像処理装置1が、ステップS710で追加学習を行うことで、図6で処理済みのデータについては再度処理を行うことなく第一特徴量を更新するようにしてもよい。
画像処理装置1が、図7の処理で第一特徴量を更新することで、サンプルデータ数が増加して第一特徴量の精度が向上し、画像処理装置1が記録文字列を抽出する精度が向上することが期待される。また、図7の処理で記録文字列が追加された場合、画像処理装置1が新たに追加された記録文字列についても画像データから抽出できるようになり、作業者が文字列を入力する手間を省けることが期待される。
The image processing device 1 may update the first feature amount in the document form by the processing of FIG. 7. For example, the image processing apparatus 1 may learn the first feature amount in the document form in addition to or instead of the machine learning of the first feature amount in the display of the processing result in step S710. In that case, the image processing apparatus 1 may re-execute the processing flow of FIG. Alternatively, the image processing device 1 may perform additional learning in step S710 to update the first feature amount of the data processed in FIG. 6 without performing processing again.
By updating the first feature amount in the process of FIG. 7, the image processing device 1 increases the number of sample data and improves the accuracy of the first feature amount, and the accuracy of the image processing device 1 extracting the recorded character string. Is expected to improve. Further, when the recorded character string is added in the process of FIG. 7, the image processing device 1 can also extract the newly added recorded character string from the image data, which saves the worker the trouble of inputting the character string. It is expected to be omitted.

図7に示す処理によれば、画像処理装置1は予め作業者が記録しておいた文書帳票の画像データと記録文字列とによって、新たに入力させた文書帳票の画像データにおける記録文字列を自動的に記録することができる。したがって画像処理装置1は文書帳票における記録文字列の記録の作業者の労力を軽減することができる。また、作業者は表示部120の表示を参照して、画像処理装置1の処理結果である記録文字列を確認および修正できる。その際、表示部120が、処理結果の表示における文字列と文書帳票の画像における文字列との対応関係を示すことで、作業者は、対応関係を容易に把握することができる。 According to the process shown in FIG. 7, the image processing device 1 uses the image data of the document form and the recorded character string recorded in advance by the operator to obtain the recorded character string in the image data of the newly input document form. It can be recorded automatically. Therefore, the image processing device 1 can reduce the labor of the operator for recording the recorded character string in the document form. Further, the operator can confirm and correct the recorded character string which is the processing result of the image processing device 1 by referring to the display of the display unit 120. At that time, the display unit 120 shows the correspondence relationship between the character string in the display of the processing result and the character string in the image of the document form, so that the worker can easily grasp the correspondence relationship.

<第二実施形態>
第二実施形態では、画像処理装置1が、文書帳票の複数の書式に対応する場合について説明する。
図10は第二実施形態に係る画像処理装置の機能構成を示す概略ブロック図である。
図10に示すように第二実施形態に係る画像処理装置1は、図3で示した各機能部に加え、さらにグループ分類部194、グループ特定部195の機能を有する。
<Second embodiment>
In the second embodiment, the case where the image processing device 1 corresponds to a plurality of formats of the document form will be described.
FIG. 10 is a schematic block diagram showing a functional configuration of the image processing apparatus according to the second embodiment.
As shown in FIG. 10, the image processing apparatus 1 according to the second embodiment further has the functions of the group classification unit 194 and the group identification unit 195 in addition to the functional units shown in FIG.

図11は第二実施形態に係る画像処理装置の処理フローを示す第一の図である。
次に第二実施形態に係る画像処理装置1の処理フローについて順を追って説明する。
データベース4には書式が異なる複数の文書帳票についての画像データと、各文書帳票に記述されている記録文字列の組み合わせが、その文書帳票毎に多数記録されている。このような状態で作業者が画像処理装置1を起動し、当該画像処理装置1へ処理開始を指示する。
FIG. 11 is a first diagram showing a processing flow of the image processing apparatus according to the second embodiment.
Next, the processing flow of the image processing apparatus 1 according to the second embodiment will be described step by step.
In the database 4, a large number of combinations of image data of a plurality of document forms having different formats and record character strings described in each document form are recorded for each document form. In such a state, the operator activates the image processing device 1 and instructs the image processing device 1 to start processing.

画像処理装置1の取得部191はデータベース4から文書帳票の画像データとその画像データに対応する記録文字列の情報とを全て読み込んだかを判定する(ステップS901)。NOの場合、取得部191はデータベース4から文書帳票の画像データとその画像データに対応する記録文字列の情報とを読み取る(ステップS902)。取得部191は画像データと記録文字列とを特徴量抽出部192へ出力する。特徴量抽出部192は画像データをOCR処理して画像データ中の全ての文字列とその画像データ内の座標とを検出する(ステップS903)。なお文字列は複数の文字によって構成される文字の纏まりである。特徴量抽出部192は他の文字との間隔などによってその1つの纏まりの範囲を解析し、その範囲に含まれる1つまたは複数の文字を文字列として抽出すると共に、その画像データ内の文字列の範囲を示す座標を検出する。文字列として含まれる文字は、表意文字、表音文字などの記号、マーク、アイコン画像などを含んでよい。 The acquisition unit 191 of the image processing device 1 determines whether or not all the image data of the document form and the information of the recorded character string corresponding to the image data have been read from the database 4 (step S901). If NO, the acquisition unit 191 reads the image data of the document form and the information of the recorded character string corresponding to the image data from the database 4 (step S902). The acquisition unit 191 outputs the image data and the recorded character string to the feature amount extraction unit 192. The feature amount extraction unit 192 performs OCR processing on the image data to detect all the character strings in the image data and the coordinates in the image data (step S903). A character string is a group of characters composed of a plurality of characters. The feature amount extraction unit 192 analyzes the range of one group according to the distance from other characters, extracts one or more characters included in the range as a character string, and extracts the character string in the image data. Detects coordinates that indicate the range of. The characters included as a character string may include symbols such as ideographic characters and phonetic characters, marks, icon images, and the like.

特徴量抽出部192はOCR処理により画像データから抽出した文字列と、画像データと共にデータベース4から読み取った記録文字列とを比較する。特徴量抽出部192はOCR処理により画像データから抽出した文字列のうち、記録文字列の文字情報と一致した画像データ中の文字列と、その文字列に含まれる文字の属性と、その範囲の座標とを特定する(ステップS904)。 The feature amount extraction unit 192 compares the character string extracted from the image data by the OCR process with the recorded character string read from the database 4 together with the image data. Among the character strings extracted from the image data by the OCR process, the feature amount extraction unit 192 includes the character strings in the image data that match the character information of the recorded character strings, the attributes of the characters included in the character strings, and the range thereof. The coordinates are specified (step S904).

第一実施形態で説明したように、文字の属性は、数字、アルファベット、ひらがな、漢字、文字数、文字高さ、フォントなどにより表される情報である。また文字列の範囲の座標は、文書帳票における文字列の位置を示す座標である。例えば、文字列の範囲の座標は、文字列に含まれる先頭文字の座標、終了文字の座標などを示す情報であってもよい。文字列に含まれる文字の属性と文字列の範囲の座標とを総称して、文字列の属性または文字列属性と表記する。 As described in the first embodiment, the character attributes are information represented by numbers, alphabets, hiragana, kanji, number of characters, character height, fonts, and the like. The coordinates of the character string range are the coordinates indicating the position of the character string in the document form. For example, the coordinates of the range of the character string may be information indicating the coordinates of the first character and the coordinates of the end character included in the character string. The attributes of the characters included in the character string and the coordinates of the range of the character string are collectively referred to as the character string attribute or the character string attribute.

第一実施形態の場合と同様、ここでの文字情報は、文字列のみであってもよいし、文字列属性を含んでいてもよい。すなわち、特徴量抽出部192が、記録文字列と画像データ中の文字列とが文字列として同一か否かを判定するようにしてもよい。あるいは、特徴量抽出部192が、文字の同一性に加えて、文字列属性の同一性を判定するようにしてもよい。 As in the case of the first embodiment, the character information here may be only a character string or may include a character string attribute. That is, the feature amount extraction unit 192 may determine whether or not the recorded character string and the character string in the image data are the same as the character string. Alternatively, the feature amount extraction unit 192 may determine the identity of the character string attributes in addition to the identity of the characters.

なお、特徴量抽出部192が記録文字列と文字情報が一致する文字列を一意に特定できない場合、画像処理装置1が、その文書画像を処理対象(第一特徴量の抽出対象)から除外するようにしてもよい。あるいは、画像処理装置1が、記録文字列の候補それぞれの範囲を枠で示した画像を表示部120に表示させ、作業者によって選択された文字列に記録文字列を特定するようにしてもよい。第一実施形態で説明したように、ここでいう記録文字列の候補は、文字情報が記録文字列の文字情報と一致した文字列のうち、一意に特定されていないと判定された記録文字列に対応付けられている文字列である。また、ここでいう記録文字列の特定は、文書帳票における文字列のうち何れか1つを、1つの記録文字列に決定することである。
特徴量抽出部192が、1つの記録文字列の文字情報に対して、文書帳票における複数の文字列それぞれの文字情報が一致すると判定した場合、これら複数の文字列が、その記録情報の候補となる。作業者が、これら複数の文字列のうち何れか1つを選択することで、記録文字列が一意に特定される。
If the feature amount extraction unit 192 cannot uniquely identify a character string whose character information matches the recorded character string, the image processing device 1 excludes the document image from the processing target (the extraction target of the first feature amount). You may do so. Alternatively, the image processing device 1 may display an image showing the range of each candidate of the recording character string in a frame on the display unit 120, and specify the recording character string in the character string selected by the operator. .. As described in the first embodiment, the record character string candidate referred to here is a record character string determined that the character information is not uniquely specified among the character strings whose character information matches the character information of the record character string. It is a character string associated with. Further, the specification of the recorded character string referred to here is to determine any one of the character strings in the document form as one recorded character string.
When the feature amount extraction unit 192 determines that the character information of each of the plurality of character strings in the document form matches the character information of one recorded character string, these plurality of character strings are candidates for the recorded information. Become. The recorded character string is uniquely specified by the operator selecting any one of the plurality of character strings.

次に、特徴量抽出部192は、文書帳票毎かつ記録文字列毎に抽出した文字列属性を用いて、文書帳票毎かつ記録文字列毎の特徴量を抽出する(ステップS905)。具体的には、特徴量抽出部192は、ステップS904で記録文字列に対応付けた文字列の文字列属性を特徴量化する。第二実施形態では複数種類の書式を対象とするため、文書帳票を書式毎にグループ分けしていないステップS905の時点では、図7のステップS604の場合と異なり直接第一特徴量を抽出することはできない。そこで、特徴量抽出部192は、グループ毎の第一特徴量を抽出する準備として、文書帳票毎かつ記録文字列毎の特徴量を抽出しておく。この文書帳票毎かつ記録文字列毎の特徴量を個別第一特徴量と称する。
特徴量抽出部192は、得られた個別第一特徴量を、文書帳票の識別子および記録文字列の識別子に紐づけてデータベース4に記録する(ステップS906)。記録文字列の識別子として、例えばその記録文字列の位置を示す座標値を用いることができる。
Next, the feature amount extraction unit 192 extracts the feature amount for each document form and each recorded character string by using the character string attribute extracted for each document form and each recorded character string (step S905). Specifically, the feature amount extraction unit 192 characterizes the character string attribute of the character string associated with the recorded character string in step S904. Since a plurality of types of formats are targeted in the second embodiment, at the time of step S905 in which the document forms are not grouped by format, the first feature amount is directly extracted unlike the case of step S604 of FIG. Can't. Therefore, the feature amount extraction unit 192 extracts the feature amount for each document form and each recorded character string in preparation for extracting the first feature amount for each group. The feature amount for each document form and each recorded character string is referred to as an individual first feature amount.
The feature amount extraction unit 192 records the obtained individual first feature amount in the database 4 in association with the identifier of the document form and the identifier of the recorded character string (step S906). As the identifier of the recorded character string, for example, a coordinate value indicating the position of the recorded character string can be used.

例えば特徴量抽出部192は、図4の文書帳票5の書式に含まれる記録文字列である日付51、発注先52、商品名53、数量54、金額55それぞれの、文字属性、文字列の範囲を示す座標などを示す個別第一特徴量を、文書帳票毎かつ記録文字列毎に、文書帳票5の識別子および記録文字列の識別子に紐づけてデータベース4に記録する。 For example, the feature amount extraction unit 192 has a range of character attributes and character strings for each of the date 51, the supplier 52, the product name 53, the quantity 54, and the amount 55, which are the record character strings included in the format of the document form 5 of FIG. The individual first feature amount indicating the coordinates and the like indicating the above is recorded in the database 4 in association with the identifier of the document form 5 and the identifier of the recorded character string for each document form and each recorded character string.

特徴量抽出部192はまた、記録文字列に含まれる文字情報と一致しない画像データ中の非記録文字列と、その非記録文字列の文字列属性とを抽出する(ステップS907)。上述したように、非記録文字列は、作業者によって記録されない文字列、すなわち、記録文字列以外の文字列である。文字列属性には、その文字列に含まれる文字の属性を示す情報、その文字列の範囲の座標を示す情報の何れか一方あるは両方が含まれていてもよい。 The feature amount extraction unit 192 also extracts a non-recorded character string in the image data that does not match the character information included in the recorded character string, and a character string attribute of the non-recorded character string (step S907). As described above, the non-recorded character string is a character string that is not recorded by the operator, that is, a character string other than the recorded character string. The character string attribute may include information indicating the attribute of the character included in the character string, information indicating the coordinates of the range of the character string, or both.

特徴量抽出部192は、文書帳票毎かつ非記録文字列毎に抽出した文字列属性を用いて、文書帳票毎かつ非記録文字列毎の特徴量を抽出する(ステップS908)。
具体的には、特徴量抽出部192は、ステップS904で何れの記録文字列にも対応付けられなかった文字列の各々について、その文字列の属性(文字列属性)を特徴量化する。第一特徴量の場合と同様、文書帳票を書式毎にグループ分けしていないステップS908の時点では、同じ書式の文書帳票に共通の特徴量を生成することはできない。そこで、特徴量抽出部192は、グループ毎の第二特徴量を抽出する準備として、文書帳票毎かつ非記録文字列毎の特徴量を抽出しておく。この文書帳票毎かつ非記録文字列毎の特徴量を個別第二特徴量と称する。
特徴量抽出部192が、文書帳票毎、かつ、複数の非記録文字列を纏めた個別第二特徴量を生成するようにしてもよい。例えば、特徴量抽出部192が、1つの文書帳票につき1つの個別第二特徴量を生成するようにしてもよい。
The feature amount extraction unit 192 extracts the feature amount for each document form and each non-recorded character string by using the character string attribute extracted for each document form and each non-recorded character string (step S908).
Specifically, the feature amount extraction unit 192 characterizes the attributes (character string attributes) of the character strings for each of the character strings that are not associated with any of the recorded character strings in step S904. As in the case of the first feature amount, at the time of step S908 in which the document forms are not grouped by format, it is not possible to generate a common feature amount for the document forms having the same format. Therefore, the feature amount extraction unit 192 extracts the feature amount for each document form and each non-recorded character string in preparation for extracting the second feature amount for each group. The feature amount for each document form and each non-recorded character string is referred to as an individual second feature amount.
The feature amount extraction unit 192 may generate an individual second feature amount for each document form and a collection of a plurality of non-recorded character strings. For example, the feature amount extraction unit 192 may generate one individual second feature amount for one document form.

特徴量抽出部192は、得られた個別第二特徴量を、文書帳票の識別子および非記録文字列の識別子に紐づけてデータベース4に記録する(ステップS909)。非記録文字列の識別子として、例えばその非記録文字列の位置を示す座標値を用いることができる。
例えば特徴量抽出部192は、図4の文書帳票5の書式に含まれる非記録文字列である発注者の名称501、発注者のエンブレム画像、文書帳票のタイトル503、挨拶文504などを示す個別第二特徴量を、文書帳票5の識別子および非記録文字列の識別子に紐づけてデータベース4に記録する。
The feature amount extraction unit 192 records the obtained individual second feature amount in the database 4 in association with the identifier of the document form and the identifier of the non-recorded character string (step S909). As the identifier of the non-recorded character string, for example, a coordinate value indicating the position of the non-recorded character string can be used.
For example, the feature amount extraction unit 192 is an individual indicating an orderer's name 501, an orderer's emblem image, a document form title 503, a greeting text 504, etc., which are non-recorded character strings included in the format of the document form 5 of FIG. The second feature amount is recorded in the database 4 in association with the identifier of the document form 5 and the identifier of the non-recorded character string.

データベース4には、文書帳票の複数の書式それぞれについて、その書式の文書帳票の画像データとその画像データに対応する記録文字列の情報が記録されている。画像処理装置1の取得部191は全ての文書帳票についての画像データと記録文字列の情報を読み込むまでステップS901〜ステップS909の処理を繰り返す。 In the database 4, for each of the plurality of formats of the document form, the image data of the document form in that format and the information of the recording character string corresponding to the image data are recorded. The acquisition unit 191 of the image processing device 1 repeats the processes of steps S901 to S909 until the image data and the recorded character string information for all the document forms are read.

ステップS901で、取得部191がデータベース4から文書帳票の画像データとその画像データに対応する記録文字列の情報とを全て読み込んだと判定した場合(ステップS901:YES)、グループ分類部194が文書帳票をグループ分けする(ステップS921)。グループ分類部194は、文書帳票の画像データに含まれる個別第二特徴量に基づいて、文書帳票をグループ分けする。例えばグループ分類部194は、各文書帳票を、個別第二特徴量が示す非記録文字列の一致度や、エンブレム画像の一致度、非記録文字列の座標範囲の一致度などに基づいてグループ分けする。グループ分類部194はこのグループ分けの処理において文書帳票のグループ識別子を決定する。グループ分類部194は全ての文書帳票についてグループ分けが終了したかを判定する(ステップS922)。 When it is determined in step S901 that the acquisition unit 191 has read all the image data of the document form and the information of the recorded character string corresponding to the image data from the database 4 (step S901: YES), the group classification unit 194 documents. The forms are grouped (step S921). The group classification unit 194 divides the document form into groups based on the individual second feature amount included in the image data of the document form. For example, the group classification unit 194 groups each document form based on the degree of matching of non-recorded character strings indicated by the individual second feature, the degree of matching of emblem images, the degree of matching of the coordinate range of non-recorded character strings, and the like. To do. The group classification unit 194 determines the group identifier of the document form in this grouping process. The group classification unit 194 determines whether or not the grouping of all the document forms has been completed (step S922).

グループ分類部194は全ての文書帳票のグループ分けが完了していない場合にはステップS921の処理を繰り返す。具体的には、ステップS922で、グループ分けを終了していない文書帳票があるとグループ分類部194が判定した場合(ステップS922:NO)、処理がステップS921へ戻る。
グループ分類部194は、全ての文書帳票のグループ分けが完了した場合(ステップS922:YES)、文書帳票の識別子とその文書帳票に付与されたグループ識別子とを対応付けてデータベース4のグループテーブル(記録テーブル)に記録する(ステップS923)。
The group classification unit 194 repeats the process of step S921 when the grouping of all the document forms is not completed. Specifically, when the group classification unit 194 determines in step S922 that there is a document form for which grouping has not been completed (step S922: NO), the process returns to step S921.
When the grouping of all the document forms is completed (step S922: YES), the group classification unit 194 associates the identifier of the document form with the group identifier given to the document form and sets the group table (record) of the database 4. (Table) (step S923).

そして特徴量抽出部192は、あるグループに属する1つまたは複数の文書帳票の各個別第一特徴量および各個別第二特徴量をデータベース4から読み取り、グループに属する文書帳票の各個別第一特徴量および各個別第二特徴量に対応する各グループ第一特徴量、各グループ第二特徴量を抽出する(ステップS924)。各グループ第一特徴量はグループに属する文書帳票の各個別第一特徴量の平均等の値であってもよい。同様に各グループ第二特徴量はグループに属する文書帳票の各個別第二特徴量の平均等の値であってもよい。各グループ第一特徴量、各グループ第二特徴量は、各個別第一特徴量の平均、各個別第二特徴量の平均でなくとも、所定の統計処理や機械学習等の手法を用いて、グループに属する1つ又は複数の文書帳票の記録文字列や非記録文字列を特定できるよう算出された特徴量であれば、どのような手法を用いて、各グループ第一特徴量、各グループ第二特徴量を抽出してもよい。 Then, the feature amount extraction unit 192 reads each individual first feature amount and each individual second feature amount of one or a plurality of document forms belonging to a certain group from the database 4, and each individual first feature amount of the document form belonging to the group. Each group first feature amount and each group second feature amount corresponding to the amount and each individual second feature amount are extracted (step S924). The first feature amount of each group may be a value such as the average of each individual first feature amount of the document forms belonging to the group. Similarly, the second feature amount of each group may be a value such as the average of each individual second feature amount of the document form belonging to the group. The first feature of each group and the second feature of each group are not the average of each individual first feature or the average of each individual second feature, but by using a method such as predetermined statistical processing or machine learning. As long as the feature amount is calculated so that the recorded character string or non-recorded character string of one or more document forms belonging to the group can be specified, any method is used for each group first feature amount and each group first. (Ii) The feature amount may be extracted.

例えば、特徴量抽出部192がステップS924で、同一グループに属する複数の文書帳票から記録文字列毎に文字列属性を抽出して(直接的に)グループ第一特徴量を生成するようにしてもよい。この場合、特徴量抽出部192が、ステップS905およびステップS906での個別第一特徴量の抽出および記録をパスする(特に何も処理を行わない)。
一方、個別第二特徴量については、ステップS921でのグループ分けで使用できるように、特徴量抽出部192がステップS908で抽出しておく。但し、ステップ921で、グループ分類部194が、個別第二特徴量を用いず非記録文字列を用いて文書帳票のグループ分けを行うようにしてもよい。この場合、特徴量抽出部192がステップS924で、同一グループに属する複数の文書帳票の非記録文字列の文字列属性から(直接的に)グループ第二特徴量を抽出するようにしてもよい。この場合、特徴量抽出部192は、ステップS907〜ステップS909では特に何も処理を行わない。
特徴量抽出部192は、グループそれぞれについて各グループ第一特徴量、各グループ第二特徴量を算出し、グループの識別子に対応付けてデータベース4に記録する(ステップS925)。
ステップS925の後、画像処理装置1は、図11の処理を終了する。
For example, even if the feature amount extraction unit 192 extracts the character string attribute for each recorded character string from a plurality of document forms belonging to the same group in step S924, the group first feature amount is generated (directly). Good. In this case, the feature amount extraction unit 192 passes the extraction and recording of the individual first feature amount in steps S905 and S906 (no particular processing is performed).
On the other hand, the individual second feature amount is extracted by the feature amount extraction unit 192 in step S908 so that it can be used in the grouping in step S921. However, in step 921, the group classification unit 194 may group the document forms by using the non-recorded character string without using the individual second feature amount. In this case, the feature amount extraction unit 192 may extract the group second feature amount (directly) from the character string attributes of the non-recorded character strings of a plurality of document forms belonging to the same group in step S924. In this case, the feature amount extraction unit 192 does not perform any particular processing in steps S907 to S909.
The feature amount extraction unit 192 calculates each group first feature amount and each group second feature amount for each group, and records them in the database 4 in association with the group identifier (step S925).
After step S925, the image processing apparatus 1 ends the process of FIG.

以上の処理により画像処理装置1は、作業者の記録文字列を記録する労力を軽減するために必要な情報(グループ第一特徴量およびグループ第二特徴量)を文書帳票のグループ毎に抽出してデータベース4に蓄積することができる。これにより画像処理装置1は新たな文書帳票の画像データの入力を受けて、その文書帳票に含まれる記録文字列を自動でデータベース4に記録していくことができる。図12を参照して、その処理について説明する。 Through the above processing, the image processing device 1 extracts the information (group first feature amount and group second feature amount) necessary for reducing the labor of recording the recorded character string of the worker for each group of the document form. Can be stored in the database 4. As a result, the image processing device 1 can receive the input of the image data of the new document form and automatically record the recording character string included in the document form in the database 4. The process will be described with reference to FIG.

図12は第二実施形態に係る画像処理装置の処理フローを示す第二の図である。図12は、画像処理装置1が、新たに入力された画像データから記録文字列を抽出する処理手順の例を示す。
作業者は新たな文書帳票を画像読取装置2に読み取らせる操作を行う。これにより画像読取装置2は文書帳票の画像データを生成して画像処理装置1へ出力(送信)する。画像処理装置1の取得部191は、通信部110の受信データから画像データを取得する(ステップS1001)。取得部191は画像データを特徴量抽出部192へ出力する。特徴量抽出部192は画像データをOCR処理して、文字列と、その文字列に含まれる文字の特徴(文字属性)と、その文字列の範囲の画像データ中の座標とを文字列毎に検出する(ステップS1002)。特徴量抽出部192はそれら検出した情報を特徴量化した第三特徴量を、画像データ中の文字列毎に抽出する(ステップS1003)。第三特徴量は新たに読み込んだ画像データの文書帳票に含まれる文字列の特徴を示す情報である。
FIG. 12 is a second diagram showing a processing flow of the image processing apparatus according to the second embodiment. FIG. 12 shows an example of a processing procedure in which the image processing device 1 extracts a recorded character string from the newly input image data.
The operator performs an operation of causing the image reading device 2 to read a new document form. As a result, the image reading device 2 generates image data of the document form and outputs (transmits) it to the image processing device 1. The acquisition unit 191 of the image processing device 1 acquires image data from the received data of the communication unit 110 (step S1001). The acquisition unit 191 outputs the image data to the feature amount extraction unit 192. The feature amount extraction unit 192 performs OCR processing on the image data to obtain the character string, the feature (character attribute) of the character included in the character string, and the coordinates in the image data of the range of the character string for each character string. Detect (step S1002). The feature amount extraction unit 192 extracts a third feature amount obtained by converting the detected information into a feature amount for each character string in the image data (step S1003). The third feature amount is information indicating the features of the character string included in the document form of the newly read image data.

次にグループ特定部195が、データベース4が記憶しているグループ第二特徴量のうち新たな文書帳票のグループ特定に利用するグループ第二特徴量を読み取る。当該グループ第二特徴量は例えば文書帳票の画像データに表示される発注者のエンブレム画像502に対応する特徴量であってよい。グループ特定部195はあるグループ第二特徴量に示す情報が、ステップS1001で取得した文書帳票の画像データから特定できるかどうかを判定する。グループ特定部195は全てのグループについてのグループ第二特徴量を用いて同様の処理を行う。グループ特定部195はデータベース4から読み取ったグループ第二特徴量に一致する情報が新たに読み込んだ文書帳票の画像データから特定できた場合、そのグループ第二特徴量を有するグループを、新たに読み込んだ文書帳票の画像データのグループと特定する(ステップS1004)。その後、グループ特定部195はデータベース4からそのグループについての1つまたは複数のグループ第一特徴量を読み出す(ステップS1005)。グループ特定部195は記録部193へ第三特徴量と1つまたは複数のグループ第一特徴量とを出力する。グループ第一特徴量はそのグループに属する文書帳票内の1つまたは複数の記録文字列を特定するための特徴量である。 Next, the group identification unit 195 reads the group second feature amount used for group identification of a new document form among the group second feature amounts stored in the database 4. The group second feature amount may be, for example, a feature amount corresponding to the orderer's emblem image 502 displayed in the image data of the document form. The group specifying unit 195 determines whether or not the information shown in the second feature amount of a certain group can be specified from the image data of the document form acquired in step S1001. The group identification unit 195 performs the same processing using the group second feature amount for all groups. When the information matching the group second feature amount read from the database 4 can be specified from the image data of the newly read document form, the group identification unit 195 newly reads the group having the group second feature amount. It is specified as a group of image data of a document form (step S1004). After that, the group identification unit 195 reads out one or a plurality of group first feature quantities for the group from the database 4 (step S1005). The group identification unit 195 outputs the third feature amount and one or a plurality of group first feature amounts to the recording unit 193. The group first feature amount is a feature amount for specifying one or more recorded character strings in the document form belonging to the group.

記録部193は画像データ中の文字列毎の第三特徴量と、記録文字列毎のグループ第一特徴量とを取得し、グループ第一特徴量と第三特徴量とを対応付ける(ステップS1006)。具体的には、記録部193は、グループ第一特徴量の各々について、その特徴量と一致する第三特徴量、または、最も近い第三特徴量を1つ対応付ける。この対応付けにより、文書帳票の画像データをOCR処理して得られた文字列の中から記録文字列が選択される。
次に、特徴量抽出部192は、表示部120を制御して、画像処理装置1による処理結果である記録文字列の表示と、文書帳票の画像とを並べて表示させる(ステップS1007)。ステップS1007は、図7のステップS706と同様である。
The recording unit 193 acquires the third feature amount for each character string in the image data and the group first feature amount for each recorded character string, and associates the group first feature amount with the third feature amount (step S1006). .. Specifically, the recording unit 193 associates each of the group first feature amounts with one third feature amount that matches the feature amount or one closest third feature amount. By this association, the recorded character string is selected from the character strings obtained by OCR processing the image data of the document form.
Next, the feature amount extraction unit 192 controls the display unit 120 to display the recorded character string, which is the processing result of the image processing device 1, and the image of the document form side by side (step S1007). Step S1007 is the same as step S706 in FIG.

次に、記録部193は、記録文字列の表示と文書帳票の画像との対応関係を取得済か判定する(ステップS1008)。例えば、記録部193は、記録文字列の表示と文書帳票の画像との対応関係の把握のための学習の回数が所定回数以上である場合に、対応関係を取得済と判定する。上記のように、記録文字列の表示と文書帳票の画像との対応関係の把握のための学習は、記録文字列の表示における記録文字列の特定のための学習であってもよいし、文書帳票の画像における記録文字列の特定のための学習であってもよい。あるいは、これらの学習の組み合わせであってもよい。 Next, the recording unit 193 determines whether or not the correspondence between the display of the recorded character string and the image of the document form has been acquired (step S1008). For example, the recording unit 193 determines that the correspondence relationship has been acquired when the number of times of learning for grasping the correspondence relationship between the display of the recorded character string and the image of the document form is equal to or more than a predetermined number of times. As described above, the learning for grasping the correspondence between the display of the recorded character string and the image of the document form may be the learning for specifying the recorded character string in the display of the recorded character string, or the document. It may be learning for specifying the recorded character string in the image of a form. Alternatively, it may be a combination of these learnings.

記録文字列の表示と文書帳票の画像との対応関係を取得済と判定した場合(ステップS1008:YES)、記録部193は、表示部120を制御して、記録文字列の表示と文書帳票の画像との対応関係を表示させる(ステップS1009)。ステップS1009は、図7のステップS708と同様である。
作業者が記録文字列を確認し修正した後、確定操作を行うと、画像処理装置1は、修正後の記録文字列を取得する(ステップS1010)。ステップS1008で、記録部193が、記録文字列の表示と文書帳票の画像との対応関係を取得済でないと判定した場合(ステップS1008:NO)も、処理がステップS1010へ進む。
When it is determined that the correspondence between the display of the recorded character string and the image of the document form has been acquired (step S1008: YES), the recording unit 193 controls the display unit 120 to display the recorded character string and display the document form. The correspondence with the image is displayed (step S1009). Step S1009 is the same as step S708 of FIG.
When the operator confirms and corrects the recorded character string and then performs a confirming operation, the image processing device 1 acquires the corrected recorded character string (step S1010). If the recording unit 193 determines in step S1008 that the correspondence between the display of the recorded character string and the image of the document form has not been acquired (step S1008: NO), the process proceeds to step S1010.

そして、対応関係学習部としての特徴量抽出部192および記録部193は、処理結果の表示(図8、9の例では、記録文字列の表示ウィンドウW2)における記録文字列の座標を学習する(ステップS1011)。例えば、特徴量抽出部192が、文書帳票の場合と同様に、処理結果の表示についても第一特徴量を抽出し、記録部193が、第一特徴量を用いて、記録文字列の位置を特定し、記憶する。
記録部193が、処理結果の表示の書式を既知の場合は、ステップS1011の処理は不要である。
Then, the feature amount extraction unit 192 and the recording unit 193 as the correspondence learning unit learn the coordinates of the recorded character string in the display of the processing result (in the example of FIGS. 8 and 9, the recording character string display window W2). Step S1011). For example, the feature amount extraction unit 192 extracts the first feature amount for the display of the processing result as in the case of the document form, and the recording unit 193 uses the first feature amount to determine the position of the recorded character string. Identify and remember.
If the recording unit 193 knows the format for displaying the processing result, the processing in step S1011 is unnecessary.

記録部193は、記録文字列を文書帳票の識別情報に対応付けて記録テーブルに記録する(ステップS1012)。
例えば、文書帳票の画像データ中から第三特徴量a3、第三特徴量b3、第三特徴量c3、第三特徴量d3が取得できたとする。そして第三特徴量a3が予めデータベースに記録されている第一特徴量a1と、第三特徴量b3が第一特徴量b1と、第三特徴量c3が第一特徴量c1と、第三特徴量d3が第一特徴量d1とそれぞれ特徴量が一致したとする。この場合、記録部193は、第三特徴量a3、第三特徴量b3、第三特徴量c3、第三特徴量d3それぞれに対応する文字列を、記録文字列として文書帳票の記録テーブルに記録する。ここでいう第三特徴量に対応する文字列は、その第三特徴量の抽出元の文字列である。作業者による記録文字列の修正があった場合、記録部193は、修正後の記録文字列を文書帳票の記録テーブルに記録する。
ステップS1012の後、画像処理装置1は、図12の処理を終了する。
The recording unit 193 records the recorded character string in the recording table in association with the identification information of the document form (step S1012).
For example, it is assumed that the third feature amount a3, the third feature amount b3, the third feature amount c3, and the third feature amount d3 can be obtained from the image data of the document form. Then, the third feature amount a3 is recorded in the database in advance, the first feature amount a1, the third feature amount b3 is the first feature amount b1, the third feature amount c3 is the first feature amount c1, and the third feature amount. It is assumed that the feature amount d3 coincides with the first feature amount d1. In this case, the recording unit 193 records the character strings corresponding to the third feature amount a3, the third feature amount b3, the third feature amount c3, and the third feature amount d3 in the recording table of the document form as recording character strings. To do. The character string corresponding to the third feature amount referred to here is the character string from which the third feature amount is extracted. When the recorded character string is modified by the operator, the recording unit 193 records the modified recorded character string in the recording table of the document form.
After step S1012, the image processing apparatus 1 ends the process of FIG.

画像処理装置1が、図12の処理で文書帳票における第一特徴量を更新するようにしてもよい。例えば画像処理装置1が、ステップS1011で、処理結果の表示における第一特徴量の機械学習に加えて、あるいは代えて、文書帳票における第一特徴量を学習するようにしてもよい。その場合、画像処理装置1が、図6の処理フローを再度実施するようにしてもよい。あるいは画像処理装置1が、ステップS1011で追加学習を行うことで、図6で処理済みのデータについては再度処理を行うことなく第一特徴量を更新するようにしてもよい。
画像処理装置1が、図12の処理で第一特徴量を更新することで、サンプルデータ数が増加して第一特徴量の精度が向上し、画像処理装置1が記録文字列を抽出する精度が向上することが期待される。また、図12の処理で記録文字列が追加された場合、画像処理装置1が新たに追加された記録文字列についても画像データから抽出できるようになり、作業者が文字列を入力する手間を省けることが期待される。
The image processing device 1 may update the first feature amount in the document form by the processing of FIG. For example, the image processing apparatus 1 may learn the first feature amount in the document form in addition to or instead of the machine learning of the first feature amount in the display of the processing result in step S1011. In that case, the image processing apparatus 1 may re-execute the processing flow of FIG. Alternatively, the image processing device 1 may perform additional learning in step S1011 to update the first feature amount of the data processed in FIG. 6 without performing processing again.
By updating the first feature amount in the process of FIG. 12, the image processing device 1 increases the number of sample data and improves the accuracy of the first feature amount, and the accuracy of the image processing device 1 extracting the recorded character string. Is expected to improve. Further, when the recorded character string is added in the process of FIG. 12, the image processing device 1 can also extract the newly added recorded character string from the image data, which saves the worker the trouble of inputting the character string. It is expected to be omitted.

図12に示す処理によれば、画像処理装置1は予め作業者が記録しておいた複数の書式それぞれの文書帳票の画像データと記録文字列とによって、新たに入力させた文書帳票の種別によらずにその文書帳票の画像データにおける記録文字列を自動的に記録することができる。したがって画像処理装置1は文書帳票における記録文字列の記録の作業者の労力を軽減することができる。また、作業者は表示部120の表示を参照して、画像処理装置1の処理結果である記録文字列を確認および修正できる。その際、表示部120が、処理結果の表示における文字列と文書帳票の画像における文字列との対応関係を示すことで、作業者は、対応関係を容易に把握することができる。 According to the process shown in FIG. 12, the image processing device 1 sets the type of the newly input document form by the image data and the recorded character string of the document form of each of the plurality of formats recorded in advance by the operator. Therefore, the recorded character string in the image data of the document form can be automatically recorded. Therefore, the image processing device 1 can reduce the labor of the operator for recording the recorded character string in the document form. Further, the operator can confirm and correct the recorded character string which is the processing result of the image processing device 1 by referring to the display of the display unit 120. At that time, the display unit 120 shows the correspondence relationship between the character string in the display of the processing result and the character string in the image of the document form, so that the worker can easily grasp the correspondence relationship.

<第三実施形態>
なお、画像処理装置1の処理の他の例としては、作業者が予め文書帳票のグループを画像処理装置1に登録しておいてもよい。例えば作業者は、過去において文書帳票の画像データを登録する際、文書帳票の種類に合わせてグループ識別子を入力しておき文書帳票の画像データと紐づけてデータベース4に登録しておく。これにより、同一グループ内に画像処理装置1の処理誤り等により異種の帳票が混じることがなくなり、精度のよい第一特徴量を抽出することができる。なおこの場合、登録時は作業者が文書帳票のグループを入力するが、新たな帳票に対しては、ステップS1004と同じく、第二特徴量を用いてグループ特定する。
<Third Embodiment>
As another example of the processing of the image processing device 1, the worker may register a group of document forms in the image processing device 1 in advance. For example, when the worker registers the image data of the document form in the past, he / she inputs the group identifier according to the type of the document form and registers it in the database 4 in association with the image data of the document form. As a result, different forms are not mixed in the same group due to a processing error of the image processing apparatus 1, and the first feature amount with high accuracy can be extracted. In this case, at the time of registration, the worker inputs a group of document forms, but for a new form, the group is specified using the second feature amount as in step S1004.

<第四実施形態>
また、画像処理装置1の処理の他の例としては、画像処理装置1は第二特徴量を用いて文書帳票をグループ分けするだけでなく、第一特徴量を用いて、また第二特徴量と共に第一特徴量を用いて、文書帳票をグループ分けするようにしてもよい。第一特徴量は記録文字列の特徴量であるが、同じ種類の文書帳票であれば、記録文字列の座標やその文字属性は同じであると考えられ、第一特徴量を用いて帳票をグループ分けすることが可能となる。最初のグループ分けを第四実施形態で示すように作業者が行い、新たな文書帳票に対してはステップS1004の処理により第一特徴量を用いてグループ分けすることにより、OCR処理において精度よく記録文字列を読み取ることが可能となる。
この場合、取得部191が、複数の帳票画像データとその帳票画像データに含まれる文字列のうち記録対象となった記録文字列とを取得する。そしてグループ分類部194が第一特徴量に基づいて帳票画像データをグループ分けする。そして、特徴量抽出部192は、グループに含まれる帳票画像データに対応する第一特徴量を用いて記録文字列を抽出する。
<Fourth Embodiment>
Further, as another example of the processing of the image processing device 1, the image processing device 1 not only groups the document forms using the second feature amount, but also uses the first feature amount and the second feature amount. In addition, the document form may be grouped by using the first feature amount. The first feature is the feature of the recorded character string, but if it is the same type of document form, it is considered that the coordinates of the recorded character string and its character attributes are the same, and the form is created using the first feature. It is possible to divide into groups. The first grouping is performed by the operator as shown in the fourth embodiment, and the new document form is grouped using the first feature amount by the processing of step S1004, so that the new document form is recorded accurately in the OCR processing. It becomes possible to read a character string.
In this case, the acquisition unit 191 acquires a plurality of form image data and the recorded character string to be recorded among the character strings included in the form image data. Then, the group classification unit 194 divides the form image data into groups based on the first feature amount. Then, the feature amount extraction unit 192 extracts the recorded character string using the first feature amount corresponding to the form image data included in the group.

<第五実施形態>
第二実施形態においてはステップS1004において第二特徴量に基づいて新たな帳票のグループを特定している。しかしながら、別の処理態様として、画像処理装置1はグループを特定する処理を行わずに、作業者により設定された全グループに対して、1グループごとに順に特定して第一特徴量を読み出し、第三特徴量と一致する個数をカウントする。正しいグループの場合には最も多く第一特徴量と第三特徴量とが一致するはずなので、画像処理装置1は一致個数が最も多いときの特定グループの第三特徴量それぞれに含まれる文字列を記録する。これにより、グループを特定しなくても記録文字列を記録することができる。
この場合、取得部191が、複数の帳票画像データとその帳票画像データに含まれる文字列のうち記録対象となった記録文字列とを取得する。そして、特徴量抽出部192は、取得部191の取得した帳票画像データを認識処理した結果に基づいて、記録文字列の特徴を示す第一特徴量または記録文字列以外の認識情報を示す第二特徴量を抽出する。特徴量抽出部192は、予め設定された所定のグループに含まれる帳票画像データに対応する第一特徴量を用いて記録文字列を抽出する。
<Fifth Embodiment>
In the second embodiment, a new group of forms is specified in step S1004 based on the second feature amount. However, as another processing mode, the image processing apparatus 1 does not perform the process of specifying the group, but reads out the first feature amount by sequentially specifying each group for all the groups set by the operator. Count the number that matches the third feature quantity. In the case of the correct group, the first feature amount and the third feature amount should match most, so the image processing device 1 sets the character string included in each of the third feature amounts of the specific group when the number of matches is the largest. Record. As a result, the recorded character string can be recorded without specifying the group.
In this case, the acquisition unit 191 acquires a plurality of form image data and the recorded character string to be recorded among the character strings included in the form image data. Then, the feature amount extraction unit 192 indicates the first feature amount indicating the characteristics of the recorded character string or the second recognition information other than the recorded character string based on the result of the recognition processing of the form image data acquired by the acquisition unit 191. Extract features. The feature amount extraction unit 192 extracts a recorded character string using the first feature amount corresponding to the form image data included in a predetermined group set in advance.

以上のように、記録部193は、複数の文書画像を用いた学習の結果に基づいて予め記録され、文書画像の種別毎かつ特定項目毎にその項目の文字列の特徴を示す特徴量のうち、表示されている第一の文書画像についての特徴量に基づいて、第一の文書画像における特定項目の文字列を検出する。表示部120は、第一の文書画像と当該第一の文書画像に対応して表示されている第二の文書画像とで、同じ特定項目を示す対応関係情報を出力する。
画像処理装置1によれば、文書画像における文字列の位置を学習により取得することができる。従って、画像処理装置1によれば、文字認識対象の文書のフォーマットが予めわかっていない場合でも、作業者が、どの項目がどこに示されているかを把握できるよう補助を行うことができる。
As described above, the recording unit 193 is recorded in advance based on the results of learning using a plurality of document images, and among the feature quantities indicating the characteristics of the character string of the item for each type of document image and for each specific item. , The character string of a specific item in the first document image is detected based on the feature amount of the displayed first document image. The display unit 120 outputs correspondence information indicating the same specific item between the first document image and the second document image displayed corresponding to the first document image.
According to the image processing device 1, the position of the character string in the document image can be acquired by learning. Therefore, according to the image processing device 1, even if the format of the document to be recognized as a character is not known in advance, it is possible to assist the operator so that he / she can grasp which item is shown where.

また、記録部193は、第一の文書画像における特定項目と同じ項目の文字列を第二の文書画像から検出する。
これにより、画像処理装置1は、第一の文書画像における特定項目の文字列と、第二の文書画像における特定項目の文字列との対応関係をユーザに提示することができる。ユーザは、対応関係の提示を参照することで、文字列の正誤を比較的容易に確認することができる。
Further, the recording unit 193 detects a character string of the same item as the specific item in the first document image from the second document image.
As a result, the image processing device 1 can present to the user the correspondence between the character string of the specific item in the first document image and the character string of the specific item in the second document image. The user can relatively easily confirm the correctness of the character string by referring to the presentation of the correspondence.

また、特徴量抽出部192および記録部193は、第一の文書画像と第二の文書画像との、同じ特定項目の対応関係を機械学習する。
これにより、画像処理装置1ではユーザの特別な処置を必要とせずに、第一の文書画像と第二の文書画像との、同じ特定項目の対応関係を自動的に学習できる。ユーザは、通常の処理を行えばよく、ユーザの負担が増えない。
Further, the feature amount extraction unit 192 and the recording unit 193 machine-learn the correspondence between the first document image and the second document image of the same specific item.
As a result, the image processing device 1 can automatically learn the correspondence between the first document image and the second document image of the same specific item without requiring any special treatment by the user. The user may perform normal processing, and the burden on the user does not increase.

また、特徴量抽出部192および記録部193は、第二の文書画像の文字列が確定されたとき以後の画像を用いて、第一の文書画像と第二の文書画像との、同じ特定項目の対応関係を機械学習する。
第二の文書画像の文字列が確定された場合、確定された文字列は正確であると考えられる。対応関係学習部が、この正確な文字列を利用して機械学習を行うことで、第一の文書画像と第二の文書画像との、同じ特定項目の対応関係を比較的高精度に学習できると期待される。
Further, the feature amount extraction unit 192 and the recording unit 193 use the images after the character string of the second document image is determined, and the same specific items of the first document image and the second document image are used. Machine learning the correspondence of.
When the character string of the second document image is confirmed, the confirmed character string is considered to be accurate. By performing machine learning using this accurate character string, the correspondence learning unit can learn the correspondence between the first document image and the second document image of the same specific item with relatively high accuracy. Is expected.

次に、図12を参照して、本発明の実施形態の構成について説明する。
図12は、実施形態に係る画像処理装置の構成の例を示す図である。図12に示す画像処理装置600は、文字列検出部601と、出力部602と、を備える。
かかる構成にて、文字列検出部601は、複数の文書画像を用いた学習の結果に基づいて予め記録され、文書画像の種別毎かつ特定項目毎にその項目の文字列の特徴を示す特徴量のうち、表示されている第一の文書画像についての特徴量に基づいて、第一の文書画像における特定項目の文字列を検出する。
出力部602は、第一の文書画像と当該第一の文書画像に対応して表示されている第二の文書画像とで、同じ特定項目を示す対応関係情報を出力する。
画像処理装置600によれば、文書画像における文字列の位置を学習により取得することができる。従って、画像処理装置600によれば、文字認識対象の文書のフォーマットが予めわかっていない場合でも、作業者が、どの項目がどこに示されているかを把握できるよう補助を行うことができる。
Next, the configuration of the embodiment of the present invention will be described with reference to FIG.
FIG. 12 is a diagram showing an example of the configuration of the image processing apparatus according to the embodiment. The image processing device 600 shown in FIG. 12 includes a character string detection unit 601 and an output unit 602.
With this configuration, the character string detection unit 601 is pre-recorded based on the results of learning using a plurality of document images, and is a feature amount that indicates the characteristics of the character string of the item for each type of document image and for each specific item. Among them, the character string of the specific item in the first document image is detected based on the feature amount of the displayed first document image.
The output unit 602 outputs correspondence information indicating the same specific item between the first document image and the second document image displayed corresponding to the first document image.
According to the image processing device 600, the position of the character string in the document image can be acquired by learning. Therefore, according to the image processing device 600, even if the format of the document to be recognized as a character is not known in advance, it is possible to assist the operator so that he / she can grasp which item is shown where.

上述の各装置は内部に、コンピュータシステムを有している。そして、各装置に上述した各処理を行わせるためのプログラムは、それら装置のコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムを各装置のコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。 Each of the above devices has a computer system inside. A program for causing each device to perform each of the above-described processes is stored in a computer-readable recording medium of those devices, and the computer of each device reads and executes this program to perform the above-mentioned processing. Will be done. Here, the computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Further, this computer program may be distributed to a computer via a communication line, and the computer receiving the distribution may execute the program.

また、上記プログラムは、前述した各処理部の機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Further, the above program may be for realizing a part of the functions of the above-mentioned processing units. Further, a so-called difference file (difference program) may be used, which can realize the above-mentioned functions in combination with a program already recorded in the computer system.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and includes designs and the like within a range that does not deviate from the gist of the present invention.

1 画像処理装置
2 画像読取装置
3 記録装置
4 データベース
110 通信部
120 表示部
130 操作入力部
180 記憶部
190 制御部
191 取得部
192 特徴量抽出部
193 記録部
1 Image processing device 2 Image reader 3 Recording device 4 Database 110 Communication unit 120 Display unit 130 Operation input unit 180 Storage unit 190 Control unit 191 Acquisition unit 192 Feature extraction unit 193 Recording unit

Claims (8)

文字列を含む複数の画像を用いた学習の結果に基づいて、認識対象の画像における特定項目の前記文字列を認識する文字列認識部と、
前記認識対象の画像と、前記文字列認識部による文字列認識結果とにおいて同じ前記特定項目を示す対応関係が把握可能な態様で、前記認識対象の画像と前記文字列認識結果とを出力する出力部と、
を備える画像処理装置。
A character string recognition unit that recognizes the character string of a specific item in the image to be recognized based on the result of learning using a plurality of images including the character string.
Output that outputs the image to be recognized and the character string recognition result in a manner in which the correspondence relationship indicating the same specific item can be grasped between the image to be recognized and the character string recognition result by the character string recognition unit. Department and
An image processing device comprising.
前記出力部により出力された前記文字列認識結果に含まれる文字列の修正操作を受け付ける操作受付部
をさらに備え、
前記文字列認識部は、前記操作受付部により受け付けられた修正操作により修正された文字列を、認識した文字列として記録する
請求項1に記載の画像処理装置。
Further, an operation reception unit for receiving a correction operation of the character string included in the character string recognition result output by the output unit is provided.
The image processing device according to claim 1, wherein the character string recognition unit records a character string corrected by a correction operation received by the operation reception unit as a recognized character string.
前記文字列認識部は、前記学習の結果に基づいて記録され、前記文字列を含む複数の画像が示す文書の種別毎および前記特定項目毎の文字列の特徴を示す特徴量のうち、前記認識対象の画像における文字列の特徴量に基づいて、前記特定項目の文字列を認識する
請求項1または2に記載の画像処理装置。
The character string recognition unit is recorded based on the result of the learning, and among the feature quantities showing the characteristics of the character string for each type of document and each specific item shown by the plurality of images including the character string, the recognition. The image processing apparatus according to claim 1 or 2, which recognizes the character string of the specific item based on the feature amount of the character string in the target image.
前記特徴量は、前記文字列に含まれる文字の属性および前記認識対象の画像における前記文字列の位置を示す情報に基づいて生成される
請求項3に記載の画像処理装置。
The image processing apparatus according to claim 3, wherein the feature amount is generated based on the attributes of characters included in the character string and information indicating the position of the character string in the image to be recognized.
前記文字の属性は、数字、アルファベット、ひらがな、漢字、文字数、文字高さ、およびフォントの少なくともいずれか1つを示す
請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the character attribute indicates at least one of a number, an alphabet, a hiragana, a kanji, a number of characters, a character height, and a font.
前記文字列認識部は、前記認識対象の画像における前記特定項目の前記文字列の候補を複数検出し、
前記出力部は、前記検出された文字列の候補それぞれの範囲を把握可能な態様で出力する
請求項1から5のいずれか一項に記載の画像処理装置。
The character string recognition unit detects a plurality of candidates for the character string of the specific item in the image to be recognized, and detects a plurality of candidates for the character string of the specific item.
The image processing apparatus according to any one of claims 1 to 5, wherein the output unit outputs a range of each of the detected character string candidates in a manner that can be grasped.
文字列を含む複数の画像を用いた学習の結果に基づいて、認識対象の画像における特定項目の前記文字列を認識する工程と、
前記認識対象の画像と、文字列認識結果とにおいて同じ前記特定項目を示す対応関係が把握可能な態様で、前記認識対象の画像と前記文字列認識結果とを出力する工程と、
を含む画像処理方法。
A process of recognizing the character string of a specific item in the image to be recognized based on the result of learning using a plurality of images including a character string, and
A step of outputting the image of the recognition target and the character string recognition result in a manner in which the correspondence relationship indicating the same specific item in the image of the recognition target and the character string recognition result can be grasped.
Image processing method including.
コンピュータに、
文字列を含む複数の画像を用いた学習の結果に基づいて、認識対象の画像における特定項目の前記文字列を認識する工程と、
前記認識対象の画像と、文字列認識結果とにおいて同じ前記特定項目を示す対応関係が把握可能な態様で、前記認識対象の画像と前記文字列認識結果とを出力する工程と、
を実行させるためのプログラム。
On the computer
A process of recognizing the character string of a specific item in the image to be recognized based on the result of learning using a plurality of images including a character string, and
A step of outputting the image of the recognition target and the character string recognition result in a manner in which the correspondence relationship indicating the same specific item in the image of the recognition target and the character string recognition result can be grasped.
A program to execute.
JP2020177513A 2020-10-22 2020-10-22 Image processing device, image processing method and program Active JP7111143B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020177513A JP7111143B2 (en) 2020-10-22 2020-10-22 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020177513A JP7111143B2 (en) 2020-10-22 2020-10-22 Image processing device, image processing method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018071143A Division JP6784273B2 (en) 2018-04-02 2018-04-02 Image processing equipment, image processing methods and programs

Publications (2)

Publication Number Publication Date
JP2021012741A true JP2021012741A (en) 2021-02-04
JP7111143B2 JP7111143B2 (en) 2022-08-02

Family

ID=74226157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020177513A Active JP7111143B2 (en) 2020-10-22 2020-10-22 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP7111143B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023028965A (en) * 2021-08-20 2023-03-03 株式会社マネーフォワード Voucher structure analysis system, voucher structure analysis method, and voucher structure analysis program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05258099A (en) * 1992-03-16 1993-10-08 Fujitsu Ltd Character recognition processor
JPH11282955A (en) * 1998-03-27 1999-10-15 Fujitsu Ltd Character recognition device, its method and computer readable storage medium recording program for computer to execute the method
JP2000113100A (en) * 1995-07-31 2000-04-21 Fujitsu Ltd Medium processing method and medium processor
JP2015005100A (en) * 2013-06-20 2015-01-08 株式会社日立システムズ Information processor, template generation method, and program
JP2016001399A (en) * 2014-06-11 2016-01-07 日本電信電話株式会社 Relevance determination device, model learning device, method, and program
JP2016048444A (en) * 2014-08-27 2016-04-07 沖電気工業株式会社 Document identification program, document identification device, document identification system, and document identification method
JP2017016549A (en) * 2015-07-06 2017-01-19 株式会社日立システムズ Character recognition device, character recognition method, and program
JP2017054408A (en) * 2015-09-11 2017-03-16 オムロン株式会社 Vehicle type determination device, vehicle type determination method, vehicle type determination program
JP2017151627A (en) * 2016-02-23 2017-08-31 沖電気工業株式会社 Slip data creating system, slip data creating device, slip data creating method and control program of slip data creating device
JP2018005462A (en) * 2016-06-30 2018-01-11 株式会社日立ソリューションズ Recognition device and recognition method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05258099A (en) * 1992-03-16 1993-10-08 Fujitsu Ltd Character recognition processor
JP2000113100A (en) * 1995-07-31 2000-04-21 Fujitsu Ltd Medium processing method and medium processor
JPH11282955A (en) * 1998-03-27 1999-10-15 Fujitsu Ltd Character recognition device, its method and computer readable storage medium recording program for computer to execute the method
JP2015005100A (en) * 2013-06-20 2015-01-08 株式会社日立システムズ Information processor, template generation method, and program
JP2016001399A (en) * 2014-06-11 2016-01-07 日本電信電話株式会社 Relevance determination device, model learning device, method, and program
JP2016048444A (en) * 2014-08-27 2016-04-07 沖電気工業株式会社 Document identification program, document identification device, document identification system, and document identification method
JP2017016549A (en) * 2015-07-06 2017-01-19 株式会社日立システムズ Character recognition device, character recognition method, and program
JP2017054408A (en) * 2015-09-11 2017-03-16 オムロン株式会社 Vehicle type determination device, vehicle type determination method, vehicle type determination program
JP2017151627A (en) * 2016-02-23 2017-08-31 沖電気工業株式会社 Slip data creating system, slip data creating device, slip data creating method and control program of slip data creating device
JP2018005462A (en) * 2016-06-30 2018-01-11 株式会社日立ソリューションズ Recognition device and recognition method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023028965A (en) * 2021-08-20 2023-03-03 株式会社マネーフォワード Voucher structure analysis system, voucher structure analysis method, and voucher structure analysis program
JP7241822B2 (en) 2021-08-20 2023-03-17 株式会社マネーフォワード Evidence Structure Analysis System, Evidence Structure Analysis Method, and Evidence Structure Analysis Program

Also Published As

Publication number Publication date
JP7111143B2 (en) 2022-08-02

Similar Documents

Publication Publication Date Title
JP6874729B2 (en) Image processing equipment, image processing methods and programs
JP6859977B2 (en) Image processing equipment, image processing systems, image processing methods and programs
US8270721B2 (en) Method and system for acquiring data from machine-readable documents
JP6791191B2 (en) Image processing equipment, image processing methods and programs
JP2009238217A (en) Information processing system, information processor, information processing method, and program
JPH02289100A (en) Kanji coding and decoding equipment
JP2008204226A (en) Form recognition device and its program
JP6784273B2 (en) Image processing equipment, image processing methods and programs
WO2007094078A1 (en) Character string search method and device thereof
JP7111143B2 (en) Image processing device, image processing method and program
JP6784274B2 (en) Image processing equipment, image processing methods and programs
JP2005038077A (en) Written data input device
JP7160432B2 (en) Image processing device, image processing method, program
JP3732254B2 (en) Format information generation method and format information generation apparatus
JP7447482B2 (en) Image processing device, system, method, and program
US20210209354A1 (en) Information processing device, information processing method, and information processing program
JPH0689330A (en) Image filing system
JP2023081564A (en) Information representation pattern generation device and method
JP2020181568A (en) Information processing device, information processing method, and information processing program
JPH0793424A (en) Document input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220704

R151 Written notification of patent or utility model registration

Ref document number: 7111143

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151