JP2019008775A - Image processing device, image processing system, image processing method, program - Google Patents

Image processing device, image processing system, image processing method, program Download PDF

Info

Publication number
JP2019008775A
JP2019008775A JP2018071141A JP2018071141A JP2019008775A JP 2019008775 A JP2019008775 A JP 2019008775A JP 2018071141 A JP2018071141 A JP 2018071141A JP 2018071141 A JP2018071141 A JP 2018071141A JP 2019008775 A JP2019008775 A JP 2019008775A
Authority
JP
Japan
Prior art keywords
image data
character string
feature amount
feature
form image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018071141A
Other languages
Japanese (ja)
Inventor
隼哉 秋山
Junya Akiyama
隼哉 秋山
克彦 近藤
Katsuhiko Kondo
克彦 近藤
哲 ▲瀬▼川
哲 ▲瀬▼川
Satoru Segawa
裕一 中谷
Yuichi Nakatani
裕一 中谷
杉本 充
Mitsuru Sugimoto
充 杉本
康 日高
Yasushi Hidaka
康 日高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2019008775A publication Critical patent/JP2019008775A/en
Priority to JP2022108466A priority Critical patent/JP2022125220A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

To record any recording object character in any document corresponding to the type of a format even when the number of format types of documents is large.SOLUTION: An image processing device includes: a feature quantity extraction unit for extracting, on the basis of the result of a character recognition processing of a plurality of form image data, the feature quantity indicating the feature of a character string included in each of the form image data; and a reading object feature quantity generation unit for generating a first feature quantity as the feature quantity of the recording character string using the feature quantity corresponding to the form image data.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理システム、画像処理方法、プログラムに関する。   The present invention relates to an image processing apparatus, an image processing system, an image processing method, and a program.

スキャナ等を用いて取得した文書の画像をOCR(Optical Character Recognition)処理し、文書を読み取る画像処理装置がある。文書の書式が様々である場合にはこのような画像処理装置では文書の書式定義の情報を予め記憶しておき、読取対象領域を特定することでOCR処理の精度を高めている。これに関連する技術が特許文献1に開示されている。   There is an image processing apparatus that performs OCR (Optical Character Recognition) processing on an image of a document acquired using a scanner or the like and reads the document. When there are various document formats, such an image processing apparatus stores information on the format definition of the document in advance and specifies the reading target area to improve the accuracy of the OCR processing. A technique related to this is disclosed in Patent Document 1.

特開2016−48444号公報JP 2016-48444 A

しかしながら上述のように文書の書式の種類が多い場合、その全ての書式定義の情報を画像処理装置に対して記憶させておくことは作業者の労力がかかる。   However, when there are many types of document formats as described above, it is laborious for the operator to store all the format definition information in the image processing apparatus.

そこでこの発明は、上述の課題を解決する画像処理装置、画像処理システム、画像処理方法、プログラムを提供することを目的としている。   Therefore, an object of the present invention is to provide an image processing apparatus, an image processing system, an image processing method, and a program that solve the above-described problems.

本発明の第1の態様によれば、画像処理装置は、複数の帳票画像データを文字認識処理した結果に基づいて、前記帳票画像データに含まれる文字列の特徴を示す特徴量を前記帳票画像データ毎に抽出する特徴量抽出部と、前記帳票画像データに対応する前記特徴量を用いて前記記録文字列の特徴量である第一特徴量を生成する読取対象特徴量生成部と、を備える。   According to the first aspect of the present invention, the image processing apparatus obtains a feature amount indicating a character string feature included in the form image data based on a result of character recognition processing on a plurality of form image data. A feature amount extraction unit that extracts each data, and a read target feature amount generation unit that generates a first feature amount that is a feature amount of the recorded character string using the feature amount corresponding to the form image data. .

本発明の第2の態様によれば、画像処理方法は、複数の帳票画像データを文字認識処理した結果に基づいて、前記帳票画像データに含まれる文字列の特徴を示す特徴量を前記帳票画像データ毎に抽出するする工程と、前記帳票画像データに対応する前記特徴量を用いて前記記録文字列の特徴量である第一特徴量を生成する工程と、を含む。   According to the second aspect of the present invention, in the image processing method, based on a result of character recognition processing on a plurality of form image data, a feature amount indicating a feature of a character string included in the form image data is calculated. Extracting for each data, and generating a first feature quantity that is a feature quantity of the recorded character string using the feature quantity corresponding to the form image data.

本発明の第3の態様によれば、プログラムは、コンピュータに、複数の帳票画像データを文字認識処理した結果に基づいて、前記帳票画像データに含まれる文字列の特徴を示す特徴量を前記帳票画像データ毎に抽出する工程と、前記帳票画像データに対応する前記特徴量を用いて前記記録文字列の特徴量である第一特徴量を生成する工程と、を実行させるためのプログラムである。   According to the third aspect of the present invention, the program causes the computer to display a feature amount indicating a feature of a character string included in the form image data based on a result of character recognition processing of a plurality of form image data. It is a program for executing a step of extracting for each image data and a step of generating a first feature amount that is a feature amount of the recorded character string using the feature amount corresponding to the form image data.

本発明によれば、文書の書式種類が多い場合でもそれら書式の種類に応じた任意の書類における任意の記録対象文字を記録することができる。   According to the present invention, even when there are many document format types, it is possible to record any character to be recorded in any document according to the format type.

画像処理装置を含む画像処理システムの概要を示す図である。It is a figure which shows the outline | summary of the image processing system containing an image processing apparatus. 画像処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of an image processing apparatus. 画像処理装置の機能ブロック図である。It is a functional block diagram of an image processing apparatus. 文書帳票の一例を示す図である。It is a figure which shows an example of a document form. データベースが記憶するデータテーブルの概要を示す図である。It is a figure which shows the outline | summary of the data table which a database memorize | stores. 第一実施形態による画像処理装置の処理フローを示す第一の図である。It is a 1st figure which shows the processing flow of the image processing apparatus by 1st embodiment. 第一実施形態による画像処理装置の処理フローを示す第二の図である。It is a 2nd figure which shows the processing flow of the image processing apparatus by 1st embodiment. 第二実施形態による画像処理装置の機能ブロック図である。It is a functional block diagram of the image processing apparatus by 2nd embodiment. 第二実施形態による画像処理装置の処理フローを示す第一の図である。It is a 1st figure which shows the processing flow of the image processing apparatus by 2nd embodiment. 第二実施形態による画像処理装置の処理フローを示す第二の図である。It is a 2nd figure which shows the processing flow of the image processing apparatus by 2nd embodiment. 第六実施形態による画像処理装置の処理フローを示す図である。It is a figure which shows the processing flow of the image processing apparatus by 6th embodiment. 第七実施形態による画像処理システムと既存OCRシステムとの接続例を示す図である。It is a figure which shows the example of a connection of the image processing system by 7th embodiment, and the existing OCR system. 第六実施形態による画像処理装置の処理フローを示す図である。It is a figure which shows the processing flow of the image processing apparatus by 6th embodiment. 第八実施形態による画像処理システム200の概要を示す図である。It is a figure which shows the outline | summary of the image processing system 200 by 8th embodiment. 第八実施形態による端末装置の処理フローを示す図である。It is a figure which shows the processing flow of the terminal device by 8th embodiment. 第八実施形態によるサーバ装置の処理フローを示す図である。It is a figure which shows the processing flow of the server apparatus by 8th embodiment. 画像処理装置の最小構成を示す図である。It is a figure which shows the minimum structure of an image processing apparatus.

以下、本発明の一実施形態による画像処理装置を図面を参照して説明する。
図1は本実施形態による画像処理装置を含む画像処理システムの概要を示す図である。
図1で示すように画像処理システム100は画像処理装置1、画像読取装置2、記録装置3、データベース4により構成される。
画像処理装置1は画像読取装置2と通信ケーブルにより接続されている。画像読取装置2は光学的に文書帳票などの画像データを取得して画像処理装置1へ出力する。画像処理装置1は文書帳票の画像データをOCR処理し文字認識する。画像処理装置1は文字認識結果を記録装置3に出力し、記録装置3がその文字認識結果をデータベースに記録する。データベース4は画像処理装置1と記録装置3とに接続されている。データベース4は記録装置3から過去に登録された複数の文書帳票の画像データとその画像データに含まれる文字列のうち記録対象となる文字列を示す記録文字列の対応関係を記憶している。記録文字列が示す文字列は文書帳票に記述される文字列のうちデータベース4に記録、保存しておくべき重要な文字列である。画像処理システム100を利用する作業者は予め、記録装置3を用いて過去に登録された複数の文書帳票の画像データとその画像データに含まれる文字列のうちの記録文字列をデータベース4に登録しておく。
Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing an outline of an image processing system including an image processing apparatus according to the present embodiment.
As shown in FIG. 1, the image processing system 100 includes an image processing apparatus 1, an image reading apparatus 2, a recording apparatus 3, and a database 4.
The image processing apparatus 1 is connected to the image reading apparatus 2 via a communication cable. The image reading device 2 optically acquires image data such as a document form and outputs it to the image processing device 1. The image processing apparatus 1 recognizes characters by performing OCR processing on image data of a document form. The image processing apparatus 1 outputs the character recognition result to the recording device 3, and the recording device 3 records the character recognition result in the database. The database 4 is connected to the image processing apparatus 1 and the recording apparatus 3. The database 4 stores a correspondence relationship between image data of a plurality of document forms registered in the past from the recording device 3 and a recorded character string indicating a character string to be recorded among character strings included in the image data. The character string indicated by the recorded character string is an important character string to be recorded and stored in the database 4 among the character strings described in the document form. An operator who uses the image processing system 100 registers in advance in the database 4 the image data of a plurality of document forms registered in the past using the recording device 3 and the recorded character strings among the character strings included in the image data. Keep it.

そして記録装置3には文書帳票の画像データとその画像データに含まれる文字列の情報のうち記録対象となる文字列を示す記録文字列の情報との対応関係が、多くの文書帳票について十分に記録されているものとする。このような状態において、画像処理装置1は処理を行う。   The recording device 3 has sufficient correspondence between the image data of the document form and the information of the recorded character string indicating the character string to be recorded among the information of the character string included in the image data for many document forms. It shall be recorded. In such a state, the image processing apparatus 1 performs processing.

図2は画像処理装置のハードウェア構成を示す図である。
画像処理装置1は図2で示すように、CPU(Central Processing Unit)11、IF(Interface)12、通信モジュール13、ROM(Read Only Memory)14、RAM(Random Access Memory)15、HDD(Hard Disk Drive)16などの構成を備えたコンピュータである。通信モジュール13は画像読取装置2、記録装置3、データベース4との間で無線通信を行うものであっても、有線通信を行うものであってもよく、それら2つの機能を有していてもよい。
FIG. 2 is a diagram illustrating a hardware configuration of the image processing apparatus.
As shown in FIG. 2, the image processing apparatus 1 includes a CPU (Central Processing Unit) 11, an IF (Interface) 12, a communication module 13, a ROM (Read Only Memory) 14, a RAM (Random Access Memory) 15, an HDD (Hard Disk). Drive) 16 or the like. The communication module 13 may perform wireless communication with the image reading device 2, the recording device 3, and the database 4, or may perform wired communication, and may have these two functions. Good.

図3は画像処理装置の機能ブロック図である。
画像処理装置1のCPU11は記憶するプログラムを実行することにより、制御部101、取得部102、特徴量抽出部103、読取対象特徴量生成部104、記録部105の機能を備える。
FIG. 3 is a functional block diagram of the image processing apparatus.
The CPU 11 of the image processing apparatus 1 has the functions of a control unit 101, an acquisition unit 102, a feature amount extraction unit 103, a read target feature amount generation unit 104, and a recording unit 105 by executing a stored program.

制御部101は、他の機能部を制御する。
取得部102は、文書帳票の画像データを取得する。
特徴量抽出部103は、複数の文書帳票の画像データの文字認識処理結果に基づいて、文書帳票の画像データに含まれる記録文字列の特徴を示す特徴量を文書帳票の画像データ毎に抽出する。
読取対象特徴量生成部104は、文書帳票の画像データに対応する特徴量を用いて記録文字列の第一特徴量を生成する。
記録部105は、第一特徴量を用いて、新たな文書帳票の画像データから読み取った文字列の情報のうちの記録文字列を抽出して記録する。
The control unit 101 controls other functional units.
The acquisition unit 102 acquires image data of a document form.
The feature amount extraction unit 103 extracts, for each image data of the document form, a feature amount indicating the feature of the recorded character string included in the image data of the document form based on the character recognition processing result of the image data of the plurality of document forms. .
The reading target feature value generation unit 104 generates a first feature value of the recorded character string using a feature value corresponding to the image data of the document form.
The recording unit 105 uses the first feature amount to extract and record a recorded character string from character string information read from image data of a new document form.

このような処理により画像処理装置1は新たな文書帳票の画像データに含まれる記録するべき文字列情報の記録の労力を軽減する。   By such processing, the image processing apparatus 1 reduces the labor of recording character string information to be recorded included in the image data of the new document form.

図4は文書帳票の一例を示す図である。
この図が示すように文書帳票には、その文書を作成した企業のマーク、作成日、作成担当者、文書内容が、その文書帳票に特有のフォーマットで記述されている。文書内容は、例えば文書帳票が発注票であれば発注した商品名やその発注個数などの情報の組が1つまたは複数を示す。作業者はある1つの文書帳票に基づいて、その文書帳票に記述されている文字列のうち記録すべき特定の記録文字列を、記録装置3を用いてデータベース4へ記録する。具体的には作業者は文書帳票を見ながら記録装置3がデータベース4に記録すべき特定の記録文字列を入力する。また作業者は文書帳票の画像データを画像読取装置2に読み込ませる。文書帳票は作業者の操作に基づいて画像読取装置2が読み取り画像処理装置1へ出力する。そして記録装置3は作業者の操作と画像処理装置1の制御とに基づいて、1つの文書帳票についての画像データと、その文書帳票に記述されている文字列のうち記録すべき特定の記録文字列を対応付けてデータベース4に記録する。図4の例においては、日付51、発注先52、商品名53、数量54、金額55が記録すべき特定の記録文字列である。文書帳票5には作業者によって記録されない非記録文字列等のその他の情報も印字されている。当該情報は例えば文書帳票を発行した発注者の名称501、発注者のエンブレム画像502、文書帳票のタイトル503、挨拶文504などである。
FIG. 4 shows an example of a document form.
As shown in this figure, in the document form, the mark of the company that created the document, the creation date, the person in charge of the creation, and the document content are described in a format specific to the document form. For example, if the document form is an order form, the document content indicates one or a plurality of information sets such as the name of the ordered product and the number of orders. Based on one document form, the operator records a specific record character string to be recorded among the character strings described in the document form in the database 4 using the recording device 3. Specifically, the operator inputs a specific recording character string to be recorded in the database 4 by the recording device 3 while looking at the document form. Further, the operator causes the image reading device 2 to read the image data of the document form. The document form is read by the image reading device 2 and output to the image processing device 1 based on the operation of the operator. Based on the operator's operation and the control of the image processing apparatus 1, the recording device 3 stores the image data for one document form and a specific recording character to be recorded among the character strings described in the document form. The columns are associated and recorded in the database 4. In the example of FIG. 4, the date 51, the supplier 52, the product name 53, the quantity 54, and the amount 55 are specific recording character strings to be recorded. Other information such as a non-recorded character string that is not recorded by the operator is also printed on the document form 5. The information includes, for example, the name 501 of the orderer who issued the document form, the emblem image 502 of the orderer, the title 503 of the document form, the greeting 504, and the like.

図5はデータベースが記憶するデータテーブルの概要を示す図である。
図5で示すようにデータベース4は文書帳票についての画像データと、その文書帳票に記述されている文字列のうち記録すべき特定の記録文字列を対応付けて記録テーブルに記憶する。
FIG. 5 is a diagram showing an outline of a data table stored in the database.
As shown in FIG. 5, the database 4 associates image data of a document form with a specific recording character string to be recorded among character strings described in the document form, and stores them in a recording table.

<第一実施形態>
図6は第一実施形態による画像処理装置の処理フローを示す第一の図である。
次に画像処理装置1の処理フローについて順を追って説明する。
まずデータベース4にはある文書帳票についての画像データと、その文書帳票に記述されている特定の記録文字列の組み合わせが、その同じ文書帳票複数枚分記録されている。例えば図4で示す文書帳票5についての特定の記録文字列情報が同じ複数枚分記録されているとする。このような状態で作業者が画像処理装置1を起動し、当該画像処理装置1へ処理開始を指示する。
<First embodiment>
FIG. 6 is a first diagram illustrating a processing flow of the image processing apparatus according to the first embodiment.
Next, the processing flow of the image processing apparatus 1 will be described in order.
First, in the database 4, a combination of image data of a certain document form and a specific recording character string described in the document form are recorded for the same document form. For example, it is assumed that a plurality of specific recording character string information is recorded for the document form 5 shown in FIG. In this state, the worker activates the image processing apparatus 1 and instructs the image processing apparatus 1 to start processing.

画像処理装置1の取得部102はデータベース4から文書帳票5の画像データとその画像データに対応する記録文字列の情報を読み取る(ステップS601)。取得部102は画像データと記録文字列とを特徴量抽出部103へ出力する。特徴量抽出部103は画像データをOCR処理して画像データ中の全ての文字列と当該文字列の範囲を示す画像データ内の座標を検出する(ステップS602)。なお文字列は複数の文字によって構成される文字の纏まりである。特徴量抽出部103は他の文字との間隔などによってその1つの纏まりの範囲を解析し、その範囲に含まれる1つまたは複数の文字を文字列として抽出すると共に、その画像データ内の文字列の範囲を示す座標を検出する。文字列として含まれる文字は、表意文字、表音文字などの記号、マーク、アイコン画像などを含んでよい。   The acquisition unit 102 of the image processing apparatus 1 reads the image data of the document form 5 and the information of the recorded character string corresponding to the image data from the database 4 (step S601). The acquisition unit 102 outputs the image data and the recorded character string to the feature amount extraction unit 103. The feature amount extraction unit 103 performs OCR processing on the image data, and detects coordinates in the image data indicating all character strings in the image data and the range of the character strings (step S602). The character string is a group of characters composed of a plurality of characters. The feature amount extraction unit 103 analyzes the range of one group based on an interval with other characters, extracts one or a plurality of characters included in the range as a character string, and character strings in the image data The coordinates indicating the range of are detected. Characters included as a character string may include symbols such as ideograms and phonetic characters, marks, icon images, and the like.

特徴量抽出部103はOCR処理により画像データから抽出した文字列と、画像データと共にデータベース4から読み取った記録文字列とを比較する。特徴量抽出部103はOCR処理により画像データから抽出した文字列のうち、記録文字列の文字情報と一致した画像データ中の文字列と、その文字列に含まれる文字の属性と、その範囲の座標とを特定する(ステップS603)。文字の属性は、数字、アルファベット、ひらがな、漢字、文字数、文字高さ、フォントなどにより表される情報である。また文字列の範囲の座標には文字列に含まれる先頭文字の座標、終了文字の座標などを示す情報である。特徴量抽出部103はそれら特定した情報を含む特徴量を複数枚の同じ文書帳票5について生成する(ステップS604)。   The feature amount extraction unit 103 compares the character string extracted from the image data by OCR processing with the recorded character string read from the database 4 together with the image data. Of the character strings extracted from the image data by OCR processing, the feature amount extraction unit 103 includes a character string in the image data that matches the character information of the recorded character string, a character attribute included in the character string, and a range of the character string. The coordinates are specified (step S603). Character attributes are information represented by numbers, alphabets, hiragana, kanji, number of characters, character height, font, and the like. The coordinates of the range of the character string are information indicating the coordinates of the first character and the end character included in the character string. The feature amount extraction unit 103 generates feature amounts including the specified information for a plurality of the same document forms 5 (step S604).

特徴量は特徴量抽出部103によって文書帳票5における記録文字列ごとに生成される。読取対象特徴量生成部104はそれら複数枚の同じ文書帳票5における特徴量を取得し、記録文字列に対応する各特徴量に含まれる文字の属性、文字列の範囲を示す座標を解析してそれぞれ1つの特徴量を生成する。この特徴量の解析は機械学習などの処理により行う。機械学習のことを単に学習とも称する。
読取対象特徴量生成部104が機械学習などの解析により生成した特徴量を第一特徴量と呼ぶ。つまり読取対象特徴量生成部104は同じ文書帳票5の複数枚を用いて、その文書帳票5における記録文字列それぞれの第一特徴量を生成する(ステップS605)。第一特徴量は記録文字列を認識するための特徴量であり、文字の属性、文字列の範囲を示す座標を含む。読取対象特徴量生成部104は文書帳票5における1つ又は複数の記録文字列それぞれの第一特徴量を、文書帳票5の識別子に紐づけてデータベース4に記録する(ステップS606)。
The feature amount is generated for each recorded character string in the document form 5 by the feature amount extraction unit 103. The read target feature amount generation unit 104 acquires the feature amounts in the plurality of the same document forms 5, and analyzes the character attributes included in each feature amount corresponding to the recorded character string and the coordinates indicating the character string range. One feature amount is generated for each. This feature amount analysis is performed by a process such as machine learning. Machine learning is also simply referred to as learning.
The feature amount generated by the reading target feature amount generation unit 104 through analysis such as machine learning is referred to as a first feature amount. That is, the reading target feature value generation unit 104 generates a first feature value for each of the recorded character strings in the document form 5 using a plurality of the same document form 5 (step S605). The first feature amount is a feature amount for recognizing a recorded character string, and includes a character attribute and coordinates indicating a character string range. The reading target feature value generation unit 104 records the first feature value of each of the one or more recorded character strings in the document form 5 in the database 4 in association with the identifier of the document form 5 (step S606).

例えば読取対象特徴量生成部104は、文書帳票5に含まれる記録文字列である日付51、発注先52、商品名53、数量54、金額55それぞれの、文字属性、文字列の範囲を示す座標などを示す各第一特徴量を、文書帳票5の識別子に紐づけてデータベース4に記録する。   For example, the read target feature amount generation unit 104 includes the character attribute and the character string range coordinates of the date 51, the ordering party 52, the product name 53, the quantity 54, and the amount 55 that are the recorded character strings included in the document form 5. Etc. are recorded in the database 4 in association with the identifier of the document form 5.

以上の処理により画像処理装置1は、作業者の記録文字列を記録する労力を軽減するために利用する情報(第一特徴量)を機械学習等により生成してデータベース4に蓄積することができる。これにより画像処理装置1は新たな文書帳票についての画像データに基づいて記録文字列を自動でデータベース4に記録していくことができる。以下、その処理について説明する。   With the above processing, the image processing apparatus 1 can generate information (first feature amount) used to reduce the labor of recording the recorded character string of the worker by machine learning or the like and store it in the database 4. . As a result, the image processing apparatus 1 can automatically record the recorded character string in the database 4 based on the image data of the new document form. Hereinafter, the processing will be described.

図7は第一実施形態による画像処理装置の処理フローを示す第二の図である。
作業者は新たな文書帳票を画像読取装置2に読み取らせる操作を行う。これにより画像読取装置2は文書帳票の画像データを生成して画像処理装置1へ出力する。画像処理装置1の取得部102は画像データを取得する(ステップS701)。取得部102は画像データを特徴量抽出部103へ出力する。特徴量抽出部103は画像データをOCR処理して、文字列と、文字列に含まれる文字の特徴と、その文字列の範囲の画像データ中の座標を検出する(ステップS702)。特徴量抽出部103はそれら検出した情報を含む第三特徴量を、画像データ中の文字列ごとに生成する(ステップS703)。つまり第三特徴量は新たに読み込んだ画像データの文書帳票に含まれる文字列の特徴を示す情報である。その後、グループ特定部107はデータベース4から、処理対象画像データの文書帳票についての1つまたは複数の第一特徴量を読み出す(ステップS704)。グループ特定部107は記録部105へ第三特徴量と第一特徴量を出力する。
FIG. 7 is a second diagram showing a processing flow of the image processing apparatus according to the first embodiment.
The operator performs an operation for causing the image reading apparatus 2 to read a new document form. As a result, the image reading device 2 generates image data of the document form and outputs it to the image processing device 1. The acquisition unit 102 of the image processing apparatus 1 acquires image data (step S701). The acquisition unit 102 outputs the image data to the feature amount extraction unit 103. The feature amount extraction unit 103 performs OCR processing on the image data to detect a character string, a character feature included in the character string, and coordinates in the image data within the range of the character string (step S702). The feature amount extraction unit 103 generates a third feature amount including the detected information for each character string in the image data (step S703). That is, the third feature amount is information indicating the feature of the character string included in the document form of the newly read image data. Thereafter, the group specifying unit 107 reads out one or more first feature amounts for the document form of the processing target image data from the database 4 (step S704). The group specifying unit 107 outputs the third feature value and the first feature value to the recording unit 105.

記録部105は画像データ中の1つまたは複数の文字列についての第三特徴量と、1つ又は複数の第一特徴量とを取得する。記録部105は各第一特徴量に含まれる文字列の範囲を示す座標を用いて、各第一特徴量が示す当該座標に対応する座標を有する第三特徴量が全て存在するかを判定する(ステップS705)。各第一特徴量の座標に対応する座標を有する第三特徴量が全て存在する場合には、記録文字列に対応する文書帳票内の全ての記載事項に文字の記載が存在する。一方、各第一特徴量の座標に対応する座標を有する第三特徴量が全て存在しない場合には、文書帳票内の何れかの記載事項に文字の記載が無い状態である。   The recording unit 105 acquires a third feature amount and one or more first feature amounts for one or more character strings in the image data. The recording unit 105 uses the coordinates indicating the range of the character string included in each first feature value to determine whether all the third feature values having coordinates corresponding to the coordinates indicated by the first feature values exist. (Step S705). When all the third feature values having coordinates corresponding to the coordinates of the first feature values exist, the description of characters exists in all the description items in the document form corresponding to the recorded character string. On the other hand, when there is no third feature amount having coordinates corresponding to the coordinates of each first feature amount, there is no description of characters in any description items in the document form.

ステップS705でYESの場合、記録部105は、第一特徴量に含まれる文字属性と、座標に基づいて特定された対応する第三特徴量に含まれる文字属性がそれぞれ一致するかどうかを判定する(ステップS706)。   If YES in step S705, the recording unit 105 determines whether or not the character attribute included in the first feature amount matches the character attribute included in the corresponding third feature amount specified based on the coordinates. (Step S706).

記録部105は、ステップS706の判定結果がYESとなり文字属性が一致する場合、現在処理している画像データにおいて1つまたは複数の第三特徴量が示す座標に基づく記録文字列の範囲に矩形枠を表示した確認画面を生成する。記録部105はその確認画面をモニタに出力する(ステップS707)。作業者はこの確認画面に表示された矩形領域を確認して、画像処理装置1が記録しようとする記録文字列を確認することができる。これにより作業者は記録文字列に不足が無いかを確認することができる。確認画面にはOKまたはNGの何れかのボタンのアイコン画像が表示されている。このボタンのアイコン画像のうちOKのボタンを選択することにより作業者は記録文字列としての選択に不足がないことを指示することができる。他方、ボタンのアイコン画像のうちNGのボタンを選択することにより作業者は記録文字列としての選択に不足があることを指示することができる。   When the determination result in step S706 is YES and the character attributes match, the recording unit 105 forms a rectangular frame within the range of the recorded character string based on the coordinates indicated by one or more third feature amounts in the currently processed image data. Generate a confirmation screen displaying. The recording unit 105 outputs the confirmation screen to the monitor (step S707). The operator can confirm the rectangular area displayed on the confirmation screen and confirm the recorded character string that the image processing apparatus 1 intends to record. Thereby, the operator can confirm whether there is a shortage in the recorded character string. An icon image of either OK or NG button is displayed on the confirmation screen. By selecting an OK button among the icon images of this button, the operator can instruct that there is no shortage of selection as a recorded character string. On the other hand, by selecting an NG button among the icon images of the buttons, the operator can instruct that there is a lack in selection as a recorded character string.

なお確認画面をモニタに出力する理由を、図4を用いて説明する。図4では、記録文字列のうち商品名53が6つ記入されている。過去の文書帳票においても6つの商品名53の記入が最大だった場合、新たな文書帳票に対して、商品名53は1〜6個の範囲内で自動的に記録文字列と判定される。したがって、例えば新たな帳票では商品名53が7つ記載されていた場合、1〜6個目までの部分については、ステップS705、S706いずれもYESとなるため、画像処理装置1は7個目の文字列を記録せずに終了してしまう。このような事象が改善されるように、画像処理装置1は、ステップS707で記録文字列を記録する前に、確認画面を表示して、作業者に対して、記録して終了してよいかの確認を行う。   The reason for outputting the confirmation screen to the monitor will be described with reference to FIG. In FIG. 4, six product names 53 are entered in the recorded character string. In the past document form, when the entry of the six product names 53 is the maximum, the product name 53 is automatically determined as a recorded character string within a range of 1 to 6 with respect to a new document form. Therefore, for example, if seven product names 53 are described in a new form, steps S705 and S706 are both YES for the first to sixth parts, so that the image processing apparatus 1 is the seventh. Exit without recording the string. In order to improve such an event, the image processing apparatus 1 may display a confirmation screen before recording the recorded character string in step S707, and record and end the confirmation for the operator. Confirm.

記録部105は作業者のボタンのアイコン画像の押下に応じて、記録文字列の選択に不足が無いかを判定する(ステップS708)。記録部105は不足が無い場合には、第三特徴量に含まれる文字列を、文書帳票の識別情報に対応付けて記録テーブルに記録する(ステップS709)。   The recording unit 105 determines whether there is a lack of selection of the recording character string in response to the pressing of the icon image of the operator's button (step S708). If there is no shortage, the recording unit 105 records the character string included in the third feature amount in the recording table in association with the identification information of the document form (step S709).

例えば、文書帳票の画像データ中から第三特徴量a3、第三特徴量b3、第三特徴量c3、第三特徴量d3が取得できたとする。そして第三特徴量a3が予めデータベースに記録されている第一特徴量a1と、第三特徴量b3が第一特徴量b1と、第三特徴量c3が第一特徴量c1と、第三特徴量d3が第一特徴量d1とそれぞれ特徴量が一致したとする。この場合、記録部105は、第三特徴量a3、第三特徴量b3、第三特徴量c3、第三特徴量d3それぞれに含まれる文字列を、文書帳票の記録テーブルに記録する。   For example, it is assumed that the third feature value a3, the third feature value b3, the third feature value c3, and the third feature value d3 can be acquired from the image data of the document form. The third feature quantity a3 is recorded in advance in the database, the first feature quantity a1, the third feature quantity b3 is the first feature quantity b1, the third feature quantity c3 is the first feature quantity c1, and the third feature. It is assumed that the amount d3 matches the first feature amount d1 with the feature amount. In this case, the recording unit 105 records the character strings included in the third feature value a3, the third feature value b3, the third feature value c3, and the third feature value d3 in the record table of the document form.

上述のステップS705でNOの場合、またはステップS706でNOの場合、またはステップS708でNOの場合、記録部105は、第一特徴量が示す当該座標に対応する座標を有する第三特徴量が存在しなかった場合の処理を行う。具体的には記録部105は、画像データ中の対応する座標の第三特徴量が存在しなかった第一特徴量の座標の範囲に入力欄を設けた帳票画像の入力用画像データを生成してモニタに出力する(ステップS710)。入力用画像データはHTMLやXMLなどのマークアップ言語で記述されたデータであってよい。作業者はこの入力用画像データを見ながら、画像処理装置1のキーボード等の入力装置を操作して、モニタに表示されている入力用画像データ内の入力欄に記録文字列を入力する。当該入力用画像データには保存ボタンが表示されており、保存ボタンの押下操作をすると記録部105は既に文書帳票について取得した第三特徴量の他、新たに入力用画像データの入力欄に入力された文字列を含む第三特徴量を生成する(ステップS711)。記録部105は帳票画像データの識別子と入力欄に入力された文字列とを対応付けてデータベース4に記録する。画像処理装置1は図6で示した処理フローを再度実施することにより第一特徴量が更新され、自動的に記録できる文字列の範囲を拡張することができる。これにより、次に同じ文書帳票を処理したときには、自動的に文字列を記録できるようになり、作業者が文字列を入力する手間を省くことができる。記録部105は、全ての第三特徴量それぞれに含まれる文字列を、文書帳票の記録テーブルに記録する(ステップS712)。   In the case of NO in step S705 described above, in the case of NO in step S706, or in the case of NO in step S708, the recording unit 105 has a third feature amount having a coordinate corresponding to the coordinate indicated by the first feature amount. If not, perform the process. Specifically, the recording unit 105 generates image data for input of a form image in which an input field is provided in the range of the coordinates of the first feature value in which the third feature value of the corresponding coordinate in the image data does not exist. Is output to the monitor (step S710). The input image data may be data described in a markup language such as HTML or XML. While viewing the input image data, the operator operates an input device such as a keyboard of the image processing apparatus 1 to input a recorded character string in the input field in the input image data displayed on the monitor. A save button is displayed on the input image data. When the save button is pressed, the recording unit 105 inputs a new feature to the input field of the input image data in addition to the third feature amount already acquired for the document form. A third feature amount including the character string thus generated is generated (step S711). The recording unit 105 records the identifier of the form image data and the character string input in the input field in association with each other in the database 4. The image processing apparatus 1 updates the first feature amount by performing the processing flow shown in FIG. 6 again, and can extend the range of character strings that can be automatically recorded. As a result, the next time the same document form is processed, the character string can be automatically recorded, thereby saving the operator from having to input the character string. The recording unit 105 records the character string included in each of the third feature amounts in the document form recording table (step S712).

このような処理によれば、画像処理装置1は予め作業者が記録しておいた文書帳票の画像データと記録文字列によって、新たに入力させた文書帳票の画像データにおける記録文字列を自動的に記録することができる。したがって画像処理装置1は文書帳票における記録文字列の記録の作業者の労力を軽減することができる。
また文書帳票に記録文字列が記載されていない場合でも、本来、記載されているべき記録文字列に対応する記載事項が記載されていない場合には画像処理装置1は入力用画像データを出力する。これにより文書帳票において記載すべき記載事項に対して入力していない誤りが見つかると共に、その記載事項が示す記録文字列を容易に記録することができる。
According to such processing, the image processing apparatus 1 automatically uses the document form image data and the recorded character string previously recorded by the operator to record the recorded character string in the newly entered document form image data. Can be recorded. Therefore, the image processing apparatus 1 can reduce the labor of the operator who records the recorded character string in the document form.
Further, even when the recorded character string is not described in the document form, the image processing apparatus 1 outputs the input image data when the description items corresponding to the recorded character string that should originally be described are not described. . This makes it possible to find an error that has not been entered for a description item to be described in the document form, and to easily record a recorded character string indicated by the description item.

<第二実施形態>
図8は第二実施形態による画像処理装置の機能ブロック図である。
この図が示すように第二実施形態による画像処理装置1は、図3で示した各機能部に加え、さらにグループ分類部106、グループ特定部107の機能を有する。画像処理装置1のハードウェア構成は図2で示した構成と同様である。
<Second embodiment>
FIG. 8 is a functional block diagram of the image processing apparatus according to the second embodiment.
As shown in this figure, the image processing apparatus 1 according to the second embodiment has functions of a group classification unit 106 and a group identification unit 107 in addition to the functional units shown in FIG. The hardware configuration of the image processing apparatus 1 is the same as the configuration shown in FIG.

図9は第二実施形態による画像処理装置の処理フローを示す第一の図である。
次に第二実施形態による画像処理装置1の処理フローについて順を追って説明する。
データベース4には異なる複数の文書帳票についての画像データと、各文書帳票に記述されている特定の記録文字列の組み合わせが、その文書帳票ごとに多数記録されている。例えば図4で示す異なる文書帳票5それぞれについての特定の記録文字列情報が複数枚分記録されているとする。このような状態で作業者が画像処理装置1を起動し、当該画像処理装置1へ処理開始を指示する。
FIG. 9 is a first diagram illustrating a processing flow of the image processing apparatus according to the second embodiment.
Next, the processing flow of the image processing apparatus 1 according to the second embodiment will be described in order.
In the database 4, a large number of combinations of image data for a plurality of different document forms and specific recording character strings described in each document form are recorded for each document form. For example, assume that a plurality of pieces of specific recorded character string information are recorded for each of the different document forms 5 shown in FIG. In this state, the worker activates the image processing apparatus 1 and instructs the image processing apparatus 1 to start processing.

画像処理装置1の取得部102はデータベース4から文書帳票5の画像データとその画像データに対応する記録文字列の情報を全て読み込んだかを判定する(ステップS901)。NOの場合、取得部102はデータベース4から文書帳票5の画像データとその画像データに対応する記録文字列の情報を読み取る(ステップS902)。取得部102は画像データと記録文字列とを特徴量抽出部103へ出力する。特徴量抽出部103は画像データをOCR処理して画像データ中の全ての文字列とその画像データ内の座標を検出する(ステップS903)。なお文字列は複数の文字によって構成される文字の纏まりである。特徴量抽出部103は他の文字との間隔などによってその1つの纏まりの範囲を解析し、その範囲に含まれる1つまたは複数の文字を文字列として抽出すると共に、その画像データ内の文字列の範囲を示す座標を検出する。文字列として含まれる文字は、表意文字、表音文字などの記号、マーク、アイコン画像などを含んでよい。   The acquisition unit 102 of the image processing apparatus 1 determines whether or not all the image data of the document form 5 and the recorded character string information corresponding to the image data have been read from the database 4 (step S901). In the case of NO, the acquisition unit 102 reads the image data of the document form 5 and information of the recorded character string corresponding to the image data from the database 4 (step S902). The acquisition unit 102 outputs the image data and the recorded character string to the feature amount extraction unit 103. The feature amount extraction unit 103 performs OCR processing on the image data to detect all character strings in the image data and coordinates in the image data (step S903). The character string is a group of characters composed of a plurality of characters. The feature amount extraction unit 103 analyzes the range of one group based on an interval with other characters, extracts one or a plurality of characters included in the range as a character string, and character strings in the image data The coordinates indicating the range of are detected. Characters included as a character string may include symbols such as ideograms and phonetic characters, marks, icon images, and the like.

特徴量抽出部103はOCR処理により画像データから抽出した文字列と、画像データと共にデータベース4から読み取った記録文字列とを比較する。特徴量抽出部103はOCR処理により画像データから抽出した文字列のうち、記録文字列の文字情報と一致した画像データ中の文字列と、その文字列に含まれる文字の属性と、その範囲の座標とを特定する(ステップS904)。文字の属性は、数字、アルファベット、ひらがな、漢字、文字数、文字高さ、フォントなどにより表される情報である。また文字列の範囲の座標には文字列に含まれる先頭文字の座標、終了文字の座標などを示す情報である。特徴量抽出部103はそれら特定した情報を含む特徴量を1つの文書帳票5について生成する(ステップS905)。   The feature amount extraction unit 103 compares the character string extracted from the image data by OCR processing with the recorded character string read from the database 4 together with the image data. Of the character strings extracted from the image data by OCR processing, the feature amount extraction unit 103 includes a character string in the image data that matches the character information of the recorded character string, a character attribute included in the character string, and a range of the character string. The coordinates are specified (step S904). Character attributes are information represented by numbers, alphabets, hiragana, kanji, number of characters, character height, font, and the like. The coordinates of the range of the character string are information indicating the coordinates of the first character and the end character included in the character string. The feature quantity extraction unit 103 generates a feature quantity including the specified information for one document form 5 (step S905).

特徴量は特徴量抽出部103によって文書帳票5における記録文字列ごとに生成される。すなわち、特徴量抽出部103は、文書帳票毎かつ記録文字列毎に特徴量を生成する。この文書帳票毎かつ記録文字列毎の特徴量を個別第一特徴量と称する。個別第一特徴量は、文字の属性、文字列の範囲を示す座標の何れか一方または両方を含んでいてもよい。特徴量抽出部103は個々の文書帳票5における1つ又は複数の記録文字列それぞれの個別第一特徴量を、文書帳票5の識別子および記録文字列の識別子に紐づけてデータベース4に記録する(ステップS906)。記録文字列の識別子として、例えばその記録文字列の位置を示す座標値を用いることができる。   The feature amount is generated for each recorded character string in the document form 5 by the feature amount extraction unit 103. That is, the feature quantity extraction unit 103 generates a feature quantity for each document form and each recorded character string. This feature amount for each document form and each recorded character string is referred to as an individual first feature amount. The individual first feature amount may include one or both of a character attribute and a coordinate indicating a character string range. The feature amount extraction unit 103 records the individual first feature amount of each of the one or more recorded character strings in each document form 5 in the database 4 in association with the identifier of the document form 5 and the identifier of the recorded character string ( Step S906). As the identifier of the recorded character string, for example, a coordinate value indicating the position of the recorded character string can be used.

例えば特徴量抽出部103は、文書帳票5に含まれる記録文字列である日付51、発注先52、商品名53、数量54、金額55それぞれの、文字属性、文字列の範囲を示す座標などを示す各個別第一特徴量を、文書帳票5の識別子および記録文字列の識別子に紐づけてデータベース4に記録する。   For example, the feature amount extraction unit 103 includes the date 51, the ordering party 52, the product name 53, the quantity 54, and the amount 55 of the recorded character strings included in the document form 5, the character attributes, the coordinates indicating the range of the character strings, and the like. Each individual first feature amount shown is recorded in the database 4 in association with the identifier of the document form 5 and the identifier of the recording character string.

特徴量抽出部103はまた、記録文字列に含まれる文字情報と一致しない画像データ中の非記録文字列と、その非記録文字列に含まれる文字の属性と、その範囲の座標とを特定する(ステップS907)。特徴量抽出部103はそれら特定した情報を含む特徴量を文書帳票5について生成する(ステップS908)。   The feature amount extraction unit 103 also identifies a non-recorded character string in the image data that does not match the character information included in the recorded character string, a character attribute included in the non-recorded character string, and a range coordinate. (Step S907). The feature amount extraction unit 103 generates a feature amount including the specified information for the document form 5 (step S908).

特徴量は特徴量抽出部103によって文書帳票5における非記録文字列ごとに生成される。すなわち、特徴量抽出部103は、文書帳票毎かつ非記録文字列毎に特徴量を生成する。この文書帳票毎かつ非記録文字列毎の特徴量を個別第二特徴量と称する。個別第二特徴量は、文字の属性、文字列の範囲を示す座標の何れか一方または両方を含んでいてもよい。特徴量抽出部103は個々の文書帳票5における1つ又は複数の非記録文字列それぞれの個別第二特徴量を、文書帳票5の識別子および非記録文字列の識別子に紐づけてデータベース4に記録する(ステップS909)。非記録文字列の識別子として、例えばその記録文字列の位置を示す座標値を用いることができる。   The feature amount is generated for each non-recorded character string in the document form 5 by the feature amount extraction unit 103. That is, the feature amount extraction unit 103 generates a feature amount for each document form and for each non-recorded character string. This feature amount for each document form and for each non-recorded character string is referred to as an individual second feature amount. The individual second feature amount may include one or both of a character attribute and a coordinate indicating a character string range. The feature amount extraction unit 103 records each individual second feature amount of each of one or more non-recorded character strings in each document form 5 in the database 4 in association with the identifier of the document form 5 and the identifier of the non-recorded character string. (Step S909). As an identifier of the non-recorded character string, for example, a coordinate value indicating the position of the recorded character string can be used.

例えば特徴量抽出部103は、文書帳票5に含まれる非記録文字列である発注者の名称501、発注者のエンブレム画像、文書帳票のタイトル503、挨拶文504などを示す各個別第二特徴量を、文書帳票5の識別子および記録文字列の識別子に紐づけてデータベース4に記録する。   For example, the feature amount extraction unit 103 includes individual second feature amounts indicating the orderer's name 501, the orderer's emblem image, the document form title 503, the greeting 504, etc., which are non-recorded character strings included in the document form 5. Are recorded in the database 4 in association with the identifier of the document form 5 and the identifier of the recording character string.

データベース4には異なる複数の文書帳票5の画像データとその画像データに対応する記録文字列の情報が記録されている。画像処理装置1の取得部102は全ての文書帳票5についての画像データと記録文字列の情報を読み込むまでステップS901〜ステップS911の処理を繰り返す。そしてステップS901において全て読み込んだと判定したとする(ステップS901:YES)。   The database 4 records image data of a plurality of different document forms 5 and information of recording character strings corresponding to the image data. The acquisition unit 102 of the image processing apparatus 1 repeats the processing from step S901 to step S911 until image data and recording character string information for all document forms 5 are read. Assume that it is determined in step S901 that all the data has been read (step S901: YES).

その場合、グループ分類部106が文書帳票5の画像データに含まれる個別第二特徴量に基づいて、文書帳票5をグループ分けする(ステップS912)。例えばグループ分類部106は、各文書帳票5を、個別第二特徴量が示す非記録文字列の一致度や、エンブレム画像の一致度、非記録文字列の座標範囲の一致度などに基づいてグループ分けする。グループ分類部106はこのグループ分けの処理において文書帳票5のグループ識別子を決定する。グループ分類部106は全ての文書帳票5についてグループ分けが終了したかを判定する(ステップS913)。   In this case, the group classification unit 106 groups the document form 5 based on the individual second feature amount included in the image data of the document form 5 (step S912). For example, the group classification unit 106 groups each document form 5 based on the matching degree of the non-recorded character string indicated by the individual second feature amount, the matching degree of the emblem image, the matching degree of the coordinate range of the non-recording character string, and the like. Divide. The group classification unit 106 determines the group identifier of the document form 5 in this grouping process. The group classification unit 106 determines whether grouping has been completed for all the document forms 5 (step S913).

グループ分類部106は全ての文書帳票5のグループ分けが完了していない場合にはステップS912の処理を繰り返す。グループ分類部106は、全ての文書帳票5のグループ分けが完了した場合には、文書帳票5の識別子とその文書帳票5に付与されたグループ識別子とを対応付けてデータベース4のグループテーブルに記録する(ステップS914)。   The group classification unit 106 repeats the process of step S912 when the grouping of all the document forms 5 is not completed. When the grouping of all the document forms 5 is completed, the group classification unit 106 records the identifier of the document form 5 and the group identifier assigned to the document form 5 in the group table of the database 4 in association with each other. (Step S914).

そして読取対象特徴量生成部104はあるグループに属する1つまたは複数の文書帳票5の各個別第一特徴量および各個別第二特徴量をデータベース4から読み取り、グループに属する文書帳票5の各個別第一特徴量および各個別第二特徴量に対応する各グループ第一特徴量、各グループ第二特徴量を生成する(ステップS915)。各グループ第一特徴量はグループに属する文書帳票5の各個別第一特徴量の平均等の値であってもよい。同様に各グループ第二特徴量はグループに属する文書帳票5の各個別第二特徴量の平均等の値であってもよい。各グループ第一特徴量、各グループ第二特徴量は、各個別第一特徴量の平均、各個別第二特徴量の平均でなくとも、所定の統計処理や機械学習等の手法を用いて、グループに属する1つ又は複数の文書帳票5の記録文字列や非記録文字列を特定できるよう算出された特徴量であれば、どのようなもの手法を用いて、各グループ第一特徴量、各グループ第二特徴量を生成してもよい。読取対象特徴量生成部104は、グループそれぞれについて各グループ第一特徴量、各グループ第二特徴量を算出し、グループの識別子に対応付けてデータベース4に記録する(ステップS916)。   The reading target feature value generation unit 104 reads each individual first feature value and each individual second feature value of one or a plurality of document forms 5 belonging to a certain group from the database 4 and reads each individual document form 5 belonging to the group. Each group first feature value and each group second feature value corresponding to the first feature value and each individual second feature value are generated (step S915). Each group first feature value may be a value such as an average of the individual first feature values of the document forms 5 belonging to the group. Similarly, each group second feature value may be a value such as an average of the individual second feature values of the document forms 5 belonging to the group. Each group first feature amount, each group second feature amount is not the average of each individual first feature amount, the average of each individual second feature amount, using a method such as predetermined statistical processing or machine learning, As long as it is a feature amount calculated so as to be able to specify a recorded character string or a non-recorded character string of one or a plurality of document forms 5 belonging to the group, any technique can be used for each group first feature amount, A group second feature value may be generated. The read target feature value generation unit 104 calculates each group first feature value and each group second feature value for each group, and records them in the database 4 in association with the group identifier (step S916).

以上の処理により画像処理装置1は、作業者の記録文字列を記録する労力を軽減するために必要な情報を文書帳票のグループ毎に生成してデータベース4に蓄積することができる。これにより画像処理装置1は新たな文書帳票についての画像データに基づいて記録文字列を自動でデータベース4に記録していくことができる。以下、その処理について説明する。   With the above processing, the image processing apparatus 1 can generate information necessary for reducing the labor of recording the operator's recorded character string for each group of document forms and store it in the database 4. As a result, the image processing apparatus 1 can automatically record the recorded character string in the database 4 based on the image data of the new document form. Hereinafter, the processing will be described.

図10は第二実施形態による画像処理装置の処理フローを示す第二の図である。
作業者は新たな文書帳票を画像読取装置2に読み取らせる操作を行う。これにより画像読取装置2は文書帳票の画像データを生成して画像処理装置1へ出力する。画像処理装置1の取得部102は画像データを取得する(ステップS1001)。取得部102は画像データを特徴量抽出部103へ出力する。特徴量抽出部103は画像データをOCR処理して、文字列と、文字列に含まれる文字の特徴と、その文字列の範囲の画像データ中の座標を検出する(ステップS1002)。特徴量抽出部103はそれら検出した情報を含む第三特徴量を、画像データ中の文字列ごとに生成する(ステップS1003)。第三特徴量は新たに読み込んだ画像データの文書帳票に含まれる文字列の特徴を示す情報である。
FIG. 10 is a second diagram showing a processing flow of the image processing apparatus according to the second embodiment.
The operator performs an operation for causing the image reading apparatus 2 to read a new document form. As a result, the image reading device 2 generates image data of the document form and outputs it to the image processing device 1. The acquisition unit 102 of the image processing apparatus 1 acquires image data (step S1001). The acquisition unit 102 outputs the image data to the feature amount extraction unit 103. The feature amount extraction unit 103 performs OCR processing on the image data, and detects a character string, a character feature included in the character string, and coordinates in the image data within the range of the character string (step S1002). The feature amount extraction unit 103 generates a third feature amount including the detected information for each character string in the image data (step S1003). The third feature amount is information indicating the character string feature included in the document form of the newly read image data.

次にグループ特定部107が、データベース4からあるグループ第二特徴量のうち新たな文書帳票のグループ特定に利用するグループ第二特徴量を読み取る。当該グループ第二特徴量は例えば文書帳票の画像データに表示される発注者のエンブレム画像502に対応する特徴量であってよい。グループ特定部107はあるグループ第二特徴量に示す情報が、ステップS1001で取得した文書帳票の画像データから特定できるかどうかを判定する。グループ特定部107は全てのグループについてのグループ第二特徴量を用いて同様の処理を行う。グループ特定部107はデータベース4から読み取ったグループ第二特徴量に一致する情報が新たに読み込んだ文書帳票の画像データから特定できた場合、そのグループ第二特徴量を有するグループを、新たに読み込んだ文書帳票の画像データのグループと特定する(ステップS1004)。その後、グループ特定部107はデータベース4からそのグループについての1つまたは複数のグループ第一特徴量を読み出す(ステップS1005)。グループ特定部107は記録部105へ第三特徴量と1つまたは複数のグループ第一特徴量を出力する。グループ第一特徴量はそのグループに属する文書帳票内の1つまたは複数の記録文字列を特定するための特徴量である。   Next, the group specifying unit 107 reads a group second feature amount used for specifying a group of a new document form among the group second feature amounts from the database 4. The group second feature amount may be, for example, a feature amount corresponding to the orderer's emblem image 502 displayed in the image data of the document form. The group specifying unit 107 determines whether information indicated by a certain group second feature amount can be specified from the image data of the document form acquired in step S1001. The group specifying unit 107 performs the same processing using the group second feature amount for all groups. When the information that matches the group second feature value read from the database 4 can be specified from the image data of the newly read document form, the group specifying unit 107 newly reads the group having the group second feature value. The document form image data group is identified (step S1004). Thereafter, the group specifying unit 107 reads out one or more group first feature values for the group from the database 4 (step S1005). The group specifying unit 107 outputs the third feature amount and one or more group first feature amounts to the recording unit 105. The group first feature amount is a feature amount for specifying one or a plurality of recorded character strings in the document form belonging to the group.

記録部105は画像データ中の1つまたは複数の文字列についての第三特徴量と、1つまたは複数のグループ第一特徴量とを取得する。記録部105は各グループ第一特徴量に含まれる文字列の範囲を示す座標を用いて、各グループ第一特徴量が示す当該座標に対応する座標を有する第三特徴量が全て存在するかを判定する(ステップS1006)。各グループ第一特徴量の座標に対応する座標を有する第三特徴量が全て存在する場合には、記録文字列に対応する文書帳票内の全ての記載事項に文字の記載が存在する。一方、各グループ第一特徴量の座標に対応する座標を有する第三特徴量が全て存在しない場合には、文書帳票内の何れかの記載事項に文字の記載が無い状態である。   The recording unit 105 acquires a third feature amount and one or more group first feature amounts for one or more character strings in the image data. The recording unit 105 uses the coordinates indicating the range of the character string included in each group first feature amount to determine whether all the third feature amounts having coordinates corresponding to the coordinates indicated by each group first feature amount exist. Determination is made (step S1006). When all the third feature values having coordinates corresponding to the coordinates of the first feature values of each group exist, the description of characters exists in all the description items in the document form corresponding to the recorded character string. On the other hand, when all the third feature values having coordinates corresponding to the coordinates of the first feature values of each group do not exist, there is no description of characters in any description items in the document form.

ステップS1006でYESの場合、記録部105は、グループ第一特徴量に含まれる文字属性と、座標に基づいて特定された対応する第三特徴量に含まれる文字属性がそれぞれ一致するかどうかを判定する(ステップS1007)。   In the case of YES in step S1006, the recording unit 105 determines whether or not the character attribute included in the group first feature amount matches the character attribute included in the corresponding third feature amount specified based on the coordinates. (Step S1007).

記録部105は、ステップS1007の判定結果がYESとなり文字属性が一致する場合、現在処理している画像データにおいて1つまたは複数の第三特徴量が示す座標に基づく記録文字列の範囲に矩形枠を表示した確認画面を生成する。記録部105はその確認画面をモニタに出力する(ステップS1008)。作業者はこの確認画面に表示された矩形領域を確認して、画像処理装置1が記録しようとする記録文字列を確認することができる。これにより作業者は記録文字列に不足が無いかを確認することができる。確認画面にはOKまたはNGの何れかのボタンのアイコン画像が表示されている。このボタンのアイコン画像のうちOKのボタンを選択することにより作業者は記録文字列としての選択に不足がないことを指示することができる。他方、ボタンのアイコン画像のうちNGのボタンを選択することにより作業者は記録文字列としての選択に不足があることを指示することができる。   If the determination result in step S1007 is YES and the character attributes match, the recording unit 105 forms a rectangular frame in the range of the recorded character string based on the coordinates indicated by one or more third feature amounts in the currently processed image data. Generate a confirmation screen displaying. The recording unit 105 outputs the confirmation screen to the monitor (step S1008). The operator can confirm the rectangular area displayed on the confirmation screen and confirm the recorded character string that the image processing apparatus 1 intends to record. Thereby, the operator can confirm whether there is a shortage in the recorded character string. An icon image of either OK or NG button is displayed on the confirmation screen. By selecting an OK button among the icon images of this button, the operator can instruct that there is no shortage of selection as a recorded character string. On the other hand, by selecting an NG button among the icon images of the buttons, the operator can instruct that there is a lack in selection as a recorded character string.

記録部105は作業者のボタンのアイコン画像の押下に応じて、記録文字列の選択に不足が無いかを判定する(ステップS1009)。記録部105は不足が無い場合には、第三特徴量に含まれる文字列を、文書帳票の識別情報に対応付けて記録テーブルに記録する(ステップS1010)。   The recording unit 105 determines whether or not there is an insufficient selection of the recording character string in response to the pressing of the icon image of the operator's button (step S1009). If there is no shortage, the recording unit 105 records the character string included in the third feature amount in the recording table in association with the identification information of the document form (step S1010).

例えば、文書帳票の画像データ中から第三特徴量a3、第三特徴量b3、第三特徴量c3、第三特徴量d3が取得できたとする。そして第三特徴量a3が予めデータベースに記録されているグループ第一特徴量g11と、第三特徴量b3がグループ第一特徴量g12と、第三特徴量c3がグループ第一特徴量g13と、第三特徴量d3がグループ第一特徴量g14とそれぞれ特徴量が一致したとする。この場合、記録部105は、第三特徴量a3、第三特徴量b3、第三特徴量c3、第三特徴量d3それぞれに含まれる文字列を、文書帳票の記録テーブルに記録する。   For example, it is assumed that the third feature value a3, the third feature value b3, the third feature value c3, and the third feature value d3 can be acquired from the image data of the document form. And the third feature quantity g3 in which the third feature quantity a3 is recorded in the database in advance, the third feature quantity b3 is the group first feature quantity g12, the third feature quantity c3 is the group first feature quantity g13, Assume that the third feature value d3 and the group first feature value g14 have the same feature value. In this case, the recording unit 105 records the character strings included in the third feature value a3, the third feature value b3, the third feature value c3, and the third feature value d3 in the record table of the document form.

上述のステップS1006でNOの場合、またはステップS1007でNOの場合、またはステップS1009でNOの場合、記録部105は、グループ第一特徴量が示す当該座標に対応する座標を有する第三特徴量が存在しなかった場合の処理を行う。具体的には記録部105は、画像データ中の対応する座標の第三特徴量が存在しなかったグループ第一特徴量の座標の範囲に入力欄を設けた帳票画像の入力用画像データを生成してモニタに出力する(ステップS1011)。入力用画像データはHTMLやXMLなどのマークアップ言語で記述されたデータであってよい。作業者はこの入力用画像データを見ながら、画像処理装置1のキーボード等の入力装置を操作して、モニタに表示されている入力用画像データ内の入力欄に記録文字列を入力する。当該入力用画像データには保存ボタンが表示されており、保存ボタンの押下操作をすると記録部105は既に文書帳票について取得した第三特徴量の他、新たに入力用画像データの入力欄に入力された文字列を含む第三特徴量を生成する(ステップS1012)。記録部105は帳票画像データの識別子と入力欄に入力された文字列とを対応付けてデータベース4に記録する。画像処理装置1は図9で示した処理フローを再度実施することによりグループ第一特徴量およびグループ第二特徴量が更新され、自動的に記録できる文字列の範囲を拡張することができる。これにより、次に同じ文書帳票を処理したときには、自動的に文字列を記録できるようになり、作業者が文字列を入力する手間を省くことができる。記録部105は、全ての第三特徴量それぞれに含まれる文字列を、文書帳票の記録テーブルに記録する(ステップS1013)。   In the case of NO in step S1006 described above, in the case of NO in step S1007, or in the case of NO in step S1009, the recording unit 105 has a third feature quantity having coordinates corresponding to the coordinates indicated by the group first feature quantity. Process when it does not exist. Specifically, the recording unit 105 generates image data for input of a form image in which an input field is provided in the coordinate range of the group first feature value in which the third feature value of the corresponding coordinate in the image data does not exist. And output to the monitor (step S1011). The input image data may be data described in a markup language such as HTML or XML. While viewing the input image data, the operator operates an input device such as a keyboard of the image processing apparatus 1 to input a recorded character string in the input field in the input image data displayed on the monitor. A save button is displayed on the input image data. When the save button is pressed, the recording unit 105 inputs a new feature to the input field of the input image data in addition to the third feature amount already acquired for the document form. A third feature amount including the character string thus generated is generated (step S1012). The recording unit 105 records the identifier of the form image data and the character string input in the input field in association with each other in the database 4. The image processing apparatus 1 updates the group first feature value and the group second feature value by executing the processing flow shown in FIG. 9 again, and can extend the range of character strings that can be automatically recorded. As a result, the next time the same document form is processed, the character string can be automatically recorded, thereby saving the operator from having to input the character string. The recording unit 105 records the character strings included in all the third feature amounts in the document form recording table (step S1013).

このような処理によれば、画像処理装置1は予め作業者が記録しておいた複数の異なる文書帳票の画像データと記録文字列によって、新たに入力させた文書帳票の種別によらずにその文書帳票の画像データにおける記録文字列を自動的に記録することができる。したがって画像処理装置1は文書帳票における記録文字列の記録の作業者の労力を軽減することができる。
また文書帳票に記録文字列が記載されていない場合でも、本来、記載されているべき記録文字列に対応する記載事項が記載されていない場合には画像処理装置1は入力用画像データを出力する。これにより文書帳票において記載すべき記載事項に対して入力していない誤りが見つかると共に、その記載事項が示す記録文字列を容易に記録することができる。
According to such processing, the image processing apparatus 1 uses the image data and recorded character strings of a plurality of different document forms recorded in advance by the operator, regardless of the type of the newly entered document form. The recorded character string in the image data of the document form can be automatically recorded. Therefore, the image processing apparatus 1 can reduce the labor of the operator who records the recorded character string in the document form.
Further, even when the recorded character string is not described in the document form, the image processing apparatus 1 outputs the input image data when the description items corresponding to the recorded character string that should originally be described are not described. . This makes it possible to find an error that has not been entered for a description item to be described in the document form, and to easily record a recorded character string indicated by the description item.

<第三実施形態>
なお、画像処理装置1の処理の他の例としては、作業者が予め文書帳票のグループを画像処理装置1に登録しておいてもよい。例えば作業者は、過去において文書帳票の画像データを登録する際、文書帳票の種類に合わせてグループ識別子を入力しておき文書帳票の画像データと紐づけてデータベース4に登録しておく。これにより、同一グループ内に画像処理装置1の処理誤り等により異種の帳票が混じることがなくなり、精度のよいグループ第一特徴量およびグループ第二特徴量を抽出することができる。なおこの場合、登録時は作業者が文書帳票のグループを入力するが、新たな帳票に対しては、ステップS1004と同じく、グループ第二特徴量を用いてグループ特定する。
<Third embodiment>
As another example of the processing of the image processing apparatus 1, an operator may register a document form group in the image processing apparatus 1 in advance. For example, when registering image data of a document form in the past, an operator inputs a group identifier according to the type of document form and registers it in the database 4 in association with the image data of the document form. This prevents different forms from being mixed due to a processing error of the image processing apparatus 1 in the same group, and the group first feature value and group second feature value can be extracted with high accuracy. In this case, at the time of registration, the operator inputs a group of document forms, but for a new form, the group is specified using the group second feature amount as in step S1004.

<第四実施形態>
また、画像処理装置1の処理の他の例としては、ステップS912で画像処理装置1は個別第二特徴量を用いて文書帳票をグループ分けするだけでなく、個別第一特徴量を用いて、また個別第二特徴量と共に個別第一特徴量を用いて、文書帳票をグループ分けするようにしてもよい。個別第一特徴量は記録文字列の特徴量であるが、同じ種類の文書帳票であれば、記録文字列の座標やその文字属性は同じであると考えられ、個別第一特徴量を用いて帳票をグループ分けすることが可能となる。
この場合、取得部102が、複数の帳票画像データとその帳票画像データに含まれる文字列のうち記録対象となった記録文字列とを取得する。そしてグループ分類部106が個別第一特徴量に基づいて帳票画像データをグループ分けする。そして、読取対象特徴量生成部104は、グループに含まれる帳票画像データに対応する個別第一特徴量を用いて当該グループごとの記録文字列のグループ第一特徴量を生成する。
また、最初のグループ分けを第三実施形態で示すように作業者が行い、新たな文書帳票に対してはステップS1004の処理により個別第一特徴量を用いてグループ分けするようにしてもよい。これにより、OCR処理において精度よく記録文字列を読み取ることが可能となる。
<Fourth embodiment>
As another example of the processing of the image processing apparatus 1, in step S <b> 912, the image processing apparatus 1 not only uses the individual second feature value to group document forms but also uses the individual first feature value. Further, the document forms may be grouped using the individual first feature quantity together with the individual second feature quantity. The individual first feature value is the feature value of the recorded character string, but if it is the same type of document form, the coordinates of the recorded character string and its character attributes are considered to be the same. Forms can be grouped.
In this case, the acquisition unit 102 acquires a plurality of form image data and a recorded character string to be recorded among character strings included in the form image data. Then, the group classification unit 106 groups the form image data based on the individual first feature amount. Then, the reading target feature value generation unit 104 generates the group first feature value of the recorded character string for each group using the individual first feature value corresponding to the form image data included in the group.
Alternatively, the first grouping may be performed by an operator as shown in the third embodiment, and a new document form may be grouped using the individual first feature amount by the process of step S1004. As a result, the recorded character string can be read with high accuracy in the OCR process.

<第五実施形態>
第二実施形態においてはステップS1004において第二特徴量に基づいて新たな帳票のグループを特定している。しかしながら、別の処理態様として、画像処理装置1はグループを特定する処理を行わずに、作業者により設定された全グループに対して、1グループごとに順に特定してグループ第一特徴量を読み出し、第三特徴量と一致する個数をカウントする。正しいグループの場合には最も多くグループ第一特徴量と第三特徴量とが一致するはずなので、画像処理装置1は一致個数が最も多いときの特定グループの第三特徴量それぞれに含まれる文字列をステップS1008において記録する。これにより、グループを特定しなくても記録文字列を記録することができる。
この場合、グループ第一特徴量の生成用にデータベース4に蓄えられる文書帳票の画像データが、作業者によって予めグループ分けされていてもよい。取得部102は、複数の帳票画像データとその帳票画像データに含まれる文字列のうち記録対象となった記録文字列とを取得する。そして、特徴量抽出部103は、取得部102の取得した帳票画像データを文字認識処理した結果に基づいて、記録文字列の特徴を示す個別第一特徴量を抽出する。読取対象特徴量生成部104は、予め設定された所定のグループに含まれる帳票画像データに対応する個別第一特徴量を用いて当該グループごとの記録文字列のグループ第一特徴量を生成する。
<Fifth embodiment>
In the second embodiment, a new form group is specified based on the second feature amount in step S1004. However, as another processing mode, the image processing apparatus 1 reads out the group first feature amount by sequentially specifying each group for all groups set by the worker without performing the process of specifying the group. The number that matches the third feature value is counted. In the case of a correct group, the group first feature value and the third feature value should match most, so the image processing apparatus 1 uses the character string included in each third feature value of the specific group when the number of matches is the largest. Is recorded in step S1008. As a result, the recorded character string can be recorded without specifying the group.
In this case, the image data of the document form stored in the database 4 for generating the group first feature amount may be grouped in advance by the operator. The acquisition unit 102 acquires a plurality of form image data and a recorded character string to be recorded among character strings included in the form image data. Then, the feature amount extraction unit 103 extracts the individual first feature amount indicating the feature of the recorded character string based on the result of character recognition processing of the form image data acquired by the acquisition unit 102. The reading target feature amount generation unit 104 generates a group first feature amount of a recorded character string for each group using the individual first feature amount corresponding to the form image data included in a predetermined group set in advance.

<第六実施形態>
第一実施形態の図7の処理で、画像処理装置1が、文字認識に成功した場合、失敗した場合のいずれも特徴量の機械学習を行うようにしてもよい。第六実施形態では、この点について説明する。
第六実施形態は、第一実施形態の図7の処理以外は第一実施形態と同様であり、図1〜6を援用する。
<Sixth embodiment>
In the process of FIG. 7 of the first embodiment, the image processing apparatus 1 may perform machine learning of the feature amount in both cases where the character recognition succeeds and fails. In the sixth embodiment, this point will be described.
6th Embodiment is the same as that of 1st Embodiment except the process of FIG. 7 of 1st embodiment, and FIGS.

図11は、第六実施形態による画像処理装置の処理フローを示す図である。図11のステップS1101〜S1108は、図7のステップS701〜S708と同様である。図11のステップS1110〜1112は、図7のステップS709〜S711と同様である。図11のステップS1114は、図7のステップS712と同様である。
従って、図11の処理では、図7のステップS708とS709との間にステップS1109が入り、図7のステップS711とS712との間にステップS1113が入っていることになり、それ以外は、図7と同様である。
ステップS1109、S1113の何れでも、画像処理装置1の読取対象特徴量生成部104が図6の処理を行って第一特徴量を更新する。読取対象特徴量生成部104は、未学習の状態から図6の処理をやり直す必要はなく、画像データ1枚分の追加学習を行えばよい。
FIG. 11 is a diagram illustrating a processing flow of the image processing apparatus according to the sixth embodiment. Steps S1101 to S1108 in FIG. 11 are the same as steps S701 to S708 in FIG. Steps S1110 to 1112 in FIG. 11 are the same as steps S709 to S711 in FIG. Step S1114 in FIG. 11 is the same as step S712 in FIG.
Therefore, in the process of FIG. 11, step S1109 is inserted between steps S708 and S709 of FIG. 7, and step S1113 is inserted between steps S711 and S712 of FIG. 7 is the same.
In either step S1109 or S1113, the read target feature value generation unit 104 of the image processing apparatus 1 performs the process of FIG. 6 to update the first feature value. The reading target feature amount generation unit 104 does not need to redo the process of FIG. 6 from an unlearned state, and may perform additional learning for one piece of image data.

ここで、OCR処理に失敗した場合(OCR処理では記録文字列を適切に得られなかった場合)のみ学習を行うように、図11のステップS1109では機械学習を行わず、ステップS1113でのみ機械学習を行うことが考えられる。しかし、この場合、画像処理装置1がOCR処理に成功すると機械学習を行わない結果、文書帳票の書式の統計的な情報が機械学習に反映されない場合がある。
例えば、文書帳票100枚中99枚まで左下に記録文字列があり、1枚だけ右上に記録文字列がある場合を考える。この場合、画像処理装置1が、同じ位置に記録文字列がある文書帳票では画像処理装置1がOCR処理に成功する(ステップS1108:YESとなる)と、記録文字列が左下にある場合、右上にある場合とも1回ずつ学習を行う。実際には99対1の割合であるのに、画像処理装置1の学習では1対1の割合で学習を行うことになり、記録文字列が右上にある場合について過学習してしまう可能性がある。
これに対し図11のように、画像処理装置1がOCR処理に成功した場合、失敗した場合のいずれも機械学習(第一特徴量の更新)を行うことで、文書帳票の書式の統計的な情報を機械学習に反映させることができる。
第二実施形態〜第五実施形態についても同様に、画像処理装置1が、図10のステップS1009とS1010との間、ステップS1012とS1013との間のいずれでも図9の処理を行うようにしてもよい。
Here, machine learning is not performed in step S1109 in FIG. 11 and machine learning is performed only in step S1113 so that learning is performed only when the OCR processing fails (when the recorded character string cannot be obtained properly by OCR processing). Can be considered. However, in this case, if the image processing apparatus 1 succeeds in the OCR process, the machine learning is not performed. As a result, the statistical information on the format of the document form may not be reflected in the machine learning.
For example, consider a case where up to 99 of 100 document forms have a recorded character string on the lower left and only one recorded character string on the upper right. In this case, if the image processing apparatus 1 succeeds in the OCR process in the document form having the recorded character string at the same position (step S1108: YES), if the recorded character string is in the lower left, the upper right In each case, learning is performed once. Although the actual ratio is 99: 1, learning by the image processing apparatus 1 is performed at a ratio of 1: 1, and there is a possibility of overlearning when the recorded character string is in the upper right. is there.
On the other hand, as shown in FIG. 11, when the image processing apparatus 1 succeeds in the OCR processing or fails, machine learning (updating the first feature amount) is performed, so that the format of the document form is statistically determined. Information can be reflected in machine learning.
Similarly, in the second to fifth embodiments, the image processing apparatus 1 performs the process of FIG. 9 between steps S1009 and S1010 of FIG. 10 and between steps S1012 and S1013 of FIG. Also good.

<第七実施形態>
画像処理装置1が、例えば既存のOCRシステムなど、文書帳票のスキャンまたは撮影を行うシステムからデータを取得して機械学習を行うようにしてもよい。第七実施形態ではこの点について説明する。以下では、画像処理装置1が既存のOCRシステムからデータを取得する場合を例に説明する。但し、画像処理装置1へのデータ提供元は、既存のOCRシステムに限定されずいろいろなシステムまたは装置とすることができる。例えば、画像処理装置1が、売り上げの日付、売り先、金額、証跡となる画像データをデータベースに保存するシステム(例えば、営業情報システム、または、経理情報システム)からデータを取得するようにしてもよい。特に、情報提供元のシステムまたは装置が、OCR機能を有している必要はない。
<Seventh embodiment>
The image processing apparatus 1 may acquire data from a system that scans or captures a document form, such as an existing OCR system, and performs machine learning. In the seventh embodiment, this point will be described. Hereinafter, a case where the image processing apparatus 1 acquires data from an existing OCR system will be described as an example. However, the data provider to the image processing apparatus 1 is not limited to the existing OCR system, and can be various systems or apparatuses. For example, the image processing apparatus 1 may acquire data from a system (for example, a sales information system or an accounting information system) that stores image data serving as a sales date, sales destination, amount, and trail in a database. Good. In particular, the information providing system or apparatus does not need to have the OCR function.

図12は、第七実施形態による画像処理システムと既存OCRシステムとの接続例を示す図である。図12に示す構成では、図1の構成に加えて既存OCRシステム9が画像処理装置1に接続されている。この構成で、既存OCRシステム9については、画像データ生成機能(スキャン機能)およびユーザインタフェースを使用し、文字認識機能は使用しない。文字認識については画像処理装置1が行う。その他の点は第一実施形態と同様である。図1〜7を援用し画像データの取得、およびユーザインタフェースについては既存OCRシステム9を用いるものと読み替える。   FIG. 12 is a diagram illustrating a connection example between the image processing system and the existing OCR system according to the seventh embodiment. In the configuration shown in FIG. 12, an existing OCR system 9 is connected to the image processing apparatus 1 in addition to the configuration in FIG. 1. With this configuration, the existing OCR system 9 uses an image data generation function (scan function) and a user interface, and does not use a character recognition function. Character recognition is performed by the image processing apparatus 1. Other points are the same as in the first embodiment. The acquisition of image data and the user interface with the aid of FIGS. 1 to 7 are read as using the existing OCR system 9.

図13は、第七実施形態による画像処理装置の処理フローを示す図である。図13では、画像処理装置1が行う処理と既存OCRシステム9が行う処理との関係を示している。
図13の処理で、既存OCRシステムが作業者の操作に従ってスキャンを行い画像データを生成する(シーケンスS1301)。既存OCRシステム9は、得られた画像データを画像処理装置1へ送信する(シーケンスS1302)。
画像処理装置1は、画像データを受信するとOCR処理を行う(シーケンスS1303)。例えば、画像処理装置1は、図7のステップS702以下の処理を行い、記録文字列を取得する。特に、記録部104が、OCR処理結果の文字列の中から記録文字列を特定する。
画像処理装置1は、文字認識結果の文字列(記録文字列)を既存OCRシステム9へ送信する(シーケンスS1304)。
既存OCRシステム9は、文字認識結果を作業者に提示して、文字認識結果の確認および修正の後確定操作を受ける(シーケンスS1305)。既存OCRシステム9は、確定された文字列(修正結果の記録文字列)を画像処理装置1へ送信する(シーケンスS1306)。
画像処理装置1は、修正結果を受信すると、機械学習を行う(シーケンスS1307)。
画像処理装置1は、シーケンスS1302で画像データを取得し、シーケンスS1306で作業者が確定している修正結果の文字列を取得している。この画像データおよび文字列を用いて、例えば図6の処理手順で機械学習を行うことができる。画像処理装置1が、ある程度データがたまってから纏めて機械学習を行うようにしてもよいし、データを入手する毎に追加学習を行うようにしてもよい。
このように、第七実施形態によれば画像処理装置1は、作業者による既存OCRシステム9の一般的な使用を利用して、機械学習を行うことができる。特に、読取対象特徴量生成部104が、第一特徴量を更新することができる。
第二実施形態〜第六実施形態についても同様に、画像処理装置が既存OCRシステムを用いて機械学習を行うようにしてもよい。
FIG. 13 is a diagram illustrating a processing flow of the image processing apparatus according to the seventh embodiment. FIG. 13 shows the relationship between the processing performed by the image processing apparatus 1 and the processing performed by the existing OCR system 9.
In the process of FIG. 13, the existing OCR system scans according to the operator's operation and generates image data (sequence S1301). The existing OCR system 9 transmits the obtained image data to the image processing apparatus 1 (sequence S1302).
When receiving the image data, the image processing apparatus 1 performs OCR processing (sequence S1303). For example, the image processing apparatus 1 performs the processing from step S702 onward in FIG. 7 to obtain a recorded character string. In particular, the recording unit 104 identifies a recorded character string from the character string of the OCR processing result.
The image processing apparatus 1 transmits the character string (recorded character string) of the character recognition result to the existing OCR system 9 (sequence S1304).
The existing OCR system 9 presents the character recognition result to the operator, and receives a confirmation operation after confirming and correcting the character recognition result (sequence S1305). The existing OCR system 9 transmits the confirmed character string (corrected result recording character string) to the image processing apparatus 1 (sequence S1306).
When receiving the correction result, the image processing apparatus 1 performs machine learning (sequence S1307).
The image processing apparatus 1 acquires image data in sequence S1302, and acquires a correction result character string determined by the operator in sequence S1306. Using this image data and character string, for example, machine learning can be performed by the processing procedure of FIG. The image processing apparatus 1 may collect machine learning after a certain amount of data has accumulated, or may perform additional learning each time data is acquired.
As described above, according to the seventh embodiment, the image processing apparatus 1 can perform machine learning by using the general use of the existing OCR system 9 by an operator. In particular, the reading target feature value generation unit 104 can update the first feature value.
Similarly, in the second to sixth embodiments, the image processing apparatus may perform machine learning using an existing OCR system.

<第八実施形態>
画像処理装置の学習機能をサーバ化して学習を加速させるようにしてもよい。第八実施形態ではこの点について説明する。
図14は、第八実施形態による画像処理システム200の概要を示す図である。図14の構成で、画像読取装置2は、図1の場合と同様である。
図1の画像処理装置1の機能は、機械学習を行う学習機能部1bと、それ以外の機能を実行するOCR機能部1aとに分けられ、サーバクライアントの構成となっている。特に、学習機能部1bは、第一特徴量の生成および更新を行う。また、学習機能部1bは、記録装置3の機能も実行して、学習結果データベース4bを管理する。OCR機能部1aは、OCR処理、第三特徴量の抽出、記録文字列の特定、作業者に対するユーザインタフェース等の機能を実行する。OCR機能部1aは、OCR処理にて文字列の検出、文字列に含まれる文字の特徴の検出、および、文字列の範囲の座標の検出を行う。
OCR機能部1aは、端末装置6に格納されている。学習機能部1bはサーバ装置7に格納されている。
図1のデータベース4は、OCR結果データベース4aと、学習結果データベース4bとに分けられている。OCR結果データベース4aは、記録テーブルなどOCR処理の結果を記憶する。学習結果データベース4bは、第一特徴量など機械学習の際に得られるデータを記憶する。学習結果データベース4bは、サーバ装置7に格納されている。一方、OCR結果データベースは1つの装置として構成されている。
<Eighth embodiment>
The learning function of the image processing apparatus may be made into a server to accelerate learning. In the eighth embodiment, this point will be described.
FIG. 14 is a diagram showing an overview of an image processing system 200 according to the eighth embodiment. In the configuration of FIG. 14, the image reading apparatus 2 is the same as that of FIG.
The function of the image processing apparatus 1 in FIG. 1 is divided into a learning function unit 1b that performs machine learning and an OCR function unit 1a that executes other functions, and has a server client configuration. In particular, the learning function unit 1b generates and updates the first feature amount. The learning function unit 1b also executes the function of the recording device 3 and manages the learning result database 4b. The OCR function unit 1a performs functions such as OCR processing, extraction of third feature values, identification of a recorded character string, and a user interface for an operator. The OCR function unit 1a detects a character string, detects a character feature included in the character string, and detects coordinates of the character string range in the OCR process.
The OCR function unit 1 a is stored in the terminal device 6. The learning function unit 1 b is stored in the server device 7.
The database 4 in FIG. 1 is divided into an OCR result database 4a and a learning result database 4b. The OCR result database 4a stores the result of OCR processing such as a recording table. The learning result database 4b stores data obtained during machine learning such as the first feature amount. The learning result database 4b is stored in the server device 7. On the other hand, the OCR result database is configured as one apparatus.

図15は、第八実施形態による端末装置の処理フローを示す図である。
図15の処理で、端末装置6は、画像処理装置2により文書帳票の画像データを読み取り、画像データに対応する学習結果をサーバ装置7からダウンロードする(ステップS1501)。特に、端末装置6は、学習結果として第一特徴量を取得する。
端末装置6は、画像データに含まれる全ての文字列をOCR処理し、学習結果に当てはまるものを画面表示する(ステップS1502)。具体的には、端末装置6は、学習結果である第一特徴量を用いて、第一特徴量に当てはまる記録文字列を特定する。
FIG. 15 is a diagram illustrating a processing flow of the terminal device according to the eighth embodiment.
In the processing of FIG. 15, the terminal device 6 reads the image data of the document form by the image processing device 2, and downloads the learning result corresponding to the image data from the server device 7 (step S1501). In particular, the terminal device 6 acquires the first feature amount as a learning result.
The terminal device 6 performs OCR processing on all character strings included in the image data, and displays a screen that applies to the learning result (step S1502). Specifically, the terminal device 6 specifies a recorded character string that applies to the first feature value, using the first feature value that is a learning result.

端末装置6は、画像データ内の全てのOCR対象文字列が正しく読み取れているか判定する(ステップS1503)。読み取れていない文字列があると判定した場合(ステップS1503:NO)、端末装置6は、OCR結果を画面表示にて作業者に提示し、修正操作を受ける(ステップS1504)。
端末装置6は、読み取った文字列(作業者の修正を受けた場合は修正後の文字列)をOCR結果データベース4aに送信し記録する(ステップS1505)。具体的には、端末装置6は、記録文字列をOCR結果データベース4aに記憶させる。ステップS1503でYESの場合も、処理がステップS1505へ進む。
端末装置6は、読み取った文字列および位置情報など学習用データをサーバ装置7へ送信する(ステップS1506)。
図15の処理により、端末装置6は、OCR結果として記録すべき記録文字列をOCR結果データベースに記録し、また、サーバ装置7に学習用データを提供している。
The terminal device 6 determines whether all the OCR target character strings in the image data are correctly read (step S1503). If it is determined that there is a character string that has not been read (step S1503: NO), the terminal device 6 presents the OCR result to the operator in a screen display and receives a correction operation (step S1504).
The terminal device 6 transmits and records the read character string (or the corrected character string when it is corrected by the operator) to the OCR result database 4a (step S1505). Specifically, the terminal device 6 stores the recorded character string in the OCR result database 4a. Also in the case of YES in step S1503, the process proceeds to step S1505.
The terminal device 6 transmits learning data such as the read character string and position information to the server device 7 (step S1506).
With the processing in FIG. 15, the terminal device 6 records a recording character string to be recorded as an OCR result in the OCR result database, and provides learning data to the server device 7.

図16は、第八実施形態によるサーバ装置の処理フローを示す図である。
図16の処理で、サーバ装置7は、端末装置6から学習用データを受信して保存する(ステップS1601)。
サーバ装置7は、未学習の学習用データがN個(Nは、正整数)蓄積されたかを判定する(ステップS1602)。蓄積されていないと判定した場合(ステップS1602:NO)、ステップS1601へ戻る。
一方、未学習の学習用データがN個蓄積されたと判定した場合(ステップS1602:YES)、サーバ装置7は、学習用データとして受信した帳票の受信結果データを学習結データベースから読み込む(ステップS1603)。
次に、サーバ装置7は、読み込んだ学習結果データに新しい学習用データを追加し、再学習する(ステップS1604)。
サーバ装置7は、再学習結果を学習結果データベース4bに登録する(ステップS1605)。
そして、サーバ装置7は、端末装置6から学習用データを受信するまで待機する(ステップS1606)。ステップS1606の後、処理がステップS1601へ戻る。
図16の処理で、サーバ装置7は、学習結果としての第一特徴量を更新している。更新された第一特徴量は、学習結果データベース4bに登録されて端末装置6の利用に供される。
第八実施形態によれば、画像処理装置の学習機能をサーバ化して学習用データを集約し学習を加速させることができる。
FIG. 16 is a diagram illustrating a processing flow of the server device according to the eighth embodiment.
In the process of FIG. 16, the server device 7 receives and stores learning data from the terminal device 6 (step S1601).
The server device 7 determines whether N pieces of unlearned learning data (N is a positive integer) have been accumulated (step S1602). If it is determined that it has not been accumulated (step S1602: NO), the process returns to step S1601.
On the other hand, when it is determined that N pieces of unlearned learning data have been accumulated (step S1602: YES), the server device 7 reads the reception result data of the form received as the learning data from the learning result database (step S1603). .
Next, the server device 7 adds new learning data to the read learning result data, and re-learns (step S1604).
The server device 7 registers the relearning result in the learning result database 4b (step S1605).
The server device 7 stands by until learning data is received from the terminal device 6 (step S1606). After step S1606, the process returns to step S1601.
In the process of FIG. 16, the server device 7 updates the first feature amount as a learning result. The updated first feature amount is registered in the learning result database 4 b and is used for the terminal device 6.
According to the eighth embodiment, the learning function of the image processing apparatus can be made into a server to collect learning data and accelerate learning.

なお、サーバ装置7が再学習等の機械学習を行うタイミングは、図16のステップS1602に示される、学習用データが一定数蓄積されたタイミングに限定されない。例えば、サーバ装置7が、一定期間ごとに学習を行うようにしてもよい。特に、サーバ装置7が、データ数の条件に加えてあるいは代えて、時間的な条件に従って学習を開始するようにしてもよい。   Note that the timing at which the server device 7 performs machine learning such as relearning is not limited to the timing at which a certain number of learning data is accumulated, which is shown in step S1602 of FIG. For example, the server device 7 may learn at regular intervals. In particular, the server device 7 may start learning according to a temporal condition in addition to or instead of the data number condition.

サーバ装置7が一定期間ごとに学習を行う例として、サーバ装置7が、端末装置6が稼働しない夜間または休業日に学習を行う場合が挙げられる。ここで、端末装置6の稼働中にサーバ装置7が学習を行うと、サーバ装置7の学習機能部1bによる学習結果データベースへのアクセスが生る。これにより、端末装置6から学習結果データベース4bへのアクセスに遅延が生じる、あるいは、アクセスが必要なタイミングでアクセスできないといった不都合が生じる可能性がある。そこで、サーバ装置7が、端末装置6が稼働していないときに学習を行うことで、端末装置6から学習結果データベース4bへのアクセスへの影響を回避できる。   As an example in which the server device 7 learns at regular intervals, the server device 7 may learn at night or on closed days when the terminal device 6 is not operating. Here, when the server device 7 performs learning during operation of the terminal device 6, access to the learning result database by the learning function unit 1 b of the server device 7 occurs. As a result, there is a possibility that a delay occurs in access from the terminal device 6 to the learning result database 4b, or inconvenience that access cannot be made at a timing when access is required. Therefore, the server device 7 performs learning when the terminal device 6 is not operating, thereby avoiding the influence on the access from the terminal device 6 to the learning result database 4b.

なお、サーバ装置7に加えて、あるいは代えて、端末装置6が機械学習を行うようにしてもよい。
ここで、サーバ装置7が機械学習を行い、端末装置6は学習を行わない場合、サーバ装置7が機械学習を行って学習結果(第一特徴量)を更新し、端末装置6と学習結果を共有するまで、端末装置6の処理の精度は向上しない。例えば、サーバ装置7が毎日夜間のみ機械学習を行う場合、端末装置6が更新後の学習結果を使用できるのは翌朝以降となってしまう。例えば端末装置6が午前中に学習用データを生成してサーバ装置7へ送信した場合でも、その学習の結果が端末装置6の処理に反映されるのは、約一日後の翌日朝となる。
The terminal device 6 may perform machine learning in addition to or instead of the server device 7.
Here, when the server device 7 performs machine learning and the terminal device 6 does not perform learning, the server device 7 performs machine learning to update the learning result (first feature amount), and the terminal device 6 and the learning result are updated. Until sharing, the processing accuracy of the terminal device 6 is not improved. For example, when the server device 7 performs machine learning only at night every day, the terminal device 6 can use the updated learning result after the next morning. For example, even when the terminal device 6 generates learning data in the morning and transmits it to the server device 7, the learning result is reflected in the processing of the terminal device 6 on the morning of the next day after about one day.

そこで、端末装置6の各々が、帳票を一枚処理する毎に機械学習を行う。端末装置6は、学習結果を自らの処理に反映させるとともに、学習結果または学習用データをサーバ装置7へ送信する。端末装置6は、帳票の処理で特徴量(第三特徴量)を生成する。そして、端末装置6は、学習結果データベースから取得した第一特徴量を、生成した特徴量を用いて更新する。例えば、端末装置6は、図15のステップS1506で、学習用データをサーバ装置7へ送信するとともに、その学習用データを用いて自ら機械学習を行い、端末装置6自らが記憶している第一特徴量を更新する。あるいは、端末装置6が、図15のステップS1506で、学習用データに加えて学習結果(得られた特徴量)をサーバ装置7へ送信するようにしてもよい。
端末装置6は、自ら学習を行うことで、自らの学習結果を自らの処理に反映させることができる。この点で、端末装置6自らは機械学習を行わずサーバ装置7による学習結果の更新を待ち受ける場合よりも早く端末装置6の処理制度が向上することが期待される。
端末装置6の各々が行う機械学習を仮学習と称する。
Therefore, each time the terminal device 6 processes one form, it performs machine learning. The terminal device 6 reflects the learning result in its own process, and transmits the learning result or learning data to the server device 7. The terminal device 6 generates a feature amount (third feature amount) by processing the form. And the terminal device 6 updates the 1st feature-value acquired from the learning result database using the produced | generated feature-value. For example, the terminal device 6 transmits the learning data to the server device 7 in step S1506 in FIG. 15, performs machine learning using the learning data, and stores the first data stored in the terminal device 6 itself. Update feature values. Alternatively, the terminal device 6 may transmit the learning result (the obtained feature amount) to the server device 7 in addition to the learning data in step S1506 of FIG.
The terminal device 6 can reflect its learning result in its own processing by performing its own learning. In this regard, it is expected that the terminal device 6 itself does not perform machine learning and the processing system of the terminal device 6 is improved earlier than when waiting for an update of a learning result by the server device 7.
Machine learning performed by each terminal device 6 is referred to as provisional learning.

端末装置6がサーバ装置7へ学習用データを送信する場合、サーバ装置7が行う処理は、図16を参照して説明したのと同じである。
一方、端末装置6がサーバ装置7へ学習結果を送信する場合、サーバ装置7は、各端末装置6からの学習結果を蓄積しておく。そして、サーバ装置7は、例えば夜間に端末装置6から得られた学習結果を、学習結果データベース4bが記憶している学習結果に反映させる。具体的には、サーバ装置7の学習機能部1bが、端末装置6が学習で取得した特徴量を用いて、学習用データベース4bが記憶している第一特徴量を更新する。
学習結果データベースが記憶している第一特徴量を更新する処理を本学習と称する。
When the terminal device 6 transmits the learning data to the server device 7, the processing performed by the server device 7 is the same as described with reference to FIG.
On the other hand, when the terminal device 6 transmits the learning result to the server device 7, the server device 7 stores the learning result from each terminal device 6. Then, the server device 7 reflects the learning result obtained from the terminal device 6 at night, for example, in the learning result stored in the learning result database 4b. Specifically, the learning function unit 1b of the server device 7 updates the first feature value stored in the learning database 4b using the feature value acquired by the terminal device 6 through learning.
The process of updating the first feature value stored in the learning result database is referred to as main learning.

図17は画像処理装置の最小構成を示す図である。
この図が示すように画像処理装置1は、少なくとも特徴量抽出部103と、読取対象特徴量生成部104とを備えればよい。
特徴量抽出部103は、過去に登録された複数の帳票画像データを文字認識処理した結果に基づいて、帳票画像データに含まれる文字列の特徴を示す特徴量を帳票画像データ毎に抽出する。
読取対象特徴量生成部104は、帳票画像データに対応する特徴量を用いて当該帳票画像データ中の記録文字列の第一特徴量を生成する。
FIG. 17 is a diagram illustrating a minimum configuration of the image processing apparatus.
As shown in this figure, the image processing apparatus 1 may include at least a feature amount extraction unit 103 and a read target feature amount generation unit 104.
The feature amount extraction unit 103 extracts, for each form image data, a feature amount indicating the feature of the character string included in the form image data based on the result of character recognition processing of a plurality of form image data registered in the past.
The reading target feature value generation unit 104 generates the first feature value of the recorded character string in the form image data using the feature value corresponding to the form image data.

上述の各装置は内部に、コンピュータシステムを有している。そして、各装置に上述した各処理を行わせるためのプログラムは、それら装置のコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムを各装置のコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。   Each of the above devices has a computer system inside. A program for causing each device to perform the above-described processes is stored in a computer-readable recording medium of each device, and the above-described processing is performed by the computer of each device reading and executing the program. Done. Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

また、上記プログラムは、前述した各処理部の機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   Further, the program may be for realizing a part of the functions of each processing unit described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

1・・・画像処理装置
1a・・・OCR機能部
1b・・・学習機能部
2・・・画像読取装置
3・・・記録装置
4・・・データベース
4a・・・学習結果データベース
4b・・・OCR結果データベース
5・・・文書帳票
6・・・端末装置
7・・・サーバ装置
101・・・制御部
102・・・取得部
103・・・特徴量抽出部
104・・・読取対象特徴量生成部
105・・・記録部
106・・・グループ分類部
107・・・グループ特定部
108・・・作業対象判定部
109・・・作業データ生成部
DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus 1a ... OCR function part 1b ... Learning function part 2 ... Image reading apparatus 3 ... Recording apparatus 4 ... Database 4a ... Learning result database 4b ... OCR result database 5 ... document form 6 ... terminal device 7 ... server device 101 ... control unit 102 ... acquisition unit 103 ... feature quantity extraction unit 104 ... read target feature quantity generation Unit 105 ... Recording unit 106 ... Group classification unit 107 ... Group identification unit 108 ... Work target determination unit 109 ... Work data generation unit

Claims (12)

複数の帳票画像データを文字認識処理した結果に基づいて、前記帳票画像データに含まれる文字列の特徴を示す特徴量を前記帳票画像データ毎に抽出する特徴量抽出部と、
前記帳票画像データに対応する前記特徴量を用いて記録文字列の特徴量である第一特徴量を生成する読取対象特徴量生成部と、
を備える画像処理装置。
Based on the result of character recognition processing of a plurality of form image data, a feature amount extraction unit that extracts a feature amount indicating a feature of a character string included in the form image data for each form image data;
A read target feature value generation unit that generates a first feature value that is a feature value of a recorded character string using the feature value corresponding to the form image data;
An image processing apparatus comprising:
前記複数の帳票画像データとその帳票画像データに含まれる文字列のうち記録対象となった前記記録文字列とを取得する取得部と、を備え、
前記特徴量抽出部は、前記取得部の取得した前記帳票画像データを文字認識処理した結果に基づいて、前記帳票画像データに対応する前記特徴量を抽出し、
前記読取対象特徴量生成部は、前記帳票画像データに対応する前記特徴量を用いて前記記録文字列の第一特徴量を生成する
請求項1に記載の画像処理装置。
An acquisition unit that acquires the plurality of form image data and the recording character string that is a recording target among character strings included in the form image data;
The feature amount extraction unit extracts the feature amount corresponding to the form image data based on a result of character recognition processing of the form image data acquired by the acquisition unit,
The image processing apparatus according to claim 1, wherein the reading target feature amount generation unit generates a first feature amount of the recorded character string using the feature amount corresponding to the form image data.
前記複数の帳票画像データとその帳票画像データに含まれる文字列のうち記録対象となった前記記録文字列とを取得する取得部と、を備え、
前記特徴量抽出部は、
前記取得部の取得した前記帳票画像データを画像認識処理した結果に基づいて、前記記録文字列の特徴を示す個別第一特徴量と、前記記録文字列以外の認識情報を示す個別第二特徴量とを前記帳票画像データ毎かつ文字列毎に抽出し、
さらに、前記個別第二特徴量に基づいて前記帳票画像データをグループ分けするグループ分類部と、を備え、
前記読取対象特徴量生成部は、前記グループに含まれる前記帳票画像データに対応する前記個別第一特徴量を用いて当該グループごとの前記第一特徴量であるグループ第一特徴量を生成する
請求項1に記載の画像処理装置。
An acquisition unit that acquires the plurality of form image data and the recording character string that is a recording target among character strings included in the form image data;
The feature amount extraction unit includes:
Based on the result of image recognition processing of the form image data acquired by the acquisition unit, an individual first feature amount indicating the feature of the recorded character string and an individual second feature amount indicating recognition information other than the recorded character string Are extracted for each form image data and for each character string,
Further, a group classification unit that groups the form image data based on the individual second feature amount,
The reading target feature value generation unit generates a group first feature value, which is the first feature value for each group, using the individual first feature value corresponding to the form image data included in the group. Item 8. The image processing apparatus according to Item 1.
前記複数の帳票画像データとその帳票画像データに含まれる文字列のうち記録対象となった前記記録文字列とを取得する取得部と、
前記特徴量抽出部が前記帳票画像データ毎かつ前記記録文字列毎に抽出した個別第一特徴量に基づいて前記帳票画像データをグループ分けするグループ分類部と、を備え、
前記読取対象特徴量生成部は、前記グループに含まれる前記帳票画像データに対応する前記個別第一特徴量を用いて当該グループごとの前記第一特徴量であるグループ第一特徴量を生成する
請求項1に記載の画像処理装置。
An acquisition unit for acquiring the plurality of form image data and the recording character string to be recorded among character strings included in the form image data;
A group classification unit that groups the form image data based on the individual first feature values extracted by the feature amount extraction unit for each form image data and for each recording character string;
The reading target feature value generation unit generates a group first feature value, which is the first feature value for each group, using the individual first feature value corresponding to the form image data included in the group. Item 8. The image processing apparatus according to Item 1.
前記複数の帳票画像データとその帳票画像データに含まれる文字列のうち記録対象となった前記記録文字列とを取得する取得部と、を備え、
前記特徴量抽出部は、前記取得部の取得した前記帳票画像データを文字認識処理した結果に基づいて、前記記録文字列の特徴を示す個別第一特徴量を前記帳票画像データ毎かつ前記記録文字列毎に抽出し、
前記読取対象特徴量生成部は、予め設定された所定のグループに含まれる前記帳票画像データに対応する前記個別第一特徴量を用いて当該グループごとの前記第一特徴量であるグループ第一特徴量を生成する
請求項1に記載の画像処理装置。
An acquisition unit that acquires the plurality of form image data and the recording character string that is a recording target among character strings included in the form image data;
The feature amount extraction unit obtains an individual first feature amount indicating a feature of the recorded character string for each form image data and the recorded character based on a result of character recognition processing on the form image data acquired by the acquisition unit. Extract by column,
The reading target feature quantity generation unit uses the individual first feature quantity corresponding to the form image data included in a predetermined group set in advance, and the group first feature that is the first feature quantity for each group. The image processing apparatus according to claim 1, wherein the quantity is generated.
前記取得部は新たな帳票画像データを取得し、
前記第一特徴量を用いて、前記新たな帳票画像データから読み取られた文字列のうちの前記記録文字列を記録する記録部と、
を備える請求項2から請求項5の何れか一項に記載の画像処理装置。
The acquisition unit acquires new form image data,
A recording unit that records the recorded character string of character strings read from the new form image data using the first feature amount;
The image processing apparatus according to claim 2, further comprising:
前記取得部は新たな帳票画像データを取得し、
前記記録文字列以外の文字列の特徴量として前記グループ毎に設定されたグループ第二特徴量に基づいて当該新たな帳票画像データの属する前記グループを特定するグループ特定部と、
当該特定したグループについての前記グループ第一特徴量を用いて、前記新たな帳票画像データから読み取られた文字列のうちの前記記録文字列を記録する記録部と、を備える、
請求項3または請求項5に記載の画像処理装置。
The acquisition unit acquires new form image data,
A group specifying unit for specifying the group to which the new form image data belongs based on a group second feature value set for each group as a feature value of a character string other than the recorded character string;
A recording unit that records the recorded character string of character strings read from the new form image data, using the first group feature amount for the identified group;
The image processing apparatus according to claim 3 or 5.
前記読取対象特徴量生成部は、前記記録部が、前記新たな帳票画像データから読み取られた文字列のうち何れかを前記記録文字列として選択することに成功した場合、失敗した場合の何れも、前記第一特徴量を更新する、
請求項6または請求項7に記載の画像処理装置。
The reading target feature amount generation unit is configured so that the recording unit succeeds in selecting any one of the character strings read from the new form image data as the recording character string, and fails. Updating the first feature amount;
The image processing apparatus according to claim 6 or 7.
前記読取対象特徴量生成部は、前記記録部による前記記録対象文字列に対して作業者が確認および修正を行い確定した記録対象文字列を用いて前記第一特徴量を更新する、
請求項1から8の何れか一項に記載の画像処理装置。
The reading target feature amount generation unit updates the first feature amount by using a recording target character string confirmed and confirmed by an operator with respect to the recording target character string by the recording unit.
The image processing apparatus according to claim 1.
請求項1から9の何れか一項に係る読取対象特徴量生成部の機能を有するサーバ装置と、
前記サーバ装置による第一特徴量を用いて文字認識処理結果の文字列の中から前記記録文字列を取得する端末装置と、
を備える画像処理システム。
A server device having a function of a read target feature value generation unit according to any one of claims 1 to 9,
A terminal device for obtaining the recorded character string from the character string of the character recognition processing result using the first feature amount by the server device;
An image processing system comprising:
複数の帳票画像データを認識処理した結果に基づいて、前記帳票画像データに含まれる文字列の特徴を示す特徴量を前記帳票画像データ毎に抽出する工程と、
前記帳票画像データに対応する前記特徴量を用いて記録文字列の特徴量である第一特徴量を生成する工程と、
を含む画像処理方法。
Based on the result of recognition processing of a plurality of form image data, a step of extracting a feature amount indicating a character string feature included in the form image data for each form image data;
Generating a first feature amount that is a feature amount of a recorded character string using the feature amount corresponding to the form image data;
An image processing method including:
コンピュータに、
複数の帳票画像データを認識処理した結果に基づいて、前記帳票画像データに含まれる文字列の特徴を示す特徴量を前記帳票画像データ毎に抽出する工程と、
前記帳票画像データに対応する前記特徴量を用いて記録文字列の特徴量である第一特徴量を生成する工程と、
を実行させるためのプログラム。
On the computer,
Based on the result of recognition processing of a plurality of form image data, a step of extracting a feature amount indicating a character string feature included in the form image data for each form image data;
Generating a first feature amount that is a feature amount of a recorded character string using the feature amount corresponding to the form image data;
A program for running
JP2018071141A 2017-06-22 2018-04-02 Image processing device, image processing system, image processing method, program Pending JP2019008775A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022108466A JP2022125220A (en) 2017-06-22 2022-07-05 Image processing apparatus, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017122416 2017-06-22
JP2017122416 2017-06-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022108466A Division JP2022125220A (en) 2017-06-22 2022-07-05 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2019008775A true JP2019008775A (en) 2019-01-17

Family

ID=65029653

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018071141A Pending JP2019008775A (en) 2017-06-22 2018-04-02 Image processing device, image processing system, image processing method, program
JP2022108466A Pending JP2022125220A (en) 2017-06-22 2022-07-05 Image processing apparatus, image processing method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022108466A Pending JP2022125220A (en) 2017-06-22 2022-07-05 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (2) JP2019008775A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020144636A (en) * 2019-03-07 2020-09-10 セイコーエプソン株式会社 Information processing apparatus, learning device, and learned model
WO2021059848A1 (en) * 2019-09-27 2021-04-01 AI inside株式会社 Information processing device, information processing method, and information processing program
JP2021101304A (en) * 2019-12-24 2021-07-08 日本電気株式会社 Image processing device, system, method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016048444A (en) * 2014-08-27 2016-04-07 沖電気工業株式会社 Document identification program, document identification device, document identification system, and document identification method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4382074B2 (en) * 1996-12-27 2009-12-09 富士通株式会社 Form identification method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016048444A (en) * 2014-08-27 2016-04-07 沖電気工業株式会社 Document identification program, document identification device, document identification system, and document identification method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020144636A (en) * 2019-03-07 2020-09-10 セイコーエプソン株式会社 Information processing apparatus, learning device, and learned model
JP7077998B2 (en) 2019-03-07 2022-05-31 セイコーエプソン株式会社 Information processing equipment
WO2021059848A1 (en) * 2019-09-27 2021-04-01 AI inside株式会社 Information processing device, information processing method, and information processing program
JP2021056659A (en) * 2019-09-27 2021-04-08 AI inside株式会社 Information processing device, information processing method and information processing program
JP2021101304A (en) * 2019-12-24 2021-07-08 日本電気株式会社 Image processing device, system, method, and program
JP7447482B2 (en) 2019-12-24 2024-03-12 日本電気株式会社 Image processing device, system, method, and program

Also Published As

Publication number Publication date
JP2022125220A (en) 2022-08-26

Similar Documents

Publication Publication Date Title
US11868717B2 (en) Multi-page document recognition in document capture
CN106886418B (en) HTML interface control label
JP2022125220A (en) Image processing apparatus, image processing method, and program
US11328504B2 (en) Image-processing device for document image, image-processing method for document image, and storage medium on which program is stored
JP6859977B2 (en) Image processing equipment, image processing systems, image processing methods and programs
JP7131488B2 (en) Information processing device, information processing method and information processing program
US11514700B2 (en) Image-processing device, image-processing method, and storage medium on which program is stored
JP2010015458A (en) Program correction support system, program correction support method, and program correction support program
EP3779784A1 (en) Image processing device, image processing method, and storage medium storing program
WO2007004521A1 (en) Marker specification device and marker specification method
JP6784274B2 (en) Image processing equipment, image processing methods and programs
CN103049808A (en) Information processing apparatus and information processing method
CN107292368A (en) Two-dimensional code generation method and device
JP7160432B2 (en) Image processing device, image processing method, program
JP7111143B2 (en) Image processing device, image processing method and program
JP5168706B2 (en) Automatic definition system of data retrieval item information in electronic form system
JP2001005886A (en) Data processor and storage medium
JP3216989U (en) Digital red stamp system
KR101768090B1 (en) business card manufacturing and management system
JPH09134357A (en) Character processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211004

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220405