JP2012198684A - Information processing device, business form type estimation method, and business form type estimation program - Google Patents

Information processing device, business form type estimation method, and business form type estimation program Download PDF

Info

Publication number
JP2012198684A
JP2012198684A JP2011061567A JP2011061567A JP2012198684A JP 2012198684 A JP2012198684 A JP 2012198684A JP 2011061567 A JP2011061567 A JP 2011061567A JP 2011061567 A JP2011061567 A JP 2011061567A JP 2012198684 A JP2012198684 A JP 2012198684A
Authority
JP
Japan
Prior art keywords
feature data
feature
processing target
image data
form type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011061567A
Other languages
Japanese (ja)
Other versions
JP5670787B2 (en
Inventor
Hidekazu Takahashi
秀和 高橋
Yoshiaki Umetsu
良昭 梅津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PFU Ltd
Original Assignee
PFU Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PFU Ltd filed Critical PFU Ltd
Priority to JP2011061567A priority Critical patent/JP5670787B2/en
Publication of JP2012198684A publication Critical patent/JP2012198684A/en
Application granted granted Critical
Publication of JP5670787B2 publication Critical patent/JP5670787B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To estimate a business form type without preliminarily creating a format definition.SOLUTION: An information processing device 1 to be connected to a feature database 31 for storing feature data related to features of external appearances of business forms for each business form type includes: an image data acquiring section 21 for acquiring image data of a business form subject to processing; a feature data acquiring section 22 for acquiring the feature data related to the business form subject to the processing from the image data; an estimation section 24 for estimating feature data matching or being similar to the feature data related to the business form subject to the processing from the feature data stored in the feature database 31 and estimating a business form type of the business form subject to the processing; and a feature data adding section 25 for, when the estimation section 24 does not estimate the business form type of the business form subject to the processing, adding the feature data related to the business form subject to the processing to the feature database 31.

Description

本発明は、帳票種別を推定するための情報処理装置、方法およびプログラムに関する。   The present invention relates to an information processing apparatus, method, and program for estimating a form type.

従来、入力画像データを取得するデータ取得部と、登録画像データまたは登録画像の特徴量を記憶したメモリと、上記入力画像データが上記登録画像に対応する画像データであるか否かの判定処理を行う類似度判定処理部とを備えた画像処理装置であって、類似度判定処理部は、入力画像データの付帯情報に応じて判定処理の処理内容を変更する画像処理装置がある(特許文献1を参照)。   Conventionally, a data acquisition unit that acquires input image data, a memory that stores registered image data or a feature amount of a registered image, and a determination process that determines whether the input image data is image data corresponding to the registered image There is an image processing apparatus including a similarity determination processing unit to perform, and the similarity determination processing unit includes an image processing apparatus that changes processing contents of determination processing according to incidental information of input image data (Patent Document 1). See).

また、文書タイプ識別処理部が登録画像の文書タイプの属性(帳票、図面など)を識別し、その属性を画像情報DBに登録し、登録画像を画像DBに登録する画像処理装置であって、文書検索時には、文書タイプにより分類された表示画面を作成して表示デバイスに表示し、ユーザは入力デバイスを使用して表示画面上から「帳票」などのカテゴリを選択し、選択された「帳票」のサムネイル一覧が表示される画像処理装置がある(特許文献2を参照)。その他、帳票等から得られた画像を処理するための技術が種々提案されている(特許文献3から6を参照)。   The document type identification processing unit is an image processing apparatus that identifies a document type attribute (form, drawing, etc.) of a registered image, registers the attribute in the image information DB, and registers the registered image in the image DB. When searching for a document, a display screen classified according to the document type is created and displayed on the display device. The user selects a category such as “form” on the display screen using the input device, and the selected “form” is selected. There is an image processing apparatus that displays a list of thumbnails (see Patent Document 2). In addition, various techniques for processing an image obtained from a form or the like have been proposed (see Patent Documents 3 to 6).

特開2008−301476号公報JP 2008-301476 A 特開2008−204184号公報JP 2008-204184 A 国際公開第97/05561号International Publication No. 97/05561 特開2000−242855号公報JP 2000-242855 A 特開2009−238217号公報JP 2009-238217 A 特開2007−58626号公報JP 2007-58626 A

従来、スキャナ等を用いて、紙媒体として発生した帳票の画像データを生成して帳票の種別を識別し、OCR(Optical Character Recognition)処理を行う技術がある。このような技術では、帳票の種別を識別し、OCR処理を行うために、全ての帳票の種別について、帳票種別毎に予め書式定義(帳票定義)を作成しておく必要があった。   Conventionally, there is a technique of generating image data of a form generated as a paper medium using a scanner or the like, identifying the type of the form, and performing OCR (Optical Character Recognition) processing. In such a technique, in order to identify a form type and perform OCR processing, it is necessary to create a format definition (form definition) for each form type in advance for all form types.

しかし、このような書式定義の作成は難しく、書式定義を予め作成するには、帳票種別の識別サービスの利用者または提供者に手間をかけるものであった。   However, it is difficult to create such a format definition. To create a format definition in advance, it takes time and effort for the user or provider of the form type identification service.

本発明は、上記した問題に鑑み、予め書式定義を作成することなく、帳票種別を推定することを課題とする。   In view of the above-described problems, an object of the present invention is to estimate a form type without creating a format definition in advance.

本発明では、上記課題を解決するために、以下の手段を採用した。即ち、本発明は、帳票の外観上の特徴に係る特徴データを、帳票種別毎に蓄積する特徴データ蓄積手段に接続される情報処理装置であって、処理対象帳票の画像データを取得する画像データ取得手段と、前記画像データから、前記処理対象帳票に係る特徴データを取得する特徴データ取得手段と、前記特徴データ蓄積手段に蓄積されている特徴データから、前記処理対象帳票に
係る特徴データに一致または類似する特徴データを特定することで、該処理対象帳票の帳票種別を推定する推定手段と、前記推定手段によって前記処理対象帳票の帳票種別が推定されなかった場合に、該処理対象帳票に係る特徴データを前記特徴データ蓄積手段に追加する特徴データ追加手段と、を備える情報処理装置である。
The present invention employs the following means in order to solve the above-described problems. That is, the present invention is an information processing apparatus connected to feature data storage means for storing feature data relating to appearance characteristics of a form for each form type, and image data for acquiring image data of a processing target form The feature data acquisition means for acquiring the feature data related to the processing target form from the image data, and the feature data stored in the feature data storage means match the feature data related to the processing target form Or, by specifying similar feature data, an estimation unit that estimates a form type of the processing target form, and a case where the form type of the processing target form is not estimated by the estimation unit, An information processing apparatus comprising: feature data adding means for adding feature data to the feature data storage means.

ここで、帳票種別とは、帳票の外観から区別可能な帳票の種類である。特徴データ蓄積手段は、このような帳票種別を推定可能とするために、帳票の外観上の特徴に係る特徴データを、帳票種別毎に蓄積する。特徴データ蓄積手段によって蓄積され、または特徴データ取得手段によって取得される特徴データとしては、例えば、罫線、罫線の数、特徴点、特徴点の数、色情報(色具合)、およびこれらに関連する画像の特徴量が含まれてよい。また、特徴データは、帳票の外観に基づいて取得可能な情報であればよく、先述の具体例に限定されない。   Here, the form type is a form type that can be distinguished from the appearance of the form. The feature data accumulating unit accumulates the feature data related to the appearance characteristics of the form for each form type so that the form type can be estimated. The feature data stored by the feature data storage unit or acquired by the feature data acquisition unit includes, for example, ruled lines, the number of ruled lines, feature points, the number of feature points, color information (color condition), and the like. Image feature quantities may be included. The feature data may be any information that can be acquired based on the appearance of the form, and is not limited to the specific example described above.

本発明によれば、推定手段によって、処理対象帳票の帳票種別が推定され、帳票種別の推定に失敗した場合、特徴データ追加手段によって、処理対象帳票に係る特徴データが特徴データ蓄積手段に追加されることで、帳票種別の推定、および学習が可能となる。   According to the present invention, when the form type of the processing target form is estimated by the estimation unit and the estimation of the form type fails, the feature data related to the processing target form is added to the feature data storage unit by the feature data addition unit. This makes it possible to estimate and learn the form type.

また、前記特徴データ追加手段は、前記推定手段によって前記処理対象帳票の帳票種別が推定されなかった場合に、該処理対象帳票に係る特徴データを、新たな帳票種別に係る特徴データとして前記特徴データ蓄積手段に追加してもよい。   Further, the feature data adding means, when the form type of the processing target form is not estimated by the estimating means, the feature data related to the processing target form as the feature data related to a new form type. You may add to a storage means.

帳票種別の推定に失敗した場合に、処理対象帳票に係る特徴データを、新たな帳票種別に係る特徴データとして特徴データ蓄積手段に追加することで、以後の帳票種別推定において、学習された帳票データを用いることが可能となる。   When the form type estimation fails, the feature data related to the processing target form is added to the feature data storage means as the feature data related to the new form type, so that the form data learned in the subsequent form type estimation Can be used.

また、前記情報処理装置は、前記特徴データ蓄積手段に蓄積されている特徴データから、該特徴データに含まれる所定のパラメータが、前記画像データから取得された所定のパラメータを基準とする所定の範囲内にある1または複数の特徴データを抽出する抽出手段を更に備え、前記推定手段は、前記抽出手段によって抽出された特徴データから、前記処理対象帳票に係る特徴データに一致または類似する特徴データを特定することで、該処理対象帳票の帳票種別を推定してもよい。   In addition, the information processing apparatus has a predetermined range in which the predetermined parameter included in the feature data is based on the predetermined parameter acquired from the image data from the feature data stored in the feature data storage unit. Extraction means for extracting one or a plurality of feature data included therein, and the estimation means extracts feature data that matches or is similar to the feature data related to the processing target form from the feature data extracted by the extraction means. By specifying, the form type of the processing target form may be estimated.

即ち、抽出手段によって第一段階の絞り込みが行われ、推定手段によって第二段階の絞り込みが行われる。この際、何れかの段階における絞り込み手法を、他の段階における絞り込み手法に比べて負荷の軽いものとすることで、帳票種別推定に係る全体の負荷を軽減し、処理を高速化することが出来る。特に、絞り込みの対象となる母数が大きい第一段階の絞り込みにおいて、インデックス検索等の比較的負荷の軽い絞り込み手法を採用し、第二段階の絞り込みにおいて、最近傍探索等の比較的正確性の高い絞り込み手法を採用することで、処理速度を損なうことなく、正確性の高い帳票種別推定を行うことが可能となる。なお、絞り込み処理のステージは、二段階に限定されない。絞り込み処理は、三段階以上のステージに分割されて実行されてもよい。   That is, the first stage of narrowing is performed by the extracting means, and the second stage of narrowing is performed by the estimating means. At this time, by making the narrowing-down method at any stage lighter than the narrowing-down technique at other stages, it is possible to reduce the overall load related to form type estimation and to speed up the processing. . In particular, in the first-stage narrowing with a large parameter to be narrowed down, a relatively light-weight narrowing-down method such as index search is adopted, and in the second-stage narrowing down, the nearest neighbor search or the like is relatively accurate. By adopting a high narrowing-down method, it is possible to estimate the form type with high accuracy without impairing the processing speed. Note that the stage of the narrowing process is not limited to two stages. The narrowing-down process may be executed by being divided into three or more stages.

また、前記所定のパラメータは、前記画像データから取得された特徴点の数を特定可能な情報を含み、前記抽出手段は、前記特徴データ蓄積手段に蓄積されている特徴データから、該特徴データに含まれる特徴点の数が、前記画像データから取得された特徴点の数を基準とする所定の範囲内にある1または複数の特徴データを抽出してもよい。   The predetermined parameter includes information capable of specifying the number of feature points acquired from the image data, and the extraction unit converts the feature data stored in the feature data storage unit into the feature data. One or a plurality of feature data in which the number of feature points included is within a predetermined range based on the number of feature points acquired from the image data may be extracted.

また、前記所定のパラメータは、前記画像データから取得された罫線の数を特定可能な情報を含み、前記抽出手段は、前記特徴データ蓄積手段に蓄積されている特徴データから、該特徴データに含まれる罫線の数が、前記画像データから取得された罫線の数を基準と
する所定の範囲内にある1または複数の特徴データを抽出してもよい。
The predetermined parameter includes information capable of specifying the number of ruled lines acquired from the image data, and the extraction unit includes the feature data stored in the feature data storage unit. One or more feature data may be extracted in which the number of ruled lines is within a predetermined range based on the number of ruled lines acquired from the image data.

ここで、所定のパラメータは、特徴点の数または罫線の数を特定可能な情報を含んでいればよい。即ち、所定のパラメータは、特徴点の数または罫線の数そのものであってもよいし、取得された特徴点または罫線毎の情報であってもよい。所定のパラメータが、取得された特徴点または罫線毎の情報である場合には、この特徴点または罫線毎の情報の数をカウントすることによって、特徴点の数または罫線の数を特定することが出来る。   Here, the predetermined parameter only needs to include information capable of specifying the number of feature points or the number of ruled lines. That is, the predetermined parameter may be the number of feature points or the number of ruled lines themselves, or may be information for each acquired feature point or ruled line. When the predetermined parameter is information for each acquired feature point or ruled line, the number of feature points or the number of ruled lines can be specified by counting the number of information for each feature point or ruled line. I can do it.

また、前記所定のパラメータは、前記画像データから取得された色具合を特定可能な情報を含み、前記抽出手段は、前記特徴データ蓄積手段に蓄積されている特徴データから、該特徴データに含まれる色具合が、前記画像データから取得された色具合を基準とする所定の範囲内にある1または複数の特徴データを抽出してもよい。   The predetermined parameter includes information capable of specifying a color condition acquired from the image data, and the extraction unit is included in the feature data from the feature data stored in the feature data storage unit. One or a plurality of feature data whose color condition is within a predetermined range based on the color condition acquired from the image data may be extracted.

ここで、色具合とは、画像データに基づいて取得された、該画像データの色に関する傾向を示す情報である。色具合としては、例えば、RGBカラーヒストグラムを用いることが出来る。   Here, the color condition is information indicating a tendency regarding the color of the image data acquired based on the image data. As the color condition, for example, an RGB color histogram can be used.

また、前記特徴データは、前記画像データから算出された特徴量を含み、前記推定手段は、前記抽出手段によって抽出された特徴データに含まれる特徴量に対して、前記画像データから取得された特徴量を用いた最近傍探索を行うことで、該抽出された特徴データから、前記処理対象帳票に係る特徴データに一致または類似する特徴データを特定し、該処理対象帳票の帳票種別を推定してもよい。   The feature data includes a feature amount calculated from the image data, and the estimation unit obtains a feature amount acquired from the image data with respect to a feature amount included in the feature data extracted by the extraction unit. By performing nearest neighbor search using a quantity, the feature data that matches or resembles the feature data related to the processing target form is identified from the extracted feature data, and the form type of the processing target form is estimated. Also good.

また、本発明は、コンピュータによって実行される方法、またはコンピュータに実行させるプログラムとしても把握することが可能である。また、本発明は、そのようなプログラムをコンピュータその他の装置、機械等が読み取り可能な記録媒体に記録したものでもよい。ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。   The present invention can also be understood as a method executed by a computer or a program executed by the computer. Further, the present invention may be a program in which such a program is recorded on a recording medium readable by a computer, other devices, machines, or the like. Here, a computer-readable recording medium is a recording medium that stores information such as data and programs by electrical, magnetic, optical, mechanical, or chemical action and can be read from a computer or the like. Say.

本発明によれば、予め書式定義を作成することなく、帳票種別を推定することが可能となる。   According to the present invention, it is possible to estimate a form type without creating a format definition in advance.

実施形態に係る帳票種別検索システムの構成の概略を示す図である。It is a figure which shows the outline of a structure of the form classification search system which concerns on embodiment. 実施形態に係るアプリケーションサーバの機能構成の概略を示す図である。It is a figure which shows the outline of a function structure of the application server which concerns on embodiment. 実施形態に係る特徴データベースに含まれるテーブルAの構成を示す図である。It is a figure which shows the structure of the table A contained in the characteristic database which concerns on embodiment. 実施形態に係る特徴データベースに含まれるテーブルBの構成を示す図である。It is a figure which shows the structure of the table B contained in the characteristic database which concerns on embodiment. 実施形態に係る帳票種別識別・学習処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the form classification identification and learning process which concerns on embodiment. 実施形態に係る処理対象帳票の画像データの例を示す図である。It is a figure which shows the example of the image data of the process target form which concerns on embodiment. 図6Aに例示した処理対象帳票から抽出された、罫線のみのグレースケール画像の例を示す図である。FIG. 6B is a diagram illustrating an example of a grayscale image with only ruled lines extracted from the processing target form illustrated in FIG. 6A. 図6Bに例示した罫線のみのグレースケール画像において、特徴点が抽出された様子を例示する図である。It is a figure which illustrates a mode that the feature point was extracted in the grayscale image only of the ruled line illustrated in FIG. 6B.

以下、本発明に係る情報処理装置の実施の形態について、図面に基づいて説明する。なお、以下に説明する実施の形態は、本発明を実施する一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明を実施するにあたっては、実施の形態に応じた具体的構成が適宜採用されることが好ましい。   Embodiments of an information processing apparatus according to the present invention will be described below with reference to the drawings. The embodiment described below shows an example for carrying out the present invention, and the present invention is not limited to the specific configuration described below. In practicing the present invention, it is preferable to adopt a specific configuration according to the embodiment as appropriate.

本実施形態において、本発明に係る情報処理装置は、帳票種別検索システム100において帳票種別検索サービスを提供するアプリケーションサーバ1として実施される。但し、本発明の適用対象は、帳票種別を推定するための情報処理装置であればよく、アプリケーションサーバ1に限定されない。たとえば、情報処理装置は、ユーザ端末9として実施されてもよいし、所謂クラウド等として実施されてもよい。   In the present embodiment, the information processing apparatus according to the present invention is implemented as the application server 1 that provides a form type search service in the form type search system 100. However, the application target of the present invention is not limited to the application server 1 as long as it is an information processing apparatus for estimating the form type. For example, the information processing apparatus may be implemented as the user terminal 9 or a so-called cloud or the like.

<帳票種別検索システムの構成>
図1は、本実施形態に係る帳票種別検索システム100の構成の概略を示す図である。帳票種別検索システム100は、ユーザ端末9とのインターフェースを提供するためのWebサーバ2と、帳票種別検索サービスを提供するためのアプリケーションサーバ1と、特徴データや画像データ等の各種情報が蓄積されるデータベース3(特徴データベース31および画像データベース32)と、が互いに接続されたシステムである。
<Configuration of form type search system>
FIG. 1 is a diagram showing an outline of the configuration of a form type search system 100 according to this embodiment. The form type search system 100 stores a Web server 2 for providing an interface with the user terminal 9, an application server 1 for providing a form type search service, and various types of information such as feature data and image data. Database 3 (feature database 31 and image database 32) is a system connected to each other.

Webサーバ2は、ユーザ端末9に対して帳票種別検索サービスのためのインターフェースを提供するためのサーバである。本実施形態に係る帳票種別検索システム100において、ユーザは、スキャナ等を用いて作成した帳票の画像データを、Webサーバ2に対して送信する。但し、帳票が初めから画像データとして業務において用いられている場合には、ユーザは、紙媒体のスキャンを行う必要はない。Webサーバ2は、ユーザ端末9から送信された画像データを受け付け、アプリケーションサーバ1に対して送信する。   The Web server 2 is a server for providing the user terminal 9 with an interface for a form type search service. In the form type search system 100 according to the present embodiment, a user transmits image data of a form created using a scanner or the like to the Web server 2. However, when a form is used in business as image data from the beginning, the user does not need to scan a paper medium. The Web server 2 receives the image data transmitted from the user terminal 9 and transmits it to the application server 1.

アプリケーションサーバ1は、Webサーバ2を介して、ユーザ端末9から送信された画像データを受信し、後述する帳票種別識別・学習処理を実行する。アプリケーションサーバ1によって帳票種別識別・学習処理が実行されることで、ユーザ端末9から送信された画像データに係る帳票の帳票種別が推定される。そして、アプリケーションサーバ1は、推定結果(画像データに係る帳票の帳票種別)を、Webサーバ2を介してユーザ端末9に送信する。具体的には、アプリケーションサーバ1は、画像データに係る帳票の帳票種別が「AAA社の見積書」であると推定された場合、この推定結果をWebサーバ2に通知し、Webサーバ2は、Webインターフェースを介して、ユーザに対して、「AAA社の見積書です」等のメッセージを通知する。   The application server 1 receives the image data transmitted from the user terminal 9 via the Web server 2 and executes a form type identification / learning process described later. By executing the form type identification / learning process by the application server 1, the form type of the form related to the image data transmitted from the user terminal 9 is estimated. Then, the application server 1 transmits the estimation result (the form type of the form related to the image data) to the user terminal 9 via the Web server 2. Specifically, when it is estimated that the form type of the form relating to the image data is “AAA company estimate”, the application server 1 notifies the Web server 2 of the estimation result, and the Web server 2 The user is notified of a message such as “A quote from AAA” via the Web interface.

即ち、本実施形態に係る帳票種別検索システム100によれば、ユーザは、帳票の画像データを送信するのみで、当該帳票の帳票種別を知ることが可能となる。更に、このような帳票種別検索システム100を用いることで、帳票種別検索サービスを利用したユーザに対して、「AAA社の見積書なので購買部に送付する」、「BBB社の納品確認書なので受入部門に転送する」等の業務フローを構築したり、「AAA社の見積書です。OCR対応しているのは、CCC社のOCRソフトウェアであり、書式定義はRX0001で、1円/1枚で利用できます」等の付加サービスを提供したりすることが出来る。   That is, according to the form type search system 100 according to the present embodiment, the user can know the form type of the form only by transmitting the form image data. Further, by using the form type search system 100 like this, for the user who uses the form type search service, “A AAA company estimate is sent to the purchasing department”, “BBB company delivery confirmation is accepted. Build a business flow such as “Transfer to Department” or “AAA's estimate. OCR is supported by CCC's OCR software, format definition is RX0001, 1 yen per sheet. It is possible to provide additional services such as “Available”.

アプリケーションサーバ1は、CPU(Central Processing Unit)11と、RAM(Random Access Memory)12と、ROM(Read Only Memory)13と、補助記憶装置19と、ネットワークを介した外部との通信を行うためのネットワークインターフェース16と、が電気的に接続された情報処理装置である。   The application server 1 includes a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, a ROM (Read Only Memory) 13, an auxiliary storage device 19, and external communication via a network. The network interface 16 is an information processing apparatus electrically connected.

但し、情報処理装置の具体的なハードウェア構成に関しては、実施の形態に応じて適宜
構成要素の省略や置換、追加が可能である。例えば、アプリケーションサーバ1には、必要に応じてディスプレイやマウス、キーボード等の入出力装置が接続されてもよい。
However, regarding a specific hardware configuration of the information processing apparatus, components can be appropriately omitted, replaced, or added according to the embodiment. For example, input / output devices such as a display, a mouse, and a keyboard may be connected to the application server 1 as necessary.

CPU11は、中央処理装置であり、RAM12およびROM13等に展開された命令及びデータを処理することで、RAM12、補助記憶装置19、入出力装置等の、アプリケーションサーバ1に備えられた各構成を制御する。また、RAM12は、主記憶装置であり、CPU11によって制御され、各種命令やデータが書き込まれ、読み出される。即ち、CPU11、RAM12、およびROM13は、アプリケーションサーバ1の制御部を構成する。   The CPU 11 is a central processing unit and controls each component provided in the application server 1 such as the RAM 12, the auxiliary storage device 19, and the input / output device by processing instructions and data expanded in the RAM 12, the ROM 13, and the like. To do. The RAM 12 is a main storage device, and is controlled by the CPU 11 to write and read various commands and data. That is, the CPU 11, the RAM 12, and the ROM 13 constitute a control unit of the application server 1.

補助記憶装置19は、不揮発性の記憶装置であり、主にアプリケーションサーバ1の電源を落としても保持したい情報、例えば、RAM12にロードされるアプリケーションサーバ1のOS(Operating System)や、後述するフローチャートに示された処理を実行するための各種プログラムの他、アプリケーションサーバ1によって使用される各種データが書き込まれ、読み出される。補助記憶装置19としては、例えば、EEPROM(Electrically Erasable Programmable
ROM)やHDD(Hard Disk Drive)等を用いることが出来る。
The auxiliary storage device 19 is a non-volatile storage device, and mainly information to be retained even when the power of the application server 1 is turned off, for example, an OS (Operating System) of the application server 1 loaded into the RAM 12 and a flowchart described later. In addition to the various programs for executing the processing shown in Fig. 5, various data used by the application server 1 are written and read. As the auxiliary storage device 19, for example, an EEPROM (Electrically Erasable Programmable) is used.
ROM), HDD (Hard Disk Drive), etc. can be used.

なお、Webサーバ2、データベース3およびユーザ端末9は、アプリケーションサーバ1と同じく、一般的なコンピュータとしての構成であるCPU、RAM、ROM、補助記憶装置、ネットワークインターフェース等を備える(図示は省略する)。また、ユーザ端末9は、例えばパーソナルコンピュータであり、処理対象の帳票の画像データを取得するためのスキャナに接続されていてもよい。   The Web server 2, the database 3, and the user terminal 9 are provided with a CPU, RAM, ROM, auxiliary storage device, network interface, etc. (not shown) as a general computer, similar to the application server 1. . The user terminal 9 is, for example, a personal computer, and may be connected to a scanner for acquiring image data of a processing target form.

図2は、本実施形態に係るアプリケーションサーバ1の機能構成の概略を示す図である。本実施形態に係る情報処理装置は、CPU11が、RAM12に展開された各種プログラムを解釈および実行することで、画像データ取得部21、特徴データ取得部22、抽出部23、推定部24および特徴データ追加部25を備えるアプリケーションサーバ1として機能する。これらの機能部は、夫々、本発明に係る情報処理装置が備える各手段に相当する機能を実行する。また、本実施形態では、これらの機能がいずれも汎用のCPU11によって実行される例について説明しているが、これらの機能は、その一部または全部が、1または複数の専用のプロセッサによって実現されてもよい。   FIG. 2 is a diagram illustrating an outline of a functional configuration of the application server 1 according to the present embodiment. In the information processing apparatus according to the present embodiment, the CPU 11 interprets and executes various programs developed in the RAM 12, whereby the image data acquisition unit 21, the feature data acquisition unit 22, the extraction unit 23, the estimation unit 24, and the feature data. It functions as the application server 1 including the adding unit 25. Each of these functional units executes a function corresponding to each unit included in the information processing apparatus according to the present invention. In this embodiment, an example in which all of these functions are executed by the general-purpose CPU 11 is described. However, some or all of these functions are realized by one or a plurality of dedicated processors. May be.

画像データ取得部21は、処理対象帳票の画像データを取得する。   The image data acquisition unit 21 acquires image data of a processing target form.

特徴データ取得部22は、画像データから、処理対象帳票に係る特徴データを取得することで、帳票の画像データの符号化を行う。本実施形態において、特徴データには、罫線、罫線の数、特徴点、特徴点の数、色情報およびこれらの情報から算出された特徴量(例えば、特徴量ベクトル)が含まれる。特徴データ取得の詳細については、フローチャートを用いて後述する。   The feature data acquisition unit 22 encodes the image data of the form by acquiring the feature data related to the processing target form from the image data. In the present embodiment, the feature data includes ruled lines, the number of ruled lines, feature points, the number of feature points, color information, and feature quantities (for example, feature quantity vectors) calculated from these pieces of information. Details of the feature data acquisition will be described later using a flowchart.

抽出部23は、インデックス検索による第一段階の絞り込みを行う。より具体的には、抽出部23は、特徴データベース31に蓄積されている特徴データから、当該特徴データに含まれる罫線の数、特徴点の数および色具合が、画像データから取得された罫線の数、特徴点の数および色具合を基準とする所定の範囲内にある(即ち、特徴点等のパラメータが近似する)1または複数の特徴データを抽出する。   The extraction unit 23 performs a first-stage narrowing by index search. More specifically, the extraction unit 23 determines the number of ruled lines, the number of feature points, and the color condition included in the feature data from the feature data stored in the feature database 31 of the ruled lines acquired from the image data. One or a plurality of feature data that are within a predetermined range based on the number, the number of feature points, and the color condition (that is, parameters such as feature points approximate) are extracted.

図3および図4は、本実施形態に係る特徴データベース31の構成を示す図である。特徴データベース31は、帳票の外観上の特徴に係る特徴データを、帳票種別(帳票種別ID)毎に蓄積するデータベースであり、本実施形態では、特徴データベース31には、帳
票種別毎に、罫線の数、特徴点の数および色具合(RGBカラーヒストグラム)を保持するテーブルA(図3を参照)と、帳票の画像データに基づいて、罫線、特徴点および色具合について算出された特徴量を、当該帳票の帳票種別(帳票種別ID)に関連づけて保持するテーブルB(図4を参照)とが含まれる。
3 and 4 are diagrams showing the configuration of the feature database 31 according to the present embodiment. The feature database 31 is a database that accumulates feature data related to appearance features of a form for each form type (form type ID). In the present embodiment, the feature database 31 includes a ruled line for each form type. Based on the table A (see FIG. 3) that holds the number, the number of feature points, and the color condition (RGB color histogram) and the image data of the form, the feature amount calculated for the ruled line, the feature point, and the color condition, And a table B (see FIG. 4) held in association with the form type (form type ID) of the form.

推定部24は、最近傍探索による第二段階の絞り込みを行う。より具体的には、推定部24は、抽出部23によって抽出された特徴データに含まれる特徴量に対して、画像データから取得された特徴量を用いた最近傍探索を行うことで、抽出された特徴データから、処理対象帳票に係る特徴データに一致または類似する特徴データを特定し、処理対象帳票の帳票種別を推定する。但し、帳票種別の推定には、一致または類似する特徴データを特定することが可能な手法であれば、最近傍探索以外の手法が用いられてもよい。   The estimation unit 24 performs second-stage narrowing by nearest neighbor search. More specifically, the estimation unit 24 is extracted by performing a nearest neighbor search using the feature amount acquired from the image data on the feature amount included in the feature data extracted by the extraction unit 23. The feature data matching or similar to the feature data related to the processing target form is identified from the obtained feature data, and the form type of the processing target form is estimated. However, a method other than the nearest neighbor search may be used for estimating the form type as long as it is a method that can identify feature data that is the same or similar.

特徴データ追加部25は、推定部24によって処理対象帳票の帳票種別が推定されなかった場合に、処理対象帳票に係る特徴データを、新たな帳票種別に係る特徴データとして特徴データベース31に追加する。   The feature data adding unit 25 adds the feature data related to the processing target form to the feature database 31 as the feature data related to the new form type when the estimation unit 24 does not estimate the form type of the processing target form.

<処理の流れ>
図5は、本実施形態に係る帳票種別識別・学習処理の流れを示すフローチャートである。本フローチャートに示された処理は、ユーザ端末9から送信された帳票の画像データが、Webサーバ2を介して受信されたことを契機として実行される。但し、本フローチャートに示された処理は予め蓄積された帳票の画像データに対して、バッチ処理されてもよい。なお、本実施形態においてフローチャートを用いて説明される処理の具体的な内容および順序等は、本発明を実施する上での一例である。具体的な処理内容および順序等は、実施の形態に応じて適宜選択されてよい。
<Process flow>
FIG. 5 is a flowchart showing the flow of the form type identification / learning process according to the present embodiment. The processing shown in this flowchart is executed when the image data of the form transmitted from the user terminal 9 is received via the Web server 2. However, the process shown in this flowchart may be batch-processed on the image data of the form accumulated in advance. It should be noted that the specific contents and order of the processing described using the flowcharts in the present embodiment are examples for implementing the present invention. Specific processing contents, order, and the like may be appropriately selected according to the embodiment.

ステップS101では、画像データが取得される。アプリケーションサーバ1の画像データ取得部21は、ユーザ端末9から送信された、処理対象帳票の画像データを、Webサーバ2を介して取得する。その後、処理はステップS102へ進む。   In step S101, image data is acquired. The image data acquisition unit 21 of the application server 1 acquires the image data of the processing target form transmitted from the user terminal 9 via the Web server 2. Thereafter, the process proceeds to step S102.

ステップS102では、罫線が抽出される。アプリケーションサーバ1の特徴データ取得部22は、ステップS101において取得された画像データから、罫線を抽出する。罫線の抽出については、従来一般的に用いられている画像解析技術を用いることで可能であるため、詳細な説明は省略する。罫線抽出のための具体的な方法には、どのような方法が採用されてもよい。本実施形態では、帳票に係る画像データから、罫線に係る部分と罫線以外の部分(文字や記号、写真等)とを、画像解析によって峻別し、罫線のみの画像データを生成する。ここで生成される罫線のみの画像データは、本ステップにおける罫線の特定およびステップS103における特徴点の抽出を容易にするため、グレースケール画像または2値画像であることが好ましい。   In step S102, ruled lines are extracted. The feature data acquisition unit 22 of the application server 1 extracts ruled lines from the image data acquired in step S101. Since the ruled lines can be extracted by using an image analysis technique that is generally used in the past, detailed description thereof is omitted. Any method may be adopted as a specific method for ruled line extraction. In this embodiment, a part related to a ruled line and a part other than the ruled line (characters, symbols, photographs, etc.) are discriminated by image analysis from image data related to a form, and image data including only the ruled line is generated. The image data of only ruled lines generated here is preferably a grayscale image or a binary image in order to facilitate the specification of ruled lines in this step and the extraction of feature points in step S103.

図6Aは、本実施形態に係る処理対象帳票の画像データの例を示す図である。また、図6Bは、図6Aに例示した処理対象帳票から抽出された、罫線のみのグレースケール画像の例を示す図である。図6Aおよび図6Bによれば、本実施形態において、帳票に係る画像データから、罫線に係る部分と罫線以外の部分とが峻別され、罫線のみの画像データが生成されていることが分かる。   FIG. 6A is a diagram illustrating an example of image data of a processing target form according to the present embodiment. FIG. 6B is a diagram illustrating an example of a grayscale image with only ruled lines extracted from the processing target form illustrated in FIG. 6A. According to FIGS. 6A and 6B, it can be seen that in the present embodiment, from the image data related to the form, the part related to the ruled line and the part other than the ruled line are distinguished and image data including only the ruled line is generated.

特徴データ取得部22は、生成された罫線のみの画像データから、罫線を1本1本特定していくことで、罫線を抽出する。更に、特徴データ取得部22は、抽出された罫線の数をカウントする。一般的に罫線には縦方向に延びる罫線と横方向に延びる罫線とがあり、本数が異なるが、本実施形態では、縦方向の罫線と横方向の罫線とを区別せず、罫線の総数をカウントする。これは、本実施形態に係る帳票種別識別・学習処理では、ステップS
103において後述するように、縦方向の罫線と横方向の罫線との交点が特徴点として抽出されるため、後述する特徴データの抽出および帳票種別の推定において、罫線同士の交点の重み付けが、罫線の縦横本数と交点とで二重に考慮されてしまわないようにするためである。その後、処理はステップS103へ進む。
The feature data acquisition unit 22 extracts ruled lines by specifying the ruled lines one by one from the generated image data of only the ruled lines. Furthermore, the feature data acquisition unit 22 counts the number of extracted ruled lines. Generally, there are ruled lines extending in the vertical direction and ruled lines extending in the horizontal direction. The number of the ruled lines is different, but in this embodiment, the total number of ruled lines is not distinguished from the vertical ruled lines and the horizontal ruled lines. Count. This is the step S in the form type identification / learning process according to the present embodiment.
As will be described later in 103, the intersection of the vertical ruled line and the horizontal ruled line is extracted as a feature point. Therefore, in the feature data extraction and form type estimation described later, the weight of the intersection of ruled lines is determined by the ruled line. This is so that the vertical and horizontal numbers and intersections are not considered twice. Thereafter, the process proceeds to step S103.

ステップS103では、特徴点が抽出される。アプリケーションサーバ1の特徴データ取得部22は、ステップS102において取得された画像データから、特徴点を抽出する。特徴点の抽出については、従来一般的に用いられている画像分析技術を用いることで可能であるため、詳細な説明は省略する。本実施形態では、ステップS102において生成された罫線のみの画像データから、罫線やその交点に係る特徴点を抽出する方法が用いられる。   In step S103, feature points are extracted. The feature data acquisition unit 22 of the application server 1 extracts feature points from the image data acquired in step S102. Since feature points can be extracted by using an image analysis technique that is generally used in the past, detailed description thereof will be omitted. In the present embodiment, a method for extracting feature points related to ruled lines and their intersections from image data of only ruled lines generated in step S102 is used.

図6Cは、図6Bに例示した罫線のみのグレースケール画像において、特徴点が抽出された様子を例示する図である。図6には、抽出された特徴点が、丸印をもって示されている。図6Aおよび図6Cによれば、本実施形態において、帳票に係る画像データから、画像データの一致不一致を判定するために参照可能な特徴的な点(例えば、縦方向の罫線と横方向の罫線との交点)が抽出されていることが分かる。但し、特徴点は、画像データの一致不一致を判定するために参照可能な特徴的な点であればよく、罫線同士の交点に限定されない。特徴点抽出のための具体的な方法には、どのような方法が採用されてもよい。更に、特徴データ取得部22は、抽出された特徴点の数をカウントする。その後、処理はステップS104へ進む。   FIG. 6C is a diagram illustrating a state in which feature points are extracted from the grayscale image having only the ruled lines illustrated in FIG. 6B. In FIG. 6, the extracted feature points are indicated by circles. According to FIGS. 6A and 6C, in the present embodiment, characteristic points (for example, vertical ruled lines and horizontal ruled lines that can be referred to in order to determine whether the image data matches or not from the image data related to the form). It can be seen that the intersection point is extracted. However, the feature point may be a feature point that can be referred to in order to determine whether or not the image data matches, and is not limited to the intersection of ruled lines. As a specific method for extracting feature points, any method may be adopted. Furthermore, the feature data acquisition unit 22 counts the number of extracted feature points. Thereafter, the process proceeds to step S104.

ステップS104では、色具合が取得される。アプリケーションサーバ1の特徴データ取得部22は、ステップS102において取得された画像データから、色具合を取得する。色具合の取得については、従来一般的に用いられている画像分析技術を用いることで可能であるため、詳細な説明は省略する。色具合の取得のための具体的な方法には、どのような方法が採用されてもよい。本実施形態では、ステップS102において取得された画像データの、RGBカラーヒストグラムを生成し、これを色具合として取得する。本実施形態に係る帳票種別識別・学習処理では、罫線および特徴点の抽出を、グレースケールの画像データを用いて行っているため、色具合を取得し、後述する絞り込みに用いることで、罫線や特徴点において一致または類似しているが色違いである等の帳票を区別することが出来る。その後、処理はステップS105へ進む。   In step S104, the color condition is acquired. The feature data acquisition unit 22 of the application server 1 acquires the color condition from the image data acquired in step S102. The acquisition of the color condition can be performed by using an image analysis technique that is generally used in the related art, and thus detailed description thereof is omitted. Any method may be adopted as a specific method for obtaining the color condition. In the present embodiment, an RGB color histogram of the image data acquired in step S102 is generated and acquired as a color condition. In the form type identification / learning process according to the present embodiment, ruled lines and feature points are extracted using grayscale image data. Therefore, by obtaining color conditions and using them for narrowing down, which will be described later, It is possible to distinguish forms that have the same or similar feature points but different colors. Thereafter, the process proceeds to step S105.

ステップS105では、特徴量が算出される。アプリケーションサーバ1の特徴データ取得部22は、ステップS102からステップS104において取得された特徴データ(本実施形態では、罫線、特徴点および色具合)に関する特徴量を算出する。特徴量の算出については、従来一般的に用いられている特徴量算出技術を用いることで可能である。画像の特徴量としては、画像のモーメントやテクスチャ、エッジ量等があり、例えば、特徴データ取得部22は、ステップS103で抽出された特徴点を用いて、画像の回転、平行移動、拡大、縮小等の幾何学的変形に対して不変な量(不変量)としての特徴量を算出することが出来る。また、特徴データ取得部22は、ステップS102で得られる2値画像に対して、高次局所自己相関特徴計算を行うことで、特徴量を算出することが出来る。その後、処理はステップS106へ進む。   In step S105, a feature amount is calculated. The feature data acquisition unit 22 of the application server 1 calculates a feature amount related to the feature data (ruled lines, feature points, and color conditions in this embodiment) acquired in steps S102 to S104. The feature amount can be calculated by using a feature amount calculation technique that is generally used conventionally. The image feature amount includes an image moment, texture, edge amount, and the like. For example, the feature data acquisition unit 22 uses the feature points extracted in step S103 to rotate, translate, enlarge, or reduce the image. It is possible to calculate a feature quantity as an invariable quantity (invariant quantity) with respect to geometric deformation such as. Further, the feature data acquisition unit 22 can calculate a feature amount by performing higher-order local autocorrelation feature calculation on the binary image obtained in step S102. Thereafter, the process proceeds to step S106.

ステップS106では、第一段階の絞り込みが行われる。第一段階の絞り込みは、ステップS102からステップS104において得られた特徴データのうち、罫線の数、特徴点の数および色具合を用いた、特徴データベース31のインデックス検索によって行われる。アプリケーションサーバ1の抽出部23は、ステップS102からステップS104において得られた罫線の数、特徴点の数および色具合の夫々を検索キーとして特徴データベース31を検索する。但し、この検索では、罫線の数、特徴点の数および色具合の夫々
について所定の許容範囲が設定されることで、完全一致しないが、近似する値を含むレコード、即ち、値がステップS102からステップS104において得られた値を基準とする所定の許容範囲内にあるレコードも抽出される。本ステップでは、罫線の数、特徴点の数および色具合の全てについて一致または近似する値を含むレコードのみが抽出される。但し、抽出の条件としては、罫線の数、特徴点の数および色具合の各パラメータについて、異なる重み付けが設定されていてもよい。本ステップにおける第一段階の絞り込みの結果、特徴データベース31から、1または複数のレコード(特徴データ)が抽出される。その後、処理はステップS107へ進む。
In step S106, a first-stage narrowing is performed. The first stage of narrowing down is performed by index search of the feature database 31 using the number of ruled lines, the number of feature points, and the color condition among the feature data obtained in steps S102 to S104. The extraction unit 23 of the application server 1 searches the feature database 31 using the number of ruled lines, the number of feature points, and the color condition obtained in steps S102 to S104 as search keys. However, in this search, a predetermined allowable range is set for each of the number of ruled lines, the number of feature points, and the color condition, so that a record that does not completely match but includes an approximate value, that is, a value from step S102. Records that are within a predetermined allowable range based on the value obtained in step S104 are also extracted. In this step, only records including values that match or approximate all of the number of ruled lines, the number of feature points, and the color condition are extracted. However, as the extraction condition, different weights may be set for the parameters of the number of ruled lines, the number of feature points, and the color condition. As a result of the first-stage narrowing in this step, one or more records (feature data) are extracted from the feature database 31. Thereafter, the process proceeds to step S107.

ステップS107では、第二段階の絞り込みが行われる。第二段階の絞り込みは、ステップS105において算出された特徴量を用いた、最近傍探索によって行われる。アプリケーションサーバ1の推定部24は、ステップS105において算出された特徴点を用いて、ステップS106において抽出されたレコードに対して、最近傍探索を行う。本フローチャートに示す帳票種別識別・学習処理によれば、ステップS106で説明した第一段階の絞り込みによって、比較的処理負荷の軽いインデックス検索によってレコードが絞り込まれている。このため、ステップS107の最近傍探索の対象となるレコード(特徴データ)は、特徴データベース31の総サイズに対して小さくなっており、特徴データベース31の全体に対して最近傍探索を行う場合に比べて、処理負荷が低減されている。最近傍探索によって、ステップS101において取得された画像データの特徴データに最も近い特徴データを有するレコードが特定される。そして、推定部24は、この特定されたレコードに係る帳票種別を、ステップS101において取得された画像データに係る帳票の帳票種別であると推定する。その後、処理はステップS108へ進む。   In step S107, second-stage narrowing is performed. The second-stage narrowing is performed by nearest neighbor search using the feature amount calculated in step S105. The estimation unit 24 of the application server 1 performs nearest neighbor search on the record extracted in step S106, using the feature points calculated in step S105. According to the form type identification / learning process shown in this flowchart, the records are narrowed down by the index search with a relatively light processing load by the first-stage narrowing described in step S106. For this reason, the record (feature data) to be subjected to the nearest neighbor search in step S107 is smaller than the total size of the feature database 31, and is compared with the case where the nearest neighbor search is performed on the entire feature database 31. Thus, the processing load is reduced. By the nearest neighbor search, a record having the feature data closest to the feature data of the image data acquired in step S101 is specified. Then, the estimation unit 24 estimates that the form type related to the identified record is the form type of the form related to the image data acquired in step S101. Thereafter, the process proceeds to step S108.

ステップS108では、推定結果の有無が判定される。アプリケーションサーバ1の制御部は、ステップS107において、1のレコード(特徴データ)が、ステップS101において取得された画像データの特徴データとして特定されたか否か、換言すれば、帳票種別の推定結果が得られたか否かを判定する。帳票種別の推定結果が得られなかったと判定された場合、処理はステップS109へ進む。一方、帳票種別の推定結果が得られたと判定された場合、処理はステップS110へ進む。   In step S108, the presence or absence of an estimation result is determined. In step S107, the control unit of the application server 1 determines whether one record (feature data) is identified as the feature data of the image data acquired in step S101. In other words, the form type estimation result is obtained. It is determined whether or not it has been. If it is determined that the estimation result of the form type has not been obtained, the process proceeds to step S109. On the other hand, when it is determined that the estimation result of the form type is obtained, the process proceeds to step S110.

ステップS109では、特徴データベース31への登録が行われる。アプリケーションサーバ1の特徴データ追加部25は、ステップS102からステップS105において取得された罫線の数、特徴点の数、色具合および特徴量を、新たな帳票種別に係る特徴データとして、特徴データベース31に蓄積させる。但し、特徴データベース31には、取得されたその他の特徴データ(特徴点、罫線等)についても蓄積されてよい。また、特徴データ追加部25は、蓄積された特徴データに関連づけて、ステップS101において取得された画像データを、画像データベース32に蓄積する。即ち、本実施形態に係る帳票種別識別・学習処理によれば、推定結果が得られなかった帳票の画像データおよび特徴データが、新たな帳票種別に係る画像データおよび特徴データとして学習される。ここで学習された特徴データは、次回以降に帳票種別識別・学習処理が実行される際に、帳票種別識別のために参照される。その後、本フローチャートに示された処理は終了する。   In step S109, registration in the feature database 31 is performed. The feature data adding unit 25 of the application server 1 stores the number of ruled lines, the number of feature points, the color condition, and the feature amount acquired in steps S102 to S105 in the feature database 31 as feature data relating to a new form type. Accumulate. However, the acquired feature data (feature points, ruled lines, etc.) may also be stored in the feature database 31. The feature data adding unit 25 stores the image data acquired in step S101 in the image database 32 in association with the stored feature data. That is, according to the form type identification / learning process according to the present embodiment, image data and feature data of a form for which an estimation result has not been obtained are learned as image data and feature data related to a new form type. The feature data learned here is referred to for identifying the form type when the form type identifying / learning process is executed from the next time onward. Thereafter, the processing shown in this flowchart ends.

ステップS110およびステップS111では、推定結果がユーザに対して提示され、推定結果の正否が判定される。帳票種別の推定結果が得られたとステップS108において判定された場合、アプリケーションサーバ1の制御部は、推定結果に係る帳票種別を特徴データベース31から取得し、Webサーバ2を介してユーザ端末9に送信する(ステップS110)。ユーザ端末9によって受信された推定結果に係る帳票種別は、ユーザ端末9によって表示されることでユーザに対して提示される。ユーザは、ユーザ端末9に表示された推定結果を参照し、正しい結果が得られているか否かを、Webサーバ2に対して返信する。アプリケーションサーバ1は、ユーザ端末からの返信の内容に従って、推定
結果が正しい結果であったか否か、即ち、推定結果に係る帳票種別が、ステップS101において取得された画像データに係る帳票の帳票種別を正しく示しているか否か、を判定する(ステップS111)。
In step S110 and step S111, the estimation result is presented to the user, and whether the estimation result is correct or not is determined. When it is determined in step S108 that the estimation result of the form type is obtained, the control unit of the application server 1 acquires the form type related to the estimation result from the feature database 31, and transmits it to the user terminal 9 via the Web server 2. (Step S110). The form type related to the estimation result received by the user terminal 9 is presented to the user by being displayed by the user terminal 9. The user refers to the estimation result displayed on the user terminal 9 and returns to the Web server 2 whether or not a correct result is obtained. According to the content of the reply from the user terminal, the application server 1 determines whether or not the estimation result is a correct result, that is, the form type related to the estimation result is the correct form type of the form related to the image data acquired in step S101. It is determined whether or not it is shown (step S111).

推定結果が正しい結果ではなかったと判定された場合、処理はステップS109へ進む。即ち、推定結果が正しい結果ではなかったと判定された場合、得られた情報は新たな帳票種別に係る情報であるとして、特徴データベース31および画像データベース32に蓄積される。ステップS109における処理の詳細については先述の通りであるため、説明を省略する。その後、本フローチャートに示された処理は終了する。一方、推定結果が正しい結果であったと判定された場合、処理はステップS112へ進む。   If it is determined that the estimation result is not correct, the process proceeds to step S109. That is, when it is determined that the estimation result is not a correct result, the obtained information is stored in the feature database 31 and the image database 32 as information related to a new form type. Details of the processing in step S109 are as described above, and thus the description thereof is omitted. Thereafter, the processing shown in this flowchart ends. On the other hand, when it is determined that the estimation result is a correct result, the process proceeds to step S112.

ステップS112およびステップS113では、OCR処理が行われ、結果が送信される。アプリケーションサーバ1の制御部は、OCR処理のための書式定義が蓄積された書式定義データベース(図示は省略する)から、推定された帳票種別に係る書式定義を取得する。そして、アプリケーションサーバ1の制御部は、当該書式定義に従って、ステップS101において取得された画像データに対するOCR処理を行う(ステップS112)。OCR処理が完了すると、アプリケーションサーバ1の制御部は、Webサーバ2を介して、ユーザ端末9に対して、帳票の画像データに含まれていた文字情報を含むOCR処理の結果を送信する(ステップS113)。また、制御部は、この際、帳票種別も併せてユーザ端末9に送信してもよい。その後、本フローチャートに示された処理は終了する。   In step S112 and step S113, an OCR process is performed and the result is transmitted. The control unit of the application server 1 acquires a format definition related to the estimated form type from a format definition database (not shown) in which format definitions for OCR processing are accumulated. Then, the control unit of the application server 1 performs OCR processing on the image data acquired in step S101 according to the format definition (step S112). When the OCR process is completed, the control unit of the application server 1 transmits the result of the OCR process including the character information included in the image data of the form to the user terminal 9 via the Web server 2 (Step S1). S113). At this time, the control unit may also transmit the form type to the user terminal 9 together. Thereafter, the processing shown in this flowchart ends.

<効果>
本実施形態に係る帳票種別検索システム100によれば、予め書式定義を作成することなく、帳票種別を推定することが出来る。また、未知の帳票種別については学習を行い、以後の帳票種別推定において、学習された帳票データを用いることが可能となる。
<Effect>
According to the form type search system 100 according to the present embodiment, it is possible to estimate the form type without creating a format definition in advance. Further, it is possible to learn about an unknown form type and use the learned form data in the subsequent form type estimation.

更に、本実施形態に係る帳票種別検索システム100によれば、抽出部23による第一段階の絞り込みにおいて比較的負荷の軽いインデックス検索を採用し、推定部24による第二段階の絞り込みにおいて比較的正確性の高い最近傍探索を採用することで、処理速度を損なうことなく、正確性の高い帳票種別推定を行うことが可能となる。   Furthermore, according to the form type search system 100 according to the present embodiment, index retrieval with a relatively light load is adopted in the first stage narrowing by the extraction unit 23, and relatively accurate in the second stage narrowing by the estimation unit 24. By adopting a highly proximate nearest neighbor search, it is possible to perform highly accurate form type estimation without impairing the processing speed.

1 アプリケーションサーバ
2 Webサーバ
3 データベース
9 ユーザ端末
21 画像データ取得部
22 特徴データ取得部
23 抽出部
24 推定部
25 特徴データ追加部
31 特徴データベース
32 画像データベース
DESCRIPTION OF SYMBOLS 1 Application server 2 Web server 3 Database 9 User terminal 21 Image data acquisition part 22 Feature data acquisition part 23 Extraction part 24 Estimation part 25 Feature data addition part 31 Feature database 32 Image database

Claims (9)

帳票の外観上の特徴に係る特徴データを、帳票種別毎に蓄積する特徴データ蓄積手段に接続される情報処理装置であって、
処理対象帳票の画像データを取得する画像データ取得手段と、
前記画像データから、前記処理対象帳票に係る特徴データを取得する特徴データ取得手段と、
前記特徴データ蓄積手段に蓄積されている特徴データから、前記処理対象帳票に係る特徴データに一致または類似する特徴データを特定することで、該処理対象帳票の帳票種別を推定する推定手段と、
前記推定手段によって前記処理対象帳票の帳票種別が推定されなかった場合に、該処理対象帳票に係る特徴データを前記特徴データ蓄積手段に追加する特徴データ追加手段と、
を備える情報処理装置。
An information processing apparatus connected to feature data storage means for storing feature data relating to appearance features of a form for each form type,
Image data acquisition means for acquiring image data of a processing target form;
Feature data acquisition means for acquiring feature data related to the processing target form from the image data;
Estimation means for estimating the form type of the processing target form by identifying feature data that matches or is similar to the characteristic data related to the processing target form from the feature data stored in the feature data storage means;
Feature data adding means for adding feature data related to the processing target form to the feature data accumulating means when the form type of the processing target form is not estimated by the estimating means;
An information processing apparatus comprising:
前記特徴データ追加手段は、前記推定手段によって前記処理対象帳票の帳票種別が推定されなかった場合に、該処理対象帳票に係る特徴データを、新たな帳票種別に係る特徴データとして前記特徴データ蓄積手段に追加する、
請求項1に記載の情報処理装置。
If the form type of the processing target form is not estimated by the estimating means, the feature data adding means uses the feature data relating to the processing form as feature data relating to a new form type. To add to the
The information processing apparatus according to claim 1.
前記特徴データ蓄積手段に蓄積されている特徴データから、該特徴データに含まれる所定のパラメータが、前記画像データから取得された所定のパラメータを基準とする所定の範囲内にある1または複数の特徴データを抽出する抽出手段を更に備え、
前記推定手段は、前記抽出手段によって抽出された特徴データから、前記処理対象帳票に係る特徴データに一致または類似する特徴データを特定することで、該処理対象帳票の帳票種別を推定する、
請求項1または2に記載の情報処理装置。
From the feature data stored in the feature data storage means, one or more features in which a predetermined parameter included in the feature data is within a predetermined range based on the predetermined parameter acquired from the image data It further comprises extraction means for extracting data,
The estimation means estimates the form type of the processing target form by specifying feature data that matches or is similar to the characteristic data related to the processing target form from the feature data extracted by the extraction means.
The information processing apparatus according to claim 1 or 2.
前記所定のパラメータは、前記画像データから取得された特徴点の数を特定可能な情報を含み、
前記抽出手段は、前記特徴データ蓄積手段に蓄積されている特徴データから、該特徴データに含まれる特徴点の数が、前記画像データから取得された特徴点の数を基準とする所定の範囲内にある1または複数の特徴データを抽出する、
請求項3に記載の情報処理装置。
The predetermined parameter includes information capable of specifying the number of feature points acquired from the image data,
The extraction unit is configured such that, from the feature data stored in the feature data storage unit, the number of feature points included in the feature data is within a predetermined range based on the number of feature points acquired from the image data. Extract one or more feature data in
The information processing apparatus according to claim 3.
前記所定のパラメータは、前記画像データから取得された罫線の数を特定可能な情報を含み、
前記抽出手段は、前記特徴データ蓄積手段に蓄積されている特徴データから、該特徴データに含まれる罫線の数が、前記画像データから取得された罫線の数を基準とする所定の範囲内にある1または複数の特徴データを抽出する、
請求項3または4に記載の情報処理装置。
The predetermined parameter includes information capable of specifying the number of ruled lines acquired from the image data,
The extraction means includes, based on the feature data stored in the feature data storage means, the number of ruled lines included in the feature data is within a predetermined range based on the number of ruled lines acquired from the image data. Extract one or more feature data;
The information processing apparatus according to claim 3 or 4.
前記所定のパラメータは、前記画像データから取得された色具合を特定可能な情報を含み、
前記抽出手段は、前記特徴データ蓄積手段に蓄積されている特徴データから、該特徴データに含まれる色具合が、前記画像データから取得された色具合を基準とする所定の範囲内にある1または複数の特徴データを抽出する、
請求項3から5の何れか一項に記載の情報処理装置。
The predetermined parameter includes information that can specify the color condition acquired from the image data,
The extraction unit is configured such that, from the feature data stored in the feature data storage unit, the color condition included in the feature data is within a predetermined range based on the color condition acquired from the image data. Extract multiple feature data,
The information processing apparatus according to any one of claims 3 to 5.
前記特徴データは、前記画像データから算出された特徴量を含み、
前記推定手段は、前記抽出手段によって抽出された特徴データに含まれる特徴量に対し
て、前記画像データから取得された特徴量を用いた最近傍探索を行うことで、該抽出された特徴データから、前記処理対象帳票に係る特徴データに一致または類似する特徴データを特定し、該処理対象帳票の帳票種別を推定する、
請求項1から6の何れか一項に記載の情報処理装置。
The feature data includes a feature amount calculated from the image data,
The estimation unit performs a nearest neighbor search using the feature amount acquired from the image data with respect to the feature amount included in the feature data extracted by the extraction unit, thereby obtaining the feature amount from the extracted feature data. , Identifying feature data that matches or resembles the feature data related to the processing target form, and estimates the form type of the processing target form.
The information processing apparatus according to any one of claims 1 to 6.
帳票の外観上の特徴に係る特徴データを、帳票種別毎に蓄積する特徴データ蓄積手段に接続されるコンピュータが、
処理対象帳票の画像データを取得する画像データ取得ステップと、
前記画像データから、前記処理対象帳票に係る特徴データを取得する特徴データ取得ステップと、
前記特徴データ蓄積手段に蓄積されている特徴データから、前記処理対象帳票に係る特徴データに一致または類似する特徴データを特定することで、該処理対象帳票の帳票種別を推定する推定ステップと、
前記推定ステップにおいて前記処理対象帳票の帳票種別が推定されなかった場合に、該処理対象帳票に係る特徴データを前記特徴データ蓄積手段に追加する特徴データ追加ステップと、
を実行する帳票種別推定方法。
A computer connected to the feature data storage means for storing the feature data relating to the appearance features of the form for each form type,
An image data acquisition step for acquiring image data of a processing target form;
A feature data acquisition step of acquiring feature data related to the processing target form from the image data;
An estimation step for estimating a form type of the processing target form by specifying feature data that matches or is similar to the characteristic data related to the processing target form from the feature data stored in the feature data storage unit;
A feature data adding step of adding feature data relating to the processing target form to the feature data storage means when the form type of the processing target form is not estimated in the estimating step;
Form type estimation method that executes.
帳票の外観上の特徴に係る特徴データを、帳票種別毎に蓄積する特徴データ蓄積手段に接続されるコンピュータに、
処理対象帳票の画像データを取得する画像データ取得ステップと、
前記画像データから、前記処理対象帳票に係る特徴データを取得する特徴データ取得ステップと、
前記特徴データ蓄積手段に蓄積されている特徴データから、前記処理対象帳票に係る特徴データに一致または類似する特徴データを特定することで、該処理対象帳票の帳票種別を推定する推定ステップと、
前記推定ステップにおいて前記処理対象帳票の帳票種別が推定されなかった場合に、該処理対象帳票に係る特徴データを前記特徴データ蓄積手段に追加する特徴データ追加ステップと、
を実行させるための帳票種別推定用プログラム。
To the computer connected to the feature data storage means for storing the feature data relating to the appearance features of the form for each form type,
An image data acquisition step for acquiring image data of a processing target form;
A feature data acquisition step of acquiring feature data related to the processing target form from the image data;
An estimation step for estimating a form type of the processing target form by specifying feature data that matches or is similar to the characteristic data related to the processing target form from the feature data stored in the feature data storage unit;
A feature data adding step of adding feature data relating to the processing target form to the feature data storage means when the form type of the processing target form is not estimated in the estimating step;
Form type estimation program to execute.
JP2011061567A 2011-03-18 2011-03-18 Information processing apparatus, form type estimation method, and form type estimation program Active JP5670787B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011061567A JP5670787B2 (en) 2011-03-18 2011-03-18 Information processing apparatus, form type estimation method, and form type estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011061567A JP5670787B2 (en) 2011-03-18 2011-03-18 Information processing apparatus, form type estimation method, and form type estimation program

Publications (2)

Publication Number Publication Date
JP2012198684A true JP2012198684A (en) 2012-10-18
JP5670787B2 JP5670787B2 (en) 2015-02-18

Family

ID=47180851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011061567A Active JP5670787B2 (en) 2011-03-18 2011-03-18 Information processing apparatus, form type estimation method, and form type estimation program

Country Status (1)

Country Link
JP (1) JP5670787B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014170452A (en) * 2013-03-05 2014-09-18 Fuji Xerox Co Ltd Image processing device and program
JP2019101647A (en) * 2017-11-30 2019-06-24 キヤノンマーケティングジャパン株式会社 Information processing device, control method therefor, and program
JP2019169025A (en) * 2018-03-26 2019-10-03 株式会社Pfu Information processing device, character recognition engine selection method, and program
JP2019185142A (en) * 2018-04-02 2019-10-24 日本電気株式会社 Image processing device, image processing method, and program
JP2021068378A (en) * 2019-10-28 2021-04-30 Tis株式会社 Business form processing program, business form processing apparatus, and business form processing method
US11438477B2 (en) 2020-01-16 2022-09-06 Fujifilm Business Innovation Corp. Information processing device, information processing system and computer readable medium
JP7420578B2 (en) 2020-02-06 2024-01-23 株式会社Nttデータ Form sorting system, form sorting method, and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020160947A (en) 2019-03-27 2020-10-01 キヤノン株式会社 Print system, print setting estimation method, and program
JP2020170968A (en) 2019-04-04 2020-10-15 キヤノン株式会社 Management system, information processing device, data destination estimation method, data transmission method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08335247A (en) * 1995-06-08 1996-12-17 Oki Electric Ind Co Ltd Method and device for generating format information
JP2000285190A (en) * 1999-03-31 2000-10-13 Toshiba Corp Method and device for identifying slip and storage medium
JP2001325563A (en) * 2000-03-10 2001-11-22 Fujitsu Ltd Device and method for image collation and image collation program
JP2007115280A (en) * 2007-01-19 2007-05-10 Fujitsu Ltd Slip-identifying apparatus and its identifying method
JP2007193678A (en) * 2006-01-20 2007-08-02 Fujitsu Ltd Medium distinction information database production device and medium distinction information database management device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08335247A (en) * 1995-06-08 1996-12-17 Oki Electric Ind Co Ltd Method and device for generating format information
JP2000285190A (en) * 1999-03-31 2000-10-13 Toshiba Corp Method and device for identifying slip and storage medium
JP2001325563A (en) * 2000-03-10 2001-11-22 Fujitsu Ltd Device and method for image collation and image collation program
JP2007193678A (en) * 2006-01-20 2007-08-02 Fujitsu Ltd Medium distinction information database production device and medium distinction information database management device
JP2007115280A (en) * 2007-01-19 2007-05-10 Fujitsu Ltd Slip-identifying apparatus and its identifying method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014170452A (en) * 2013-03-05 2014-09-18 Fuji Xerox Co Ltd Image processing device and program
JP2019101647A (en) * 2017-11-30 2019-06-24 キヤノンマーケティングジャパン株式会社 Information processing device, control method therefor, and program
JP7181445B2 (en) 2017-11-30 2022-12-01 キヤノンマーケティングジャパン株式会社 Information processing device, its control method and program
JP2019169025A (en) * 2018-03-26 2019-10-03 株式会社Pfu Information processing device, character recognition engine selection method, and program
JP2019185142A (en) * 2018-04-02 2019-10-24 日本電気株式会社 Image processing device, image processing method, and program
JP7160432B2 (en) 2018-04-02 2022-10-25 日本電気株式会社 Image processing device, image processing method, program
JP2021068378A (en) * 2019-10-28 2021-04-30 Tis株式会社 Business form processing program, business form processing apparatus, and business form processing method
US11438477B2 (en) 2020-01-16 2022-09-06 Fujifilm Business Innovation Corp. Information processing device, information processing system and computer readable medium
JP7420578B2 (en) 2020-02-06 2024-01-23 株式会社Nttデータ Form sorting system, form sorting method, and program

Also Published As

Publication number Publication date
JP5670787B2 (en) 2015-02-18

Similar Documents

Publication Publication Date Title
JP5670787B2 (en) Information processing apparatus, form type estimation method, and form type estimation program
JP6629678B2 (en) Machine learning device
US20120136812A1 (en) Method and system for machine-learning based optimization and customization of document similarities calculation
US20120330662A1 (en) Input supporting system, method and program
CN103136228A (en) Image search method and image search device
US20190266619A1 (en) Behavior pattern search system and behavior pattern search method
US20190294912A1 (en) Image processing device, image processing method, and image processing program
CN111177507B (en) Method and device for processing multi-mark service
JP2011198364A (en) Method of adding label to medium document and system using the same
US11803872B2 (en) Creating meta-descriptors of marketing messages to facilitate in delivery performance analysis, delivery performance prediction and offer selection
CN108734159B (en) Method and system for detecting sensitive information in image
US9710769B2 (en) Methods and systems for crowdsourcing a task
CN112541077B (en) Processing method and system for power grid user service evaluation
US9471676B1 (en) System and method for suggesting keywords based on image contents
JP6377917B2 (en) Image search apparatus and image search program
JP5423380B2 (en) Information processing program and information processing method
CN116484109B (en) Customer portrait analysis system and method based on artificial intelligence
KR102163125B1 (en) Marketing method using image contest based hash-tag
KR102028356B1 (en) Advertisement recommendation apparatus and method based on comments
US20120226550A1 (en) Method, server, and computer-readable recording medium for providing advertisement using collection information
CN110580297A (en) Merchant and dish matching method and device based on dish image and electronic equipment
WO2021059848A1 (en) Information processing device, information processing method, and information processing program
JP7272037B2 (en) Information processing device and program
KR102393517B1 (en) Method of providing a fulfillment service and service system therefor
KR102078541B1 (en) Issue interest based news value evaluation apparatus and method, storage media storing the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141218

R150 Certificate of patent or registration of utility model

Ref document number: 5670787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150