JP2019079347A - Character estimation system, character estimation method, and character estimation program - Google Patents

Character estimation system, character estimation method, and character estimation program Download PDF

Info

Publication number
JP2019079347A
JP2019079347A JP2017206520A JP2017206520A JP2019079347A JP 2019079347 A JP2019079347 A JP 2019079347A JP 2017206520 A JP2017206520 A JP 2017206520A JP 2017206520 A JP2017206520 A JP 2017206520A JP 2019079347 A JP2019079347 A JP 2019079347A
Authority
JP
Japan
Prior art keywords
text
character type
data
document image
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017206520A
Other languages
Japanese (ja)
Other versions
JP6795195B2 (en
Inventor
福光 齊藤
Fukumitsu Saito
福光 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Net Smile Inc
Original Assignee
Net Smile Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Net Smile Inc filed Critical Net Smile Inc
Priority to JP2017206520A priority Critical patent/JP6795195B2/en
Publication of JP2019079347A publication Critical patent/JP2019079347A/en
Application granted granted Critical
Publication of JP6795195B2 publication Critical patent/JP6795195B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

To enable accurate extraction of text information in various documents.SOLUTION: A document image acquisition unit 21 acquires a document image. A character type estimation unit 22 determines position/size information of one or more text regions in the document image and a character type of a text in each of the one or more text regions. A text identification unit 23 executes character recognition processing for the estimated character type for the estimated text region to specify the text in the estimated text region as text data. The character type estimation unit 22 includes a machine-trained deep neural network, and input data to the deep neural network is the above-mentioned document image, and output data of the deep neural network is the above-mentioned position/size information and character type for each of the above-mentioned one or more text regions.SELECTED DRAWING: Figure 1

Description

本発明は、文字種推定システム、文字種推定方法、および文字種推定プログラムに関するものである。   The present invention relates to a character type estimation system, a character type estimation method, and a character type estimation program.

ある帳票識別システムでは、帳票フォーマットテーブルが予めユーザにより作成されており、帳票フォーマットテーブルには、ユーザにより指定された文字認識対象領域の位置、サイズ、文字種などを示すフィールド情報が含まれている。そして、この帳票フォーマット(つまり、フィールド情報)に基づいて、帳票画像の画像データから、帳票内の文字情報(テキストデータ)が取得されている。   In a form identification system, a form format table is created in advance by the user, and the form format table includes field information indicating the position, size, character type, and the like of the character recognition target area designated by the user. Then, based on the form format (ie, field information), character information (text data) in the form is acquired from the image data of the form image.

特開2016−48444号公報JP, 2016-48444, A

しかしながら、上述のシステムでは、帳票などの書類のレイアウト(フォーマット)に対応した帳票フォーマットテーブルを予め作成しておかなければならず、フォーマットの互いに異なる複数の書類に対して、その書類の数と同数の帳票フォーマットテーブルを作成する必要があり、様々な書類内の文字情報の抽出を行うことは、帳票フォーマットテーブルの作成の手間を考えると実際上困難である。   However, in the above-described system, a form format table corresponding to the layout (format) of a document such as a form must be prepared in advance, and for a plurality of documents having different formats, the same number as the number of the documents It is necessary to create a form format table, and extracting character information in various documents is practically difficult in view of the time and effort of creating the form format table.

本発明は、上記の問題に鑑みなされたものであり、様々な書類内の文字情報の抽出を正確に行える文字種推定システム、文字種推定方法および文字種推定プログラムを得ることを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to obtain a character type estimation system, a character type estimation method, and a character type estimation program that can accurately extract character information in various documents.

本発明に係る文字種推定システムは、書類画像を取得する書類画像取得部と、その書類画像内の1または複数のテキスト領域の位置・サイズ情報、およびその1または複数のテキスト領域のそれぞれについてテキスト領域内のテキストの文字種を推定する文字種推定部と、推定されたテキスト領域について推定された文字種用の文字認識処理を実行して、推定されたテキスト領域内のテキストをテキストデータとして特定するテキスト特定部とを備える。そして、文字種推定部は、機械学習済みのディープニューラルネットワークを備え、そのディープニューラルネットワークの入力データは、上述の書類画像であり、そのディープニューラルネットワークの出力データは、上述の1または複数のテキスト領域のそれぞれについての上述の位置・サイズ情報および文字種である。   A character type estimation system according to the present invention includes a document image acquisition unit for acquiring a document image, position / size information of one or more text regions in the document image, and a text region for each of the one or more text regions. A character type estimation unit for estimating the character type of the text in the text, and a text identification unit for identifying text in the estimated text area as text data by executing character recognition processing for the estimated character type for the estimated text area And The character type estimation unit is provided with a machine-trained deep neural network, and the input data of the deep neural network is the document image described above, and the output data of the deep neural network is one or more text regions described above The above-mentioned position / size information and character type for each of.

本発明に係る文字種推定方法は、書類画像を取得する書類画像取得ステップと、上述の機械学習済みのディープニューラルネットワークで、その書類画像内の1または複数のテキスト領域の位置・サイズ情報、およびその1または複数のテキスト領域のそれぞれについてテキスト領域内のテキストの文字種を推定する文字種推定ステップと、推定されたテキスト領域について推定された文字種用の文字認識処理を実行して、推定されたテキスト領域内のテキストをテキストデータとして特定するテキスト特定ステップとを備える。   A character type estimation method according to the present invention is a document image acquisition step of acquiring a document image, and the above-described machine-learned deep neural network, position / size information of one or more text regions in the document image, and The character type estimation step of estimating the character type of the text in the text region for each of the one or more text regions, and the character recognition process for the character type estimated for the estimated text region are performed, and within the estimated text region And a text identifying step of identifying the text of the text as text data.

本発明に係る文字種推定プログラムは、コンピュータを、上述の書類画像取得部、上述の文字種推定部、および上述のテキスト特定部として機能させる。   A character type estimation program according to the present invention causes a computer to function as the document image acquisition unit described above, the character type estimation unit described above, and the text specification unit described above.

本発明によれば、様々な書類内の文字情報の抽出を正確に行えるようにする文字種推定システム、文字種推定方法および文字種推定プログラムが得られる。   According to the present invention, it is possible to obtain a character type estimation system, a character type estimation method, and a character type estimation program that enable accurate extraction of character information in various documents.

本発明の上記又は他の目的、特徴および優位性は、添付の図面とともに以下の詳細な説明から更に明らかになる。   The above or other objects, features and advantages of the present invention will become more apparent from the following detailed description in conjunction with the accompanying drawings.

図1は、本発明の実施の形態に係る文字種推定システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a character type estimation system according to an embodiment of the present invention. 図2は、書類画像の一例を示す図である。FIG. 2 is a diagram showing an example of a document image. 図3は、図2に示す書類画像に対して推定されるテキスト領域を説明する図である。FIG. 3 is a diagram for explaining a text area estimated for the document image shown in FIG. 図4は、図1に示す文字種推定システムの動作を説明するフローチャートである。FIG. 4 is a flow chart for explaining the operation of the character type estimation system shown in FIG.

以下、図に基づいて本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described based on the drawings.

図1は、本発明の実施の形態に係る文字種推定システムの構成を示すブロック図である。図1に示す文字種推定システムは、1台の情報処理装置で構成されているが、後述の処理部を、互いにデータ通信可能な複数の情報処理装置に分散させてもよい。また、そのような複数の情報処理装置には、特定の演算を並列処理するGPU(Graphics Processing Unit)が含まれていてもよい。   FIG. 1 is a block diagram showing the configuration of a character type estimation system according to an embodiment of the present invention. The character type estimation system shown in FIG. 1 is configured by one information processing apparatus, but the processing units described later may be distributed to a plurality of information processing apparatuses capable of data communication with each other. In addition, such a plurality of information processing apparatuses may include a GPU (Graphics Processing Unit) that performs specific processing in parallel.

図1に示す文字種推定システムは、記憶装置1、通信装置2、画像読取装置3、および演算処理装置4を備える。   The character type estimation system shown in FIG. 1 includes a storage device 1, a communication device 2, an image reading device 3, and an arithmetic processing device 4.

記憶装置1は、フラッシュメモリー、ハードディスクなどの不揮発性の記憶装置であって、各種データやプログラムを格納する。   The storage device 1 is a non-volatile storage device such as a flash memory or a hard disk, and stores various data and programs.

ここでは、記憶装置1には、文字種推定プログラム11が格納されており、また、設定データ(後述のディープニューラルネットワークの係数設定値など)が必要に応じて格納される。なお、文字種推定プログラム11は、CD(Compact Disk)などの可搬性のあるコンピュータ読み取り可能な記録媒体に格納されていてもよい。その場合、例えば、その記録媒体から記憶装置1へプログラム11がインストールされる。また、プログラム11は、1つのプログラムでも、複数のプログラムの集合体でもよい。   Here, the character type estimation program 11 is stored in the storage device 1, and setting data (such as a coefficient setting value of a deep neural network described later) is stored as necessary. The character type estimation program 11 may be stored in a portable computer readable recording medium such as a CD (Compact Disk). In that case, for example, the program 11 is installed from the recording medium to the storage device 1. Also, the program 11 may be a single program or a collection of a plurality of programs.

通信装置2は、ネットワークインターフェイス、周辺機器インターフェイス、モデムなどのデータ通信可能な装置であって、必要に応じて、他の装置とデータ通信を行う。画像読取装置3は、書類から書類画像を光学的に読み取り、書類画像の画像データ(ラスタイメージデータなど)を生成する。   The communication device 2 is a device capable of data communication such as a network interface, a peripheral device interface, and a modem, and performs data communication with other devices as needed. The image reader 3 optically reads a document image from the document and generates image data (such as raster image data) of the document image.

演算処理装置4は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを備えるコンピュータであって、プログラムを、ROM、記憶装置1などからRAMにロードしCPUで実行することで、各種処理部として動作する。   The arithmetic processing unit 4 is a computer provided with a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), etc., and loads a program from the ROM, the storage device 1 or the like to the RAM, and By being executed, it operates as various processing units.

ここでは、プログラム11を実行することで、演算処理装置4は、書類画像取得部21、文字種推定部22、テキスト特定部23、データファイル生成部24、検証部25、および機械学習処理部26として動作する。   Here, by executing the program 11, the arithmetic processing unit 4 functions as the document image acquisition unit 21, the character type estimation unit 22, the text specification unit 23, the data file generation unit 24, the verification unit 25, and the machine learning processing unit 26. Operate.

書類画像取得部21は、画像データとして書類画像を取得する。書類画像は、領収書(レシートを含む)、請求書、納品書などの帳票類や、その他、企業などの組織において定型な書類などの画像(ラスタイメージ)である。例えば、書類画像取得部21は、記憶装置1に格納されている画像データとしての書類画像を読み出したり、通信装置2により受信された画像データとしての書類画像を取得したり、画像読取装置3により生成された画像データとしての書類画像を取得したりする。   The document image acquisition unit 21 acquires a document image as image data. The document image is an image (raster image) such as a document (including a receipt), a bill, a document such as a delivery note, and other fixed documents in an organization such as a company. For example, the document image acquisition unit 21 reads a document image as image data stored in the storage device 1, acquires a document image as image data received by the communication device 2, or the image reading device 3 The document image as the generated image data is acquired.

文字種推定部22は、書類画像内の1または複数のテキスト領域(矩形領域)の位置・サイズ情報、およびその1または複数のテキスト領域のそれぞれについて各テキスト領域内のテキストの文字種を推定する。具体的には、文字種推定部22は、機械学習済みのディープニューラルネットワークを備え、そのディープニューラルネットワークで、各テキスト領域の位置・サイズ情報およびそのテキスト領域内のテキストの文字種を推定する。このディープニューラルネットワークの入力データは、書類画像(つまり、書類画像の画素値)であり、このディープニューラルネットワークの出力データは、上述の1または複数のテキスト領域のそれぞれについての位置・サイズ情報および文字種である。   The character type estimation unit 22 estimates the character type of the text in each text region for each of position / size information of one or more text regions (rectangular regions) in the document image and the one or more text regions. Specifically, the character type estimation unit 22 is provided with a machine-learned deep neural network, and uses the deep neural network to estimate the position / size information of each text region and the character type of the text in the text region. The input data of this deep neural network is a document image (that is, the pixel values of the document image), and the output data of this deep neural network is the position / size information and character type for each of the one or more text regions described above. It is.

推定される文字種は、ディープニューラルネットワークの機械学習時に使用される訓練データ(入力値と出力値との対)のうちの出力値として使用された文字種のいずれかとなる。   The character type to be estimated is any of the character types used as an output value of training data (a pair of input value and output value) used at the time of machine learning of the deep neural network.

例えば、その文字種は、テキスト自体の特徴(内的属性)を示す、(a)言語種別(日本語、英語など)、(b)表記体系(ひらがな、カタカナ、漢字など)、(c)数字か否か、(d)手書き文字か活字文字か、(e)それらの組み合わせといった分類を含む。   For example, the character type indicates the feature (internal attribute) of the text itself (a) language type (Japanese, English, etc.), (b) writing system (hiragana, katakana, kanji, etc.), (c) number? It includes classifications such as (d) handwritten or printed characters, and (e) their combination.

また、その文字種は、上述のテキスト自体の特徴の代わりに、あるいは、上述のテキスト自体の特徴に追加して、テキストの外的属性(つまり、テキストに対して付加される属性)を示すものでもよく、例えば、(f)金額(¥などの通貨マークが付加された数字)、(g)表の見出し(ヘッダー文字など)、(h)電子メール(英語テキストと@マークとドメイン表記テキストの結合)(i)URL(Uniform Resource Locator)、(j)電話番号、(k)住所、(l)日付、(m)印影(円や矩形などの外枠とその外枠の中のテキスト)などの分類を含むようにしてもよい。   Also, the character type may indicate an external attribute of the text (that is, an attribute to be added to the text) in place of or in addition to the feature of the above-mentioned text itself. Well, for example, (f) monetary amount (number with a currency mark such as \), (g) table heading (such as header character), (h) email (combination of English text and @ mark with domain description text ) (I) URL (Uniform Resource Locator), (j) phone number, (k) address, (l) date, (m) seal impression (outer frame such as circle or rectangle and the text in the outer frame) Classification may be included.

さらに、その文字種は、特殊文字種として、テキストを含まない図形の分類(例えば、(a)バーコード、(b)2次元コード、(c)ロゴマーク、(d1)チェックされているチェックボックス、(d2)チェックされていないチェックボックスなど)を含んでもよい。   Furthermore, as the special character type, the character type is a classification of figures that do not contain text (for example, (a) barcode, (b) two-dimensional code, (c) logo mark, (d1) checked check box, ( d2) may include unchecked checkboxes and the like).

なお、ここで、ディープニューラルネットワークは、例えば、隠れ層が2つ以上の制限付きボルツマンマシンである。つまり、ディープラーニングで機械学習されたニューラルネットワークである。また、このディープニューラルネットワークの構成および機械学習については、既知のものが使用できる。例えば、このディープニューラルネットワークには、CNN(Convolutional Neural Network)、RNN(Recurrent Neural Network)、RNN(Recursive Neural Network)などを使用してもよい。さらに、そのようなディープニューラルネットワークに、必要に応じて、LSTM(Long Short-Term Memory)法、CTC(Connectionist Temporal Classification)法などを適用してもよい。   Here, the deep neural network is, for example, a Boltzmann machine with a limited number of hidden layers or more. That is, it is a neural network machine-learning by deep learning. In addition, as the configuration and machine learning of this deep neural network, known ones can be used. For example, CNN (Convolutional Neural Network), RNN (Recurrent Neural Network), RNN (Recursive Neural Network) or the like may be used for this deep neural network. Furthermore, a Long Short-Term Memory (LSTM) method, a Connectionist Temporal Classification (CTC) method, etc. may be applied to such a deep neural network, as necessary.

また、このディープニューラルネットワークの機械学習には、様々な書類の書類画像について、その書類画像のラスタイメージデータ(つまりビットマップ画像データ)(入力データ)とその書類画像についての1または複数のテキスト領域の位置・サイズ情報および文字種(出力データ)との対がトレーニングデータとして使用される。   Also, for machine learning of this deep neural network, raster image data (that is, bit map image data) (input data) of document images of document images of various documents and one or more text areas of the document image The position / size information of and the pair with the character type (output data) are used as training data.

図2は、書類画像の一例を示す図である。図3は、図2に示す書類画像に対して推定されるテキスト領域を説明する図である。   FIG. 2 is a diagram showing an example of a document image. FIG. 3 is a diagram for explaining a text area estimated for the document image shown in FIG.

図2に示す書類画像101は、納品書の画像である。この書類画像101がディープニューラルネットワークに入力されると、図3における破線矩形で示すように、ディープニューラルネットワークから、テキスト領域の位置・サイズ情報、およびそのテキスト領域の文字種が出力される。なお、テキスト領域の位置・サイズ情報は、例えば、矩形のテキスト領域の対角線上の2点の座標値でもよいし、矩形のテキスト領域の中心点、特定頂点などの代表位置の座標並びにその矩形の縦の長さおよび横の長さでもよい。   A document image 101 shown in FIG. 2 is an image of a delivery note. When the document image 101 is input to the deep neural network, the position / size information of the text area and the character type of the text area are output from the deep neural network as shown by the dashed line rectangle in FIG. The position / size information of the text area may be, for example, coordinate values of two points on a diagonal of the rectangular text area, or coordinates of representative points such as a center point of a rectangular text area, a specific vertex, etc. It may be vertical or horizontal.

例えば図3に示す書類画像101におけるテキスト領域111として、その位置・サイズ情報とともに、文字種「カタカナ」(つまり、日本語の活字体のカタカナ)が推定され、テキスト領域112として、その位置・サイズ情報とともに、文字種「英字」(つまり、英語の活字体のアルファベット)が推定され、テキスト領域113として、その位置・サイズ情報とともに、文字種「数字」(つまり、活字体の数字)が推定され、テキスト領域114として、その位置・サイズ情報とともに、文字種「手書きの漢字」(つまり、日本語の手書きの漢字)が推定される。   For example, as the text area 111 in the document image 101 shown in FIG. 3, the character type “Katakana” (that is, katakana in Japanese print) is estimated together with the position / size information thereof, and the position / size information as the text area 112. In addition, the character type "alphabet" (that is, the alphabet of the print character in English) is estimated, and the character type "number" (that is, the number of the print character) is estimated together with the position / size information as the text area 113. As 114, the character type "handwritten kanji" (that is, Japanese handwritten kanji) is estimated along with the position / size information.

テキスト特定部23は、推定された位置・サイズ情報に基づいてテキスト領域の部分画像を書類画像から抽出し、推定されたテキスト領域(つまり、抽出した部分画像)について推定された文字種用の文字認識処理を実行して、推定されたテキスト領域内のテキストをテキストデータ(つまり、文字コード)として特定する。   The text specifying unit 23 extracts a partial image of the text area from the document image based on the estimated position / size information, and recognizes the character type for the character type estimated for the estimated text area (that is, the extracted partial image) Processing is performed to identify the text in the estimated text area as text data (ie, character code).

例えば図3に示す書類画像101では、上述のようにテキスト領域111〜114の文字種が推定され、各テキスト領域111〜114のテキストデータを得るために、テキスト特定部23は、テキスト領域111の画像(部分画像)については、活字体のカタカナ用の文字認識処理を実行し、テキスト領域112の画像(部分画像)については、活字体の英字アルファベット用の文字認識処理を実行し、テキスト領域113の画像(部分画像)については、活字体の数字用の文字認識処理を実行し、テキスト領域114の画像(部分画像)については、日本語の手書き漢字用の文字認識処理を実行する。   For example, in the document image 101 shown in FIG. 3, the character types of the text areas 111 to 114 are estimated as described above, and the text specifying unit 23 generates the text data of the text areas 111 to 114. For (partial image), character recognition processing for katakana in print is executed, and for the image (partial image) in text region 112, character recognition processing for alphabets in print is executed. Character recognition processing for printed numbers is performed for images (partial images), and character recognition processing for handwritten Japanese characters for images (partial images) in the text area 114 is performed.

なお、特定の文字種用の文字認識処理でも、その他の文字種の文字認識が可能とされている。ただし、その特定の文字種に比べ、文字認識率が低くなったり認識誤り率が高くなったりする可能性がある。   Note that character recognition processing of other character types is also possible even in character recognition processing for a specific character type. However, the character recognition rate may be lower or the recognition error rate may be higher than the particular character type.

なお、文字種が上述のテキストを含まない特殊文字種である場合、テキスト特定部23は、そのテキスト領域の画像に対して、その特殊文字種に対応した処理を実行するようにしてもよい。例えば、文字種がバーコードや2次元コードである場合には、テキスト特定部23は、そのバーコードや2次元コードをデコードして、そのバーコードや2次元コードをテキストデータやバイナリデータに変換するようにしてもよい。また、例えば、文字種がロゴマークである場合には、テキスト特定部23は、書類画像から、テキスト領域の画像を切り出して、ロゴ画像として出力するようにしてもよい。また、例えば、文字種が、チェックされているチェックボックスかチェックされていないチェックボックスである場合には、テキスト特定部23は、そのテキスト領域のテキストとして、チェックされているチェックボックスまたはチェックされていないチェックボックスに対応する固有のコード(テキストデータまたはバイナリデータ)を出力するようにしてもよい。   When the character type is a special character type not including the above-described text, the text specification unit 23 may execute processing corresponding to the special character type on the image of the text region. For example, if the character type is a bar code or a two-dimensional code, the text identification unit 23 decodes the bar code or the two-dimensional code and converts the bar code or the two-dimensional code into text data or binary data You may do so. Also, for example, when the character type is a logo mark, the text specification unit 23 may cut out the image of the text area from the document image and output it as a logo image. Also, for example, if the character type is a checked check box or an unchecked check box, the text identifying unit 23 may check the checked check box or the unchecked text as the text of the text area. A unique code (text data or binary data) corresponding to the check box may be output.

データファイル生成部24は、上述の複数のテキスト領域のテキストデータを含むデータファイルを生成する。このデータファイルは、例えばCSV(Comma-Separated Values)データファイルなどの所定のフォーマットのデータファイルである。   The data file generation unit 24 generates a data file including text data of the plurality of text areas described above. This data file is, for example, a data file of a predetermined format such as a CSV (Comma-Separated Values) data file.

例えば、上述のテキストデータは、このデータファイルにおいて、上述の複数のテキスト領域の位置に対応する順序で配列される。この場合、例えば、書類画像における横方向または縦方向における複数のテキスト領域の位置に基づいて、この順序が特定される。あるいは、この場合、データファイル生成部24は、書類画像におけるテキストオブジェクトを自動的に検出するとともに、ユーザ操作に基づいてそのテキストオブジェクトの属性を特定し、そのテキストオブジェクトの位置にその属性を関連付けてテンプレートデータを生成し、テンプレートデータに基づいて、上述のテキスト領域の位置に対応する属性(例えば、テキスト領域の位置に最も近いテキストオブジェクトの位置に関連付けられている属性)を特定し、その属性に対応する順序でテキストデータをデータファイルにおいて配列する。   For example, the text data described above is arranged in the data file in the order corresponding to the positions of the plurality of text areas described above. In this case, this order is specified based on, for example, the positions of a plurality of text areas in the horizontal or vertical direction in the document image. Alternatively, in this case, the data file generation unit 24 automatically detects the text object in the document image, identifies the attribute of the text object based on the user operation, and associates the attribute with the position of the text object. Template data is generated, and an attribute corresponding to the position of the text area described above (for example, an attribute associated with the position of the text object closest to the position of the text area) is specified based on the template data, Arrange the text data in the data file in a corresponding order.

また、例えば、上述のテキストデータは、このデータファイルにおいて、推定された文字種に対応する順序で配列される。この場合、例えば、文字種として上述のような外的属性(日付など)を示すものを使用し、推定された文字種が示す属性に対応する順序でテキストデータが配列される。   Also, for example, the text data described above is arranged in the data file in the order corresponding to the estimated character type. In this case, for example, text data is arranged in an order corresponding to the attribute indicated by the estimated character type, using a character type indicating an external attribute (such as date) as described above.

検証部25は、上述の1または複数のテキスト領域のうちの(上述の属性、位置などで指定される)特定のテキスト領域のテキストの有無または特定のテキスト領域のテキストの整合性を検証するようにしてもよい。例えば、上述の特定のテキスト領域が印鑑の押印用の領域である場合、検証部25は、テキスト特定部23によりテキストが特定されたか否かに基づいて、押印の有無を判定し、その判定結果をユーザに報知するようにしてもよいし、その特定のテキスト領域に画像オブジェクトがない場合には、押印がないと判定してもよい。また、例えば、上述の特定のテキスト領域が日付の領域である場合、検証部25は、テキスト特定部23により特定されたテキストが日付の記述フォーマットに適合しているか否かに基づいて整合性を判定し、その判定結果をユーザに報知するようにしてもよい。   The verification unit 25 verifies the presence or absence of the text of the specific text area (specified by the above-mentioned attribute, position, etc.) of the above-mentioned one or more text areas or the integrity of the text of the specific text area. You may For example, when the above-mentioned specific text area is an area for sealing a seal stamp, the verification unit 25 determines the presence or absence of a seal based on whether the text is specified by the text specification unit 23 and the determination result May be notified to the user, or if there is no image object in the specific text area, it may be determined that there is no seal. Also, for example, in the case where the above-mentioned specific text area is an area of a date, the verification unit 25 determines consistency based on whether the text specified by the text specifying unit 23 conforms to the date description format. The determination may be made and the determination result may be notified to the user.

機械学習処理部26は、トレーニングデータを生成するアノテーション処理、およびアノテーション処理により生成されたトレーニングデータで文字種推定部22のディープニューラルネットワークを機械学習する機械学習処理を実行する。   The machine learning processing unit 26 executes annotation processing for generating training data, and machine learning processing for machine learning the deep neural network of the character type estimation unit 22 with the training data generated by the annotation processing.

なお、例えば、アノテーション処理では、(a)サンプルの書類画像内のテキストオブジェクトが自動的に検出され、(b)各テキストオブジェクトについて、そのテキストオブジェクトのみを囲む矩形領域がテキスト領域とされ、(c)ユーザ操作により、そのテキスト領域内の文字種が付与され、(d)その書類画像(入力データ)と、その書類画像内のテキスト領域の位置・サイズ情報および文字種(出力データ)との対が1つのトレーニングデータとされる。   For example, in the annotation processing, (a) a text object in a sample document image is automatically detected, and (b) a rectangular area surrounding only the text object for each text object is regarded as a text area (c The user operation assigns a character type in the text area, and (d) the pair of the document image (input data) and the position / size information of the text area in the document image and the character type (output data) is 1 Training data.

また、アノテーション処理には、文字種推定部22により推定されたあるテキスト領域の文字種が誤っており、ユーザにより訂正された場合における正当な文字種およびそのテキスト領域の位置・サイズ情報(並びにその書類画像内のその他のテキスト領域の位置・サイズ情報および文字種)が出力データとされ、そのときの書類画像が入力データとされてトレーニングデータを生成する処理も含まれ、そのようにして生成されたトレーニングデータに基づいて、機械学習処理部26は、文字種推定部22のディープニューラルネットワークに対する追加の機械学習を行うようにしてもよい。   In addition, in the annotation processing, the character type of a certain text region estimated by the character type estimation unit 22 is incorrect, and the correct character type and the position / size information of the text region (and its document image) when corrected by the user Position and size information of other text areas and character types) is taken as output data, and the document image at that time is taken as input data to include the process of generating training data, and the training data generated as such is included. Based on the above, the machine learning processing unit 26 may perform additional machine learning for the deep neural network of the character type estimating unit 22.

なお、上述のデータファイル生成部24、検証部25、機械学習処理部26は、必須のものではなく、必要に応じて設ければよい。   The data file generation unit 24, the verification unit 25, and the machine learning processing unit 26 described above are not essential, and may be provided as needed.

次に、上記文字種推定システムの動作について説明する。図4は、図1に示す文字種推定システムの動作を説明するフローチャートである。   Next, the operation of the character type estimation system will be described. FIG. 4 is a flow chart for explaining the operation of the character type estimation system shown in FIG.

まず、書類画像取得部21は、書類画像を取得する(ステップS1)。   First, the document image acquisition unit 21 acquires a document image (step S1).

次に、文字種推定部22は、取得された書類画像内の各テキスト領域の位置・サイズ情報、および各テキスト領域内のテキストの文字種を推定する(ステップS2)。このとき、文字種推定部22は、機械学習済みのディープニューラルネットワークを使用して、取得された書類画像(ラスタイメージ)を入力データとしてディープニューラルネットワークに入力し、ディープニューラルネットワークの出力データとして、各テキスト領域の位置・サイズ情報および文字種を取得する。   Next, the character type estimation unit 22 estimates the position and size information of each text area in the acquired document image, and the character type of the text in each text area (step S2). At this time, the character type estimation unit 22 inputs the acquired document image (raster image) as input data to the deep neural network using the machine-learned deep neural network, and outputs each as the output data of the deep neural network. Get position / size information and text type of text area.

そして、テキスト特定部23は、推定されたテキスト領域について推定された文字種用の文字認識処理を実行して、推定されたテキスト領域内のテキストをテキストデータとして特定する(ステップS3)。このとき、推定された文字種用の文字認識処理が適用されることで、文字認識率が向上するとともに、認識誤り率が低下する。   Then, the text specifying unit 23 executes character recognition processing for the character type estimated for the estimated text area, and specifies the text in the estimated text area as text data (step S3). At this time, by applying the character recognition process for the estimated character type, the character recognition rate is improved and the recognition error rate is decreased.

各テキスト領域について文字認識処理が実行された後、必要に応じて、検証部25は、特定のテキスト領域についての検証を上述のように行う(ステップS4)。   After the character recognition process is performed on each text area, the verification unit 25 verifies the specific text area as described above, as necessary (step S4).

そして、データファイル生成部24は、各テキスト領域について特定されたテキストデータを含むデータファイルを例えばCSVフォーマットなどで生成する(ステップS5)。例えば、このようにして生成されたデータファイルを使用して、書類画像内の文字情報がテキストデータとしてデータベースに登録される。   Then, the data file generation unit 24 generates a data file including the text data specified for each text area, for example, in the CSV format (step S5). For example, using the data file generated in this manner, character information in the document image is registered in the database as text data.

以上のように、上記実施の形態によれば、書類画像取得部21は、書類画像を取得し、文字種推定部22は、その書類画像内の1または複数のテキスト領域の位置・サイズ情報、およびその1または複数のテキスト領域のそれぞれについてテキスト領域内のテキストの文字種を推定し、テキスト特定部23は、推定されたテキスト領域について推定された文字種用の文字認識処理を実行して、推定されたテキスト領域内のテキストをテキストデータとして特定する。そして、文字種推定部22は、機械学習済みのディープニューラルネットワークを備え、そのディープニューラルネットワークの入力データは、上述の書類画像であり、そのディープニューラルネットワークの出力データは、上述の1または複数のテキスト領域のそれぞれについての上述の位置・サイズ情報および文字種である。   As described above, according to the above embodiment, the document image acquisition unit 21 acquires a document image, and the character type estimation unit 22 determines position / size information of one or more text areas in the document image, and The character type of the text in the text area is estimated for each of the one or more text areas, and the text identification unit 23 executes character recognition processing for the character type estimated for the estimated text area, and is estimated. Identify the text in the text area as text data. The character type estimation unit 22 is provided with a machine-trained deep neural network, the input data of the deep neural network is the above-mentioned document image, and the output data of the deep neural network is one or more texts of the above The above-mentioned position / size information and character type for each of the areas.

これにより、事前にユーザが文字種を指定することなく、書類内の各テキストに対して適切な文字認識処理が自動的に実行され、様々な書類内の文字情報の抽出が正確に行われる。   As a result, appropriate character recognition processing is automatically performed on each text in the document without the user specifying the character type in advance, and extraction of character information in various documents is accurately performed.

なお、上述の実施の形態に対する様々な変更および修正については、当業者には明らかである。そのような変更および修正は、その主題の趣旨および範囲から離れることなく、かつ、意図された利点を弱めることなく行われてもよい。つまり、そのような変更および修正が請求の範囲に含まれることを意図している。   Note that various changes and modifications to the above-described embodiment will be apparent to those skilled in the art. Such changes and modifications may be made without departing from the spirit and scope of the subject matter and without diminishing the intended advantages. That is, such changes and modifications are intended to be included in the scope of the claims.

例えば、上記実施の形態において、上述のシステムは、推定した文字種を他の用途に使用してもよい。例えば、特定の文字種については文字認識を行わないようにしてもよい。   For example, in the above embodiment, the above system may use the estimated character type for other applications. For example, character recognition may not be performed for a specific character type.

また、上記実施の形態において、上述の処理が完了した後、ただちに、書類画像の画像データを当該システムから消去するようにしてもよい。   Further, in the above embodiment, the image data of the document image may be deleted from the system immediately after the above processing is completed.

本発明は、例えば、帳票読取システムに適用可能である。   The present invention is applicable to, for example, a form reading system.

11 文字種推定プログラム
21 書類画像取得部
22 文字種推定部
23 テキスト特定部
24 データファイル生成部
25 検証部
26 機械学習処理部
11 character type estimation program 21 document image acquisition unit 22 character type estimation unit 23 text specification unit 24 data file generation unit 25 verification unit 26 machine learning processing unit

Claims (6)

書類画像を取得する書類画像取得部と、
前記書類画像内の1または複数のテキスト領域の位置・サイズ情報、および前記1または複数のテキスト領域のそれぞれについて前記テキスト領域内のテキストの文字種を推定する文字種推定部と、
推定された前記テキスト領域について推定された前記文字種用の文字認識処理を実行して、推定された前記テキスト領域内のテキストをテキストデータとして特定するテキスト特定部とを備え、
前記文字種推定部は、機械学習済みのディープニューラルネットワークを備え、
前記ディープニューラルネットワークの入力データは、前記書類画像であり、
前記ディープニューラルネットワークの出力データは、前記1または複数のテキスト領域のそれぞれについての前記位置・サイズ情報および前記文字種であること、
を特徴とする文字種推定システム。
A document image acquisition unit that acquires document images;
Position / size information of one or more text areas in the document image, and a character type estimation unit for estimating a character type of text in the text area for each of the one or more text areas;
A text identification unit that executes character recognition processing for the character type estimated for the estimated text region to specify text in the estimated text region as text data;
The character type estimation unit comprises a machine-trained deep neural network,
The input data of the deep neural network is the document image,
The output data of the deep neural network is the position / size information and the character type for each of the one or more text regions,
Character type estimation system characterized by.
前記複数のテキスト領域の前記テキストデータを含むデータファイルを生成するデータファイル生成部とをさらに備え、
前記テキストデータは、前記データファイルにおいて、前記複数のテキスト領域の位置に対応する順序で配列されること、
を特徴とする請求項1記載の文字種推定システム。
And a data file generation unit for generating a data file including the text data of the plurality of text areas,
The text data is arranged in the data file in an order corresponding to the positions of the plurality of text areas.
The character type estimation system according to claim 1, characterized in that
前記複数のテキスト領域の前記テキストデータを含むデータファイルを生成するデータファイル生成部とをさらに備え、
前記テキストデータは、前記データファイルにおいて、前記文字種に対応する順序で配列されること、
を特徴とする請求項1記載の文字種推定システム。
And a data file generation unit for generating a data file including the text data of the plurality of text areas,
The text data is arranged in the data file in an order corresponding to the character type.
The character type estimation system according to claim 1, characterized in that
前記1または複数のテキスト領域のうちの特定のテキスト領域のテキストの有無または前記特定のテキスト領域のテキストの整合性を検証する検証部をさらに備えることを特徴とする請求項1記載の文字種推定システム。   The character type estimation system according to claim 1, further comprising: a verification unit that verifies presence / absence of text in a specific text area among the one or more text areas or integrity of text in the specific text area. . 書類画像を取得する書類画像取得ステップと、
機械学習済みのディープニューラルネットワークで、前記書類画像内の1または複数のテキスト領域の位置・サイズ情報、および前記1または複数のテキスト領域のそれぞれについて前記テキスト領域内のテキストの文字種を推定する文字種推定ステップと、
推定された前記テキスト領域について推定された前記文字種用の文字認識処理を実行して、推定された前記テキスト領域内のテキストをテキストデータとして特定するテキスト特定ステップとを備え、
前記ディープニューラルネットワークの入力データは、前記書類画像であり、
前記ディープニューラルネットワークの出力データは、前記1または複数のテキスト領域のそれぞれについての前記位置・サイズ情報および前記文字種であること、
を特徴とする文字種推定方法。
Document image acquisition step of acquiring a document image;
A machine type learned deep neural network, character type estimation for estimating position and size information of one or more text areas in the document image, and estimating a character type of text in the text area for each of the one or more text areas Step and
And C. performing a character recognition process for the character type estimated for the estimated text region to specify text in the estimated text region as text data.
The input data of the deep neural network is the document image,
The output data of the deep neural network is the position / size information and the character type for each of the one or more text regions,
Character type estimation method characterized by
コンピュータを、
書類画像を取得する書類画像取得部、
前記書類画像内の1または複数のテキスト領域の位置・サイズ情報、および前記1または複数のテキスト領域のそれぞれについて前記テキスト領域内のテキストの文字種を推定する文字種推定部、並びに
推定された前記テキスト領域について推定された前記文字種用の文字認識処理を実行して、推定された前記テキスト領域内のテキストをテキストデータとして特定するテキスト特定部として機能させ、
前記文字種推定部は、機械学習済みのディープニューラルネットワークを備え、
前記ディープニューラルネットワークの入力データは、前記書類画像であり、
前記ディープニューラルネットワークの出力データは、前記1または複数のテキスト領域のそれぞれについての前記位置・サイズ情報および前記文字種であること、
を特徴とする文字種推定プログラム。
Computer,
Document image acquisition unit that acquires document images,
Position / size information of one or more text areas in the document image, and a character type estimation unit for estimating a character type of text in the text area for each of the one or more text areas, and the estimated text area Performing character recognition processing for the character type estimated for the character type to function as a text specifying unit for specifying text in the text region estimated as text data;
The character type estimation unit comprises a machine-trained deep neural network,
The input data of the deep neural network is the document image,
The output data of the deep neural network is the position / size information and the character type for each of the one or more text regions,
Character type estimation program characterized by.
JP2017206520A 2017-10-25 2017-10-25 Character type estimation system, character type estimation method, and character type estimation program Active JP6795195B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017206520A JP6795195B2 (en) 2017-10-25 2017-10-25 Character type estimation system, character type estimation method, and character type estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017206520A JP6795195B2 (en) 2017-10-25 2017-10-25 Character type estimation system, character type estimation method, and character type estimation program

Publications (2)

Publication Number Publication Date
JP2019079347A true JP2019079347A (en) 2019-05-23
JP6795195B2 JP6795195B2 (en) 2020-12-02

Family

ID=66627784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017206520A Active JP6795195B2 (en) 2017-10-25 2017-10-25 Character type estimation system, character type estimation method, and character type estimation program

Country Status (1)

Country Link
JP (1) JP6795195B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110929724A (en) * 2019-11-28 2020-03-27 上海眼控科技股份有限公司 Character recognition method, character recognition device, computer equipment and storage medium
CN111460933A (en) * 2020-03-18 2020-07-28 哈尔滨拓博科技有限公司 Method for real-time recognition of continuous handwritten pattern
JP2021089684A (en) * 2019-12-05 2021-06-10 ネットスマイル株式会社 Video signal processing system and video signal processing method
JP2021090191A (en) * 2020-11-09 2021-06-10 ネットスマイル株式会社 Video signal processing system and video signal processing method
JP7390445B2 (en) 2021-08-23 2023-12-01 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Training method for character positioning model and character positioning method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03175594A (en) * 1989-12-04 1991-07-30 Sharp Corp Character recognizing device
JPH04105186A (en) * 1990-08-24 1992-04-07 Sharp Corp Automatic document input device
JPH07121656A (en) * 1993-10-20 1995-05-12 Olympus Optical Co Ltd Image area separating device
JPH11338977A (en) * 1998-05-28 1999-12-10 Canon Inc Method and device for character processing and storage medium
JP2002279351A (en) * 2001-03-19 2002-09-27 Minolta Co Ltd Character recognition device, method, and program, and recording medium computer-readable the program recorded
JP2002358521A (en) * 2001-05-31 2002-12-13 Oki Electric Ind Co Ltd Device, method and program for registering and identifying document format
JP2005208687A (en) * 2004-01-19 2005-08-04 Ricoh Co Ltd Multi-lingual document processor and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03175594A (en) * 1989-12-04 1991-07-30 Sharp Corp Character recognizing device
JPH04105186A (en) * 1990-08-24 1992-04-07 Sharp Corp Automatic document input device
JPH07121656A (en) * 1993-10-20 1995-05-12 Olympus Optical Co Ltd Image area separating device
JPH11338977A (en) * 1998-05-28 1999-12-10 Canon Inc Method and device for character processing and storage medium
JP2002279351A (en) * 2001-03-19 2002-09-27 Minolta Co Ltd Character recognition device, method, and program, and recording medium computer-readable the program recorded
JP2002358521A (en) * 2001-05-31 2002-12-13 Oki Electric Ind Co Ltd Device, method and program for registering and identifying document format
JP2005208687A (en) * 2004-01-19 2005-08-04 Ricoh Co Ltd Multi-lingual document processor and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110929724A (en) * 2019-11-28 2020-03-27 上海眼控科技股份有限公司 Character recognition method, character recognition device, computer equipment and storage medium
JP2021089684A (en) * 2019-12-05 2021-06-10 ネットスマイル株式会社 Video signal processing system and video signal processing method
CN111460933A (en) * 2020-03-18 2020-07-28 哈尔滨拓博科技有限公司 Method for real-time recognition of continuous handwritten pattern
CN111460933B (en) * 2020-03-18 2022-08-09 哈尔滨拓博科技有限公司 Method for real-time recognition of continuous handwritten pattern
JP2021090191A (en) * 2020-11-09 2021-06-10 ネットスマイル株式会社 Video signal processing system and video signal processing method
JP7390445B2 (en) 2021-08-23 2023-12-01 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Training method for character positioning model and character positioning method

Also Published As

Publication number Publication date
JP6795195B2 (en) 2020-12-02

Similar Documents

Publication Publication Date Title
CN108564035B (en) Method and system for identifying information recorded on document
JP6795195B2 (en) Character type estimation system, character type estimation method, and character type estimation program
US10140511B2 (en) Building classification and extraction models based on electronic forms
US9626555B2 (en) Content-based document image classification
EP3712812A1 (en) Recognizing typewritten and handwritten characters using end-to-end deep learning
CN104217203B (en) Complex background card face information identifying method and system
EP3869385B1 (en) Method for extracting structural data from image, apparatus and device
CN109766885B (en) Character detection method and device, electronic equipment and storage medium
US20220245958A1 (en) Document structure identification using post-processing error correction
US20190294912A1 (en) Image processing device, image processing method, and image processing program
US20130181995A1 (en) Handwritten character font library
CN111914597B (en) Document comparison identification method and device, electronic equipment and readable storage medium
JP2016048444A (en) Document identification program, document identification device, document identification system, and document identification method
US20190384971A1 (en) System and method for optical character recognition
CN114005126A (en) Table reconstruction method and device, computer equipment and readable storage medium
CN112308946A (en) Topic generation method and device, electronic equipment and readable storage medium
CN115687643A (en) Method for training multi-mode information extraction model and information extraction method
US10586133B2 (en) System and method for processing character images and transforming font within a document
Hamzah et al. Data capturing: Methods, issues and concern
CN113128496B (en) Method, device and equipment for extracting structured data from image
CN112070092A (en) Verification code parameter acquisition method and device
CN114443834A (en) Method and device for extracting license information and storage medium
CN112101356A (en) Method and device for positioning specific text in picture and storage medium
JP6682827B2 (en) Information processing apparatus and information processing program
US20240135740A1 (en) System to extract checkbox symbol and checkbox option pertaining to checkbox question from a document

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200514

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200904

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201105

R150 Certificate of patent or registration of utility model

Ref document number: 6795195

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250