JP2019079347A - Character estimation system, character estimation method, and character estimation program - Google Patents
Character estimation system, character estimation method, and character estimation program Download PDFInfo
- Publication number
- JP2019079347A JP2019079347A JP2017206520A JP2017206520A JP2019079347A JP 2019079347 A JP2019079347 A JP 2019079347A JP 2017206520 A JP2017206520 A JP 2017206520A JP 2017206520 A JP2017206520 A JP 2017206520A JP 2019079347 A JP2019079347 A JP 2019079347A
- Authority
- JP
- Japan
- Prior art keywords
- text
- character type
- data
- document image
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Character Input (AREA)
- Character Discrimination (AREA)
Abstract
Description
本発明は、文字種推定システム、文字種推定方法、および文字種推定プログラムに関するものである。 The present invention relates to a character type estimation system, a character type estimation method, and a character type estimation program.
ある帳票識別システムでは、帳票フォーマットテーブルが予めユーザにより作成されており、帳票フォーマットテーブルには、ユーザにより指定された文字認識対象領域の位置、サイズ、文字種などを示すフィールド情報が含まれている。そして、この帳票フォーマット(つまり、フィールド情報)に基づいて、帳票画像の画像データから、帳票内の文字情報(テキストデータ)が取得されている。 In a form identification system, a form format table is created in advance by the user, and the form format table includes field information indicating the position, size, character type, and the like of the character recognition target area designated by the user. Then, based on the form format (ie, field information), character information (text data) in the form is acquired from the image data of the form image.
しかしながら、上述のシステムでは、帳票などの書類のレイアウト(フォーマット)に対応した帳票フォーマットテーブルを予め作成しておかなければならず、フォーマットの互いに異なる複数の書類に対して、その書類の数と同数の帳票フォーマットテーブルを作成する必要があり、様々な書類内の文字情報の抽出を行うことは、帳票フォーマットテーブルの作成の手間を考えると実際上困難である。 However, in the above-described system, a form format table corresponding to the layout (format) of a document such as a form must be prepared in advance, and for a plurality of documents having different formats, the same number as the number of the documents It is necessary to create a form format table, and extracting character information in various documents is practically difficult in view of the time and effort of creating the form format table.
本発明は、上記の問題に鑑みなされたものであり、様々な書類内の文字情報の抽出を正確に行える文字種推定システム、文字種推定方法および文字種推定プログラムを得ることを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to obtain a character type estimation system, a character type estimation method, and a character type estimation program that can accurately extract character information in various documents.
本発明に係る文字種推定システムは、書類画像を取得する書類画像取得部と、その書類画像内の1または複数のテキスト領域の位置・サイズ情報、およびその1または複数のテキスト領域のそれぞれについてテキスト領域内のテキストの文字種を推定する文字種推定部と、推定されたテキスト領域について推定された文字種用の文字認識処理を実行して、推定されたテキスト領域内のテキストをテキストデータとして特定するテキスト特定部とを備える。そして、文字種推定部は、機械学習済みのディープニューラルネットワークを備え、そのディープニューラルネットワークの入力データは、上述の書類画像であり、そのディープニューラルネットワークの出力データは、上述の1または複数のテキスト領域のそれぞれについての上述の位置・サイズ情報および文字種である。 A character type estimation system according to the present invention includes a document image acquisition unit for acquiring a document image, position / size information of one or more text regions in the document image, and a text region for each of the one or more text regions. A character type estimation unit for estimating the character type of the text in the text, and a text identification unit for identifying text in the estimated text area as text data by executing character recognition processing for the estimated character type for the estimated text area And The character type estimation unit is provided with a machine-trained deep neural network, and the input data of the deep neural network is the document image described above, and the output data of the deep neural network is one or more text regions described above The above-mentioned position / size information and character type for each of.
本発明に係る文字種推定方法は、書類画像を取得する書類画像取得ステップと、上述の機械学習済みのディープニューラルネットワークで、その書類画像内の1または複数のテキスト領域の位置・サイズ情報、およびその1または複数のテキスト領域のそれぞれについてテキスト領域内のテキストの文字種を推定する文字種推定ステップと、推定されたテキスト領域について推定された文字種用の文字認識処理を実行して、推定されたテキスト領域内のテキストをテキストデータとして特定するテキスト特定ステップとを備える。 A character type estimation method according to the present invention is a document image acquisition step of acquiring a document image, and the above-described machine-learned deep neural network, position / size information of one or more text regions in the document image, and The character type estimation step of estimating the character type of the text in the text region for each of the one or more text regions, and the character recognition process for the character type estimated for the estimated text region are performed, and within the estimated text region And a text identifying step of identifying the text of the text as text data.
本発明に係る文字種推定プログラムは、コンピュータを、上述の書類画像取得部、上述の文字種推定部、および上述のテキスト特定部として機能させる。 A character type estimation program according to the present invention causes a computer to function as the document image acquisition unit described above, the character type estimation unit described above, and the text specification unit described above.
本発明によれば、様々な書類内の文字情報の抽出を正確に行えるようにする文字種推定システム、文字種推定方法および文字種推定プログラムが得られる。 According to the present invention, it is possible to obtain a character type estimation system, a character type estimation method, and a character type estimation program that enable accurate extraction of character information in various documents.
本発明の上記又は他の目的、特徴および優位性は、添付の図面とともに以下の詳細な説明から更に明らかになる。 The above or other objects, features and advantages of the present invention will become more apparent from the following detailed description in conjunction with the accompanying drawings.
以下、図に基づいて本発明の実施の形態を説明する。 Hereinafter, embodiments of the present invention will be described based on the drawings.
図1は、本発明の実施の形態に係る文字種推定システムの構成を示すブロック図である。図1に示す文字種推定システムは、1台の情報処理装置で構成されているが、後述の処理部を、互いにデータ通信可能な複数の情報処理装置に分散させてもよい。また、そのような複数の情報処理装置には、特定の演算を並列処理するGPU(Graphics Processing Unit)が含まれていてもよい。 FIG. 1 is a block diagram showing the configuration of a character type estimation system according to an embodiment of the present invention. The character type estimation system shown in FIG. 1 is configured by one information processing apparatus, but the processing units described later may be distributed to a plurality of information processing apparatuses capable of data communication with each other. In addition, such a plurality of information processing apparatuses may include a GPU (Graphics Processing Unit) that performs specific processing in parallel.
図1に示す文字種推定システムは、記憶装置1、通信装置2、画像読取装置3、および演算処理装置4を備える。
The character type estimation system shown in FIG. 1 includes a
記憶装置1は、フラッシュメモリー、ハードディスクなどの不揮発性の記憶装置であって、各種データやプログラムを格納する。
The
ここでは、記憶装置1には、文字種推定プログラム11が格納されており、また、設定データ(後述のディープニューラルネットワークの係数設定値など)が必要に応じて格納される。なお、文字種推定プログラム11は、CD(Compact Disk)などの可搬性のあるコンピュータ読み取り可能な記録媒体に格納されていてもよい。その場合、例えば、その記録媒体から記憶装置1へプログラム11がインストールされる。また、プログラム11は、1つのプログラムでも、複数のプログラムの集合体でもよい。
Here, the character
通信装置2は、ネットワークインターフェイス、周辺機器インターフェイス、モデムなどのデータ通信可能な装置であって、必要に応じて、他の装置とデータ通信を行う。画像読取装置3は、書類から書類画像を光学的に読み取り、書類画像の画像データ(ラスタイメージデータなど)を生成する。
The
演算処理装置4は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを備えるコンピュータであって、プログラムを、ROM、記憶装置1などからRAMにロードしCPUで実行することで、各種処理部として動作する。
The
ここでは、プログラム11を実行することで、演算処理装置4は、書類画像取得部21、文字種推定部22、テキスト特定部23、データファイル生成部24、検証部25、および機械学習処理部26として動作する。
Here, by executing the
書類画像取得部21は、画像データとして書類画像を取得する。書類画像は、領収書(レシートを含む)、請求書、納品書などの帳票類や、その他、企業などの組織において定型な書類などの画像(ラスタイメージ)である。例えば、書類画像取得部21は、記憶装置1に格納されている画像データとしての書類画像を読み出したり、通信装置2により受信された画像データとしての書類画像を取得したり、画像読取装置3により生成された画像データとしての書類画像を取得したりする。
The document
文字種推定部22は、書類画像内の1または複数のテキスト領域(矩形領域)の位置・サイズ情報、およびその1または複数のテキスト領域のそれぞれについて各テキスト領域内のテキストの文字種を推定する。具体的には、文字種推定部22は、機械学習済みのディープニューラルネットワークを備え、そのディープニューラルネットワークで、各テキスト領域の位置・サイズ情報およびそのテキスト領域内のテキストの文字種を推定する。このディープニューラルネットワークの入力データは、書類画像(つまり、書類画像の画素値)であり、このディープニューラルネットワークの出力データは、上述の1または複数のテキスト領域のそれぞれについての位置・サイズ情報および文字種である。
The character
推定される文字種は、ディープニューラルネットワークの機械学習時に使用される訓練データ(入力値と出力値との対)のうちの出力値として使用された文字種のいずれかとなる。 The character type to be estimated is any of the character types used as an output value of training data (a pair of input value and output value) used at the time of machine learning of the deep neural network.
例えば、その文字種は、テキスト自体の特徴(内的属性)を示す、(a)言語種別(日本語、英語など)、(b)表記体系(ひらがな、カタカナ、漢字など)、(c)数字か否か、(d)手書き文字か活字文字か、(e)それらの組み合わせといった分類を含む。 For example, the character type indicates the feature (internal attribute) of the text itself (a) language type (Japanese, English, etc.), (b) writing system (hiragana, katakana, kanji, etc.), (c) number? It includes classifications such as (d) handwritten or printed characters, and (e) their combination.
また、その文字種は、上述のテキスト自体の特徴の代わりに、あるいは、上述のテキスト自体の特徴に追加して、テキストの外的属性(つまり、テキストに対して付加される属性)を示すものでもよく、例えば、(f)金額(¥などの通貨マークが付加された数字)、(g)表の見出し(ヘッダー文字など)、(h)電子メール(英語テキストと@マークとドメイン表記テキストの結合)(i)URL(Uniform Resource Locator)、(j)電話番号、(k)住所、(l)日付、(m)印影(円や矩形などの外枠とその外枠の中のテキスト)などの分類を含むようにしてもよい。 Also, the character type may indicate an external attribute of the text (that is, an attribute to be added to the text) in place of or in addition to the feature of the above-mentioned text itself. Well, for example, (f) monetary amount (number with a currency mark such as \), (g) table heading (such as header character), (h) email (combination of English text and @ mark with domain description text ) (I) URL (Uniform Resource Locator), (j) phone number, (k) address, (l) date, (m) seal impression (outer frame such as circle or rectangle and the text in the outer frame) Classification may be included.
さらに、その文字種は、特殊文字種として、テキストを含まない図形の分類(例えば、(a)バーコード、(b)2次元コード、(c)ロゴマーク、(d1)チェックされているチェックボックス、(d2)チェックされていないチェックボックスなど)を含んでもよい。 Furthermore, as the special character type, the character type is a classification of figures that do not contain text (for example, (a) barcode, (b) two-dimensional code, (c) logo mark, (d1) checked check box, ( d2) may include unchecked checkboxes and the like).
なお、ここで、ディープニューラルネットワークは、例えば、隠れ層が2つ以上の制限付きボルツマンマシンである。つまり、ディープラーニングで機械学習されたニューラルネットワークである。また、このディープニューラルネットワークの構成および機械学習については、既知のものが使用できる。例えば、このディープニューラルネットワークには、CNN(Convolutional Neural Network)、RNN(Recurrent Neural Network)、RNN(Recursive Neural Network)などを使用してもよい。さらに、そのようなディープニューラルネットワークに、必要に応じて、LSTM(Long Short-Term Memory)法、CTC(Connectionist Temporal Classification)法などを適用してもよい。 Here, the deep neural network is, for example, a Boltzmann machine with a limited number of hidden layers or more. That is, it is a neural network machine-learning by deep learning. In addition, as the configuration and machine learning of this deep neural network, known ones can be used. For example, CNN (Convolutional Neural Network), RNN (Recurrent Neural Network), RNN (Recursive Neural Network) or the like may be used for this deep neural network. Furthermore, a Long Short-Term Memory (LSTM) method, a Connectionist Temporal Classification (CTC) method, etc. may be applied to such a deep neural network, as necessary.
また、このディープニューラルネットワークの機械学習には、様々な書類の書類画像について、その書類画像のラスタイメージデータ(つまりビットマップ画像データ)(入力データ)とその書類画像についての1または複数のテキスト領域の位置・サイズ情報および文字種(出力データ)との対がトレーニングデータとして使用される。 Also, for machine learning of this deep neural network, raster image data (that is, bit map image data) (input data) of document images of document images of various documents and one or more text areas of the document image The position / size information of and the pair with the character type (output data) are used as training data.
図2は、書類画像の一例を示す図である。図3は、図2に示す書類画像に対して推定されるテキスト領域を説明する図である。 FIG. 2 is a diagram showing an example of a document image. FIG. 3 is a diagram for explaining a text area estimated for the document image shown in FIG.
図2に示す書類画像101は、納品書の画像である。この書類画像101がディープニューラルネットワークに入力されると、図3における破線矩形で示すように、ディープニューラルネットワークから、テキスト領域の位置・サイズ情報、およびそのテキスト領域の文字種が出力される。なお、テキスト領域の位置・サイズ情報は、例えば、矩形のテキスト領域の対角線上の2点の座標値でもよいし、矩形のテキスト領域の中心点、特定頂点などの代表位置の座標並びにその矩形の縦の長さおよび横の長さでもよい。
A
例えば図3に示す書類画像101におけるテキスト領域111として、その位置・サイズ情報とともに、文字種「カタカナ」(つまり、日本語の活字体のカタカナ)が推定され、テキスト領域112として、その位置・サイズ情報とともに、文字種「英字」(つまり、英語の活字体のアルファベット)が推定され、テキスト領域113として、その位置・サイズ情報とともに、文字種「数字」(つまり、活字体の数字)が推定され、テキスト領域114として、その位置・サイズ情報とともに、文字種「手書きの漢字」(つまり、日本語の手書きの漢字)が推定される。
For example, as the
テキスト特定部23は、推定された位置・サイズ情報に基づいてテキスト領域の部分画像を書類画像から抽出し、推定されたテキスト領域(つまり、抽出した部分画像)について推定された文字種用の文字認識処理を実行して、推定されたテキスト領域内のテキストをテキストデータ(つまり、文字コード)として特定する。
The
例えば図3に示す書類画像101では、上述のようにテキスト領域111〜114の文字種が推定され、各テキスト領域111〜114のテキストデータを得るために、テキスト特定部23は、テキスト領域111の画像(部分画像)については、活字体のカタカナ用の文字認識処理を実行し、テキスト領域112の画像(部分画像)については、活字体の英字アルファベット用の文字認識処理を実行し、テキスト領域113の画像(部分画像)については、活字体の数字用の文字認識処理を実行し、テキスト領域114の画像(部分画像)については、日本語の手書き漢字用の文字認識処理を実行する。
For example, in the
なお、特定の文字種用の文字認識処理でも、その他の文字種の文字認識が可能とされている。ただし、その特定の文字種に比べ、文字認識率が低くなったり認識誤り率が高くなったりする可能性がある。 Note that character recognition processing of other character types is also possible even in character recognition processing for a specific character type. However, the character recognition rate may be lower or the recognition error rate may be higher than the particular character type.
なお、文字種が上述のテキストを含まない特殊文字種である場合、テキスト特定部23は、そのテキスト領域の画像に対して、その特殊文字種に対応した処理を実行するようにしてもよい。例えば、文字種がバーコードや2次元コードである場合には、テキスト特定部23は、そのバーコードや2次元コードをデコードして、そのバーコードや2次元コードをテキストデータやバイナリデータに変換するようにしてもよい。また、例えば、文字種がロゴマークである場合には、テキスト特定部23は、書類画像から、テキスト領域の画像を切り出して、ロゴ画像として出力するようにしてもよい。また、例えば、文字種が、チェックされているチェックボックスかチェックされていないチェックボックスである場合には、テキスト特定部23は、そのテキスト領域のテキストとして、チェックされているチェックボックスまたはチェックされていないチェックボックスに対応する固有のコード(テキストデータまたはバイナリデータ)を出力するようにしてもよい。
When the character type is a special character type not including the above-described text, the
データファイル生成部24は、上述の複数のテキスト領域のテキストデータを含むデータファイルを生成する。このデータファイルは、例えばCSV(Comma-Separated Values)データファイルなどの所定のフォーマットのデータファイルである。
The data file
例えば、上述のテキストデータは、このデータファイルにおいて、上述の複数のテキスト領域の位置に対応する順序で配列される。この場合、例えば、書類画像における横方向または縦方向における複数のテキスト領域の位置に基づいて、この順序が特定される。あるいは、この場合、データファイル生成部24は、書類画像におけるテキストオブジェクトを自動的に検出するとともに、ユーザ操作に基づいてそのテキストオブジェクトの属性を特定し、そのテキストオブジェクトの位置にその属性を関連付けてテンプレートデータを生成し、テンプレートデータに基づいて、上述のテキスト領域の位置に対応する属性(例えば、テキスト領域の位置に最も近いテキストオブジェクトの位置に関連付けられている属性)を特定し、その属性に対応する順序でテキストデータをデータファイルにおいて配列する。
For example, the text data described above is arranged in the data file in the order corresponding to the positions of the plurality of text areas described above. In this case, this order is specified based on, for example, the positions of a plurality of text areas in the horizontal or vertical direction in the document image. Alternatively, in this case, the data file
また、例えば、上述のテキストデータは、このデータファイルにおいて、推定された文字種に対応する順序で配列される。この場合、例えば、文字種として上述のような外的属性(日付など)を示すものを使用し、推定された文字種が示す属性に対応する順序でテキストデータが配列される。 Also, for example, the text data described above is arranged in the data file in the order corresponding to the estimated character type. In this case, for example, text data is arranged in an order corresponding to the attribute indicated by the estimated character type, using a character type indicating an external attribute (such as date) as described above.
検証部25は、上述の1または複数のテキスト領域のうちの(上述の属性、位置などで指定される)特定のテキスト領域のテキストの有無または特定のテキスト領域のテキストの整合性を検証するようにしてもよい。例えば、上述の特定のテキスト領域が印鑑の押印用の領域である場合、検証部25は、テキスト特定部23によりテキストが特定されたか否かに基づいて、押印の有無を判定し、その判定結果をユーザに報知するようにしてもよいし、その特定のテキスト領域に画像オブジェクトがない場合には、押印がないと判定してもよい。また、例えば、上述の特定のテキスト領域が日付の領域である場合、検証部25は、テキスト特定部23により特定されたテキストが日付の記述フォーマットに適合しているか否かに基づいて整合性を判定し、その判定結果をユーザに報知するようにしてもよい。
The
機械学習処理部26は、トレーニングデータを生成するアノテーション処理、およびアノテーション処理により生成されたトレーニングデータで文字種推定部22のディープニューラルネットワークを機械学習する機械学習処理を実行する。
The machine
なお、例えば、アノテーション処理では、(a)サンプルの書類画像内のテキストオブジェクトが自動的に検出され、(b)各テキストオブジェクトについて、そのテキストオブジェクトのみを囲む矩形領域がテキスト領域とされ、(c)ユーザ操作により、そのテキスト領域内の文字種が付与され、(d)その書類画像(入力データ)と、その書類画像内のテキスト領域の位置・サイズ情報および文字種(出力データ)との対が1つのトレーニングデータとされる。 For example, in the annotation processing, (a) a text object in a sample document image is automatically detected, and (b) a rectangular area surrounding only the text object for each text object is regarded as a text area (c The user operation assigns a character type in the text area, and (d) the pair of the document image (input data) and the position / size information of the text area in the document image and the character type (output data) is 1 Training data.
また、アノテーション処理には、文字種推定部22により推定されたあるテキスト領域の文字種が誤っており、ユーザにより訂正された場合における正当な文字種およびそのテキスト領域の位置・サイズ情報(並びにその書類画像内のその他のテキスト領域の位置・サイズ情報および文字種)が出力データとされ、そのときの書類画像が入力データとされてトレーニングデータを生成する処理も含まれ、そのようにして生成されたトレーニングデータに基づいて、機械学習処理部26は、文字種推定部22のディープニューラルネットワークに対する追加の機械学習を行うようにしてもよい。
In addition, in the annotation processing, the character type of a certain text region estimated by the character
なお、上述のデータファイル生成部24、検証部25、機械学習処理部26は、必須のものではなく、必要に応じて設ければよい。
The data file
次に、上記文字種推定システムの動作について説明する。図4は、図1に示す文字種推定システムの動作を説明するフローチャートである。 Next, the operation of the character type estimation system will be described. FIG. 4 is a flow chart for explaining the operation of the character type estimation system shown in FIG.
まず、書類画像取得部21は、書類画像を取得する(ステップS1)。
First, the document
次に、文字種推定部22は、取得された書類画像内の各テキスト領域の位置・サイズ情報、および各テキスト領域内のテキストの文字種を推定する(ステップS2)。このとき、文字種推定部22は、機械学習済みのディープニューラルネットワークを使用して、取得された書類画像(ラスタイメージ)を入力データとしてディープニューラルネットワークに入力し、ディープニューラルネットワークの出力データとして、各テキスト領域の位置・サイズ情報および文字種を取得する。
Next, the character
そして、テキスト特定部23は、推定されたテキスト領域について推定された文字種用の文字認識処理を実行して、推定されたテキスト領域内のテキストをテキストデータとして特定する(ステップS3)。このとき、推定された文字種用の文字認識処理が適用されることで、文字認識率が向上するとともに、認識誤り率が低下する。
Then, the
各テキスト領域について文字認識処理が実行された後、必要に応じて、検証部25は、特定のテキスト領域についての検証を上述のように行う(ステップS4)。
After the character recognition process is performed on each text area, the
そして、データファイル生成部24は、各テキスト領域について特定されたテキストデータを含むデータファイルを例えばCSVフォーマットなどで生成する(ステップS5)。例えば、このようにして生成されたデータファイルを使用して、書類画像内の文字情報がテキストデータとしてデータベースに登録される。
Then, the data file
以上のように、上記実施の形態によれば、書類画像取得部21は、書類画像を取得し、文字種推定部22は、その書類画像内の1または複数のテキスト領域の位置・サイズ情報、およびその1または複数のテキスト領域のそれぞれについてテキスト領域内のテキストの文字種を推定し、テキスト特定部23は、推定されたテキスト領域について推定された文字種用の文字認識処理を実行して、推定されたテキスト領域内のテキストをテキストデータとして特定する。そして、文字種推定部22は、機械学習済みのディープニューラルネットワークを備え、そのディープニューラルネットワークの入力データは、上述の書類画像であり、そのディープニューラルネットワークの出力データは、上述の1または複数のテキスト領域のそれぞれについての上述の位置・サイズ情報および文字種である。
As described above, according to the above embodiment, the document
これにより、事前にユーザが文字種を指定することなく、書類内の各テキストに対して適切な文字認識処理が自動的に実行され、様々な書類内の文字情報の抽出が正確に行われる。 As a result, appropriate character recognition processing is automatically performed on each text in the document without the user specifying the character type in advance, and extraction of character information in various documents is accurately performed.
なお、上述の実施の形態に対する様々な変更および修正については、当業者には明らかである。そのような変更および修正は、その主題の趣旨および範囲から離れることなく、かつ、意図された利点を弱めることなく行われてもよい。つまり、そのような変更および修正が請求の範囲に含まれることを意図している。 Note that various changes and modifications to the above-described embodiment will be apparent to those skilled in the art. Such changes and modifications may be made without departing from the spirit and scope of the subject matter and without diminishing the intended advantages. That is, such changes and modifications are intended to be included in the scope of the claims.
例えば、上記実施の形態において、上述のシステムは、推定した文字種を他の用途に使用してもよい。例えば、特定の文字種については文字認識を行わないようにしてもよい。 For example, in the above embodiment, the above system may use the estimated character type for other applications. For example, character recognition may not be performed for a specific character type.
また、上記実施の形態において、上述の処理が完了した後、ただちに、書類画像の画像データを当該システムから消去するようにしてもよい。 Further, in the above embodiment, the image data of the document image may be deleted from the system immediately after the above processing is completed.
本発明は、例えば、帳票読取システムに適用可能である。 The present invention is applicable to, for example, a form reading system.
11 文字種推定プログラム
21 書類画像取得部
22 文字種推定部
23 テキスト特定部
24 データファイル生成部
25 検証部
26 機械学習処理部
11 character
Claims (6)
前記書類画像内の1または複数のテキスト領域の位置・サイズ情報、および前記1または複数のテキスト領域のそれぞれについて前記テキスト領域内のテキストの文字種を推定する文字種推定部と、
推定された前記テキスト領域について推定された前記文字種用の文字認識処理を実行して、推定された前記テキスト領域内のテキストをテキストデータとして特定するテキスト特定部とを備え、
前記文字種推定部は、機械学習済みのディープニューラルネットワークを備え、
前記ディープニューラルネットワークの入力データは、前記書類画像であり、
前記ディープニューラルネットワークの出力データは、前記1または複数のテキスト領域のそれぞれについての前記位置・サイズ情報および前記文字種であること、
を特徴とする文字種推定システム。 A document image acquisition unit that acquires document images;
Position / size information of one or more text areas in the document image, and a character type estimation unit for estimating a character type of text in the text area for each of the one or more text areas;
A text identification unit that executes character recognition processing for the character type estimated for the estimated text region to specify text in the estimated text region as text data;
The character type estimation unit comprises a machine-trained deep neural network,
The input data of the deep neural network is the document image,
The output data of the deep neural network is the position / size information and the character type for each of the one or more text regions,
Character type estimation system characterized by.
前記テキストデータは、前記データファイルにおいて、前記複数のテキスト領域の位置に対応する順序で配列されること、
を特徴とする請求項1記載の文字種推定システム。 And a data file generation unit for generating a data file including the text data of the plurality of text areas,
The text data is arranged in the data file in an order corresponding to the positions of the plurality of text areas.
The character type estimation system according to claim 1, characterized in that
前記テキストデータは、前記データファイルにおいて、前記文字種に対応する順序で配列されること、
を特徴とする請求項1記載の文字種推定システム。 And a data file generation unit for generating a data file including the text data of the plurality of text areas,
The text data is arranged in the data file in an order corresponding to the character type.
The character type estimation system according to claim 1, characterized in that
機械学習済みのディープニューラルネットワークで、前記書類画像内の1または複数のテキスト領域の位置・サイズ情報、および前記1または複数のテキスト領域のそれぞれについて前記テキスト領域内のテキストの文字種を推定する文字種推定ステップと、
推定された前記テキスト領域について推定された前記文字種用の文字認識処理を実行して、推定された前記テキスト領域内のテキストをテキストデータとして特定するテキスト特定ステップとを備え、
前記ディープニューラルネットワークの入力データは、前記書類画像であり、
前記ディープニューラルネットワークの出力データは、前記1または複数のテキスト領域のそれぞれについての前記位置・サイズ情報および前記文字種であること、
を特徴とする文字種推定方法。 Document image acquisition step of acquiring a document image;
A machine type learned deep neural network, character type estimation for estimating position and size information of one or more text areas in the document image, and estimating a character type of text in the text area for each of the one or more text areas Step and
And C. performing a character recognition process for the character type estimated for the estimated text region to specify text in the estimated text region as text data.
The input data of the deep neural network is the document image,
The output data of the deep neural network is the position / size information and the character type for each of the one or more text regions,
Character type estimation method characterized by
書類画像を取得する書類画像取得部、
前記書類画像内の1または複数のテキスト領域の位置・サイズ情報、および前記1または複数のテキスト領域のそれぞれについて前記テキスト領域内のテキストの文字種を推定する文字種推定部、並びに
推定された前記テキスト領域について推定された前記文字種用の文字認識処理を実行して、推定された前記テキスト領域内のテキストをテキストデータとして特定するテキスト特定部として機能させ、
前記文字種推定部は、機械学習済みのディープニューラルネットワークを備え、
前記ディープニューラルネットワークの入力データは、前記書類画像であり、
前記ディープニューラルネットワークの出力データは、前記1または複数のテキスト領域のそれぞれについての前記位置・サイズ情報および前記文字種であること、
を特徴とする文字種推定プログラム。 Computer,
Document image acquisition unit that acquires document images,
Position / size information of one or more text areas in the document image, and a character type estimation unit for estimating a character type of text in the text area for each of the one or more text areas, and the estimated text area Performing character recognition processing for the character type estimated for the character type to function as a text specifying unit for specifying text in the text region estimated as text data;
The character type estimation unit comprises a machine-trained deep neural network,
The input data of the deep neural network is the document image,
The output data of the deep neural network is the position / size information and the character type for each of the one or more text regions,
Character type estimation program characterized by.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017206520A JP6795195B2 (en) | 2017-10-25 | 2017-10-25 | Character type estimation system, character type estimation method, and character type estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017206520A JP6795195B2 (en) | 2017-10-25 | 2017-10-25 | Character type estimation system, character type estimation method, and character type estimation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019079347A true JP2019079347A (en) | 2019-05-23 |
JP6795195B2 JP6795195B2 (en) | 2020-12-02 |
Family
ID=66627784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017206520A Active JP6795195B2 (en) | 2017-10-25 | 2017-10-25 | Character type estimation system, character type estimation method, and character type estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6795195B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110929724A (en) * | 2019-11-28 | 2020-03-27 | 上海眼控科技股份有限公司 | Character recognition method, character recognition device, computer equipment and storage medium |
CN111460933A (en) * | 2020-03-18 | 2020-07-28 | 哈尔滨拓博科技有限公司 | Method for real-time recognition of continuous handwritten pattern |
JP2021089684A (en) * | 2019-12-05 | 2021-06-10 | ネットスマイル株式会社 | Video signal processing system and video signal processing method |
JP2021090191A (en) * | 2020-11-09 | 2021-06-10 | ネットスマイル株式会社 | Video signal processing system and video signal processing method |
JP7390445B2 (en) | 2021-08-23 | 2023-12-01 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Training method for character positioning model and character positioning method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03175594A (en) * | 1989-12-04 | 1991-07-30 | Sharp Corp | Character recognizing device |
JPH04105186A (en) * | 1990-08-24 | 1992-04-07 | Sharp Corp | Automatic document input device |
JPH07121656A (en) * | 1993-10-20 | 1995-05-12 | Olympus Optical Co Ltd | Image area separating device |
JPH11338977A (en) * | 1998-05-28 | 1999-12-10 | Canon Inc | Method and device for character processing and storage medium |
JP2002279351A (en) * | 2001-03-19 | 2002-09-27 | Minolta Co Ltd | Character recognition device, method, and program, and recording medium computer-readable the program recorded |
JP2002358521A (en) * | 2001-05-31 | 2002-12-13 | Oki Electric Ind Co Ltd | Device, method and program for registering and identifying document format |
JP2005208687A (en) * | 2004-01-19 | 2005-08-04 | Ricoh Co Ltd | Multi-lingual document processor and program |
-
2017
- 2017-10-25 JP JP2017206520A patent/JP6795195B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03175594A (en) * | 1989-12-04 | 1991-07-30 | Sharp Corp | Character recognizing device |
JPH04105186A (en) * | 1990-08-24 | 1992-04-07 | Sharp Corp | Automatic document input device |
JPH07121656A (en) * | 1993-10-20 | 1995-05-12 | Olympus Optical Co Ltd | Image area separating device |
JPH11338977A (en) * | 1998-05-28 | 1999-12-10 | Canon Inc | Method and device for character processing and storage medium |
JP2002279351A (en) * | 2001-03-19 | 2002-09-27 | Minolta Co Ltd | Character recognition device, method, and program, and recording medium computer-readable the program recorded |
JP2002358521A (en) * | 2001-05-31 | 2002-12-13 | Oki Electric Ind Co Ltd | Device, method and program for registering and identifying document format |
JP2005208687A (en) * | 2004-01-19 | 2005-08-04 | Ricoh Co Ltd | Multi-lingual document processor and program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110929724A (en) * | 2019-11-28 | 2020-03-27 | 上海眼控科技股份有限公司 | Character recognition method, character recognition device, computer equipment and storage medium |
JP2021089684A (en) * | 2019-12-05 | 2021-06-10 | ネットスマイル株式会社 | Video signal processing system and video signal processing method |
CN111460933A (en) * | 2020-03-18 | 2020-07-28 | 哈尔滨拓博科技有限公司 | Method for real-time recognition of continuous handwritten pattern |
CN111460933B (en) * | 2020-03-18 | 2022-08-09 | 哈尔滨拓博科技有限公司 | Method for real-time recognition of continuous handwritten pattern |
JP2021090191A (en) * | 2020-11-09 | 2021-06-10 | ネットスマイル株式会社 | Video signal processing system and video signal processing method |
JP7390445B2 (en) | 2021-08-23 | 2023-12-01 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Training method for character positioning model and character positioning method |
Also Published As
Publication number | Publication date |
---|---|
JP6795195B2 (en) | 2020-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108564035B (en) | Method and system for identifying information recorded on document | |
JP6795195B2 (en) | Character type estimation system, character type estimation method, and character type estimation program | |
US10140511B2 (en) | Building classification and extraction models based on electronic forms | |
US9626555B2 (en) | Content-based document image classification | |
EP3712812A1 (en) | Recognizing typewritten and handwritten characters using end-to-end deep learning | |
CN104217203B (en) | Complex background card face information identifying method and system | |
EP3869385B1 (en) | Method for extracting structural data from image, apparatus and device | |
CN109766885B (en) | Character detection method and device, electronic equipment and storage medium | |
US20220245958A1 (en) | Document structure identification using post-processing error correction | |
US20190294912A1 (en) | Image processing device, image processing method, and image processing program | |
US20130181995A1 (en) | Handwritten character font library | |
CN111914597B (en) | Document comparison identification method and device, electronic equipment and readable storage medium | |
JP2016048444A (en) | Document identification program, document identification device, document identification system, and document identification method | |
US20190384971A1 (en) | System and method for optical character recognition | |
CN114005126A (en) | Table reconstruction method and device, computer equipment and readable storage medium | |
CN112308946A (en) | Topic generation method and device, electronic equipment and readable storage medium | |
CN115687643A (en) | Method for training multi-mode information extraction model and information extraction method | |
US10586133B2 (en) | System and method for processing character images and transforming font within a document | |
Hamzah et al. | Data capturing: Methods, issues and concern | |
CN113128496B (en) | Method, device and equipment for extracting structured data from image | |
CN112070092A (en) | Verification code parameter acquisition method and device | |
CN114443834A (en) | Method and device for extracting license information and storage medium | |
CN112101356A (en) | Method and device for positioning specific text in picture and storage medium | |
JP6682827B2 (en) | Information processing apparatus and information processing program | |
US20240135740A1 (en) | System to extract checkbox symbol and checkbox option pertaining to checkbox question from a document |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200514 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200514 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200904 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201029 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6795195 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |