JP2019520615A - 損害賠償請求書類の文字認識方法、装置、サーバ及び記憶媒体 - Google Patents
損害賠償請求書類の文字認識方法、装置、サーバ及び記憶媒体 Download PDFInfo
- Publication number
- JP2019520615A JP2019520615A JP2018536430A JP2018536430A JP2019520615A JP 2019520615 A JP2019520615 A JP 2019520615A JP 2018536430 A JP2018536430 A JP 2018536430A JP 2018536430 A JP2018536430 A JP 2018536430A JP 2019520615 A JP2019520615 A JP 2019520615A
- Authority
- JP
- Japan
- Prior art keywords
- predetermined
- model
- character recognition
- training
- document
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000004458 analytical method Methods 0.000 claims abstract description 51
- 238000012549 training Methods 0.000 claims description 169
- 238000012015 optical character recognition Methods 0.000 claims description 69
- 230000011218 segmentation Effects 0.000 claims description 20
- 238000012360 testing method Methods 0.000 claims description 18
- 238000012795 verification Methods 0.000 claims description 18
- 238000013527 convolutional neural network Methods 0.000 claims description 12
- 230000007774 longterm Effects 0.000 claims description 8
- 230000006403 short-term memory Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013481 data capture Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
- G06V30/153—Segmentation of character regions using recognition of characters or words
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
- G06V30/1801—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
- G06V30/18019—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections by matching or filtering
- G06V30/18038—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters
- G06V30/18048—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters with interaction between the responses of different filters, e.g. cortical complex cells
- G06V30/18057—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/413—Classification of content, e.g. text, photographs or tables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/414—Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
- G06Q40/08—Insurance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Business, Economics & Management (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Finance (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Accounting & Taxation (AREA)
- Biophysics (AREA)
- Development Economics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Technology Law (AREA)
- General Business, Economics & Management (AREA)
- Character Discrimination (AREA)
- Character Input (AREA)
Abstract
Description
本願は、パリ条約に基づき、2017年4月11日に中国国家知識産権局に出願された、中国特許出願第2017102336133号の「損害賠償請求書類の文字認識方法及びサーバ」と題する中国特許出願の優先権を主張し、当該出願の全体が参照により本願に援用される。
サーバが文字認識対象の損害賠償請求書類の映像を受信した後、前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、1つ又は複数の分割領域を取得するステップと、
予め決められた解析モデルを呼び出して取得された各分割領域を解析し、かつ予め決められた認識ルールを利用して解析された各分割領域についてそれぞれ文字認識を行うことで、各分割領域における文字を認識するステップと、を含む。
文字認識対象の損害賠償請求書類の映像を受信した後、前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、1つ又は複数の分割領域を取得するための分割モジュールと、
予め決められた解析モデルを呼び出して取得された各分割領域を解析し、かつ予め決められた認識ルールを利用して解析された各分割領域についてそれぞれ文字認識を行うことで、各分割領域における文字を認識するための認識モジュールと、を含む。
サーバが文字認識対象の損害賠償請求書類の映像を受信した後、前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、1つ又は複数の分割領域を取得し、
予め決められた解析モデルを呼び出して取得された各分割領域を解析し、かつ予め決められた認識ルールを利用して解析された各分割領域についてそれぞれ文字認識を行うことで、各分割領域における文字を認識する。
サーバが文字認識対象の損害賠償請求書類の映像を受信した後、前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、1つ又は複数の分割領域を取得し、
予め決められた解析モデルを呼び出して取得された各分割領域を解析し、かつ予め決められた認識ルールを利用して解析された各分割領域についてそれぞれ文字認識を行うことで、各分割領域における文字を認識する。
A、予め決められた損害賠償請求書類の枠フォーマットに対し、前記損害賠償請求書類の枠フォーマットに基づく所定数(例えば、50万個)の損害賠償請求書類の映像サンプルを取得し、
B、各損害賠償請求書類の映像サンプルに対して前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、かつ各損害賠償請求書類の映像サンプルにおいてOCR文字認識エンジンが誤って認識した第三分割領域及びOCR文字認識エンジンが正確に認識した第四分割領域を決め、
C、全ての第三分割領域を第一トレーニングセットに分類し、全ての第四分割領域を第二トレーニングセットに分類し、
D、第一トレーニングセット及び第二トレーニングセットから第一所定割合(例えば、80%)の分割領域をトレーニング対象の分割領域としてそれぞれ抽出し、かつ第一トレーニングセット及び第二トレーニングセットにおける残りの分割領域を検証対象の分割領域とし、
E、抽出された各トレーニング対象の分割領域を利用してモデルトレーニングを行うことで、前記予め決められた解析モデルを生成し、かつ各検証対象の分割領域を利用して生成された前記予め決められた解析モデルを検証し、
F、検証通過率が所定閾値(例えば、98%)以上である場合、トレーニングが完了し、又は、検証通過率が所定閾値未満である場合、損害賠償請求書類の映像サンプルの数を増加し、かつ検証通過率が所定閾値以上になるまで、前記手順A、B、C、D、Eを繰り返し実行する。
所定数(例えば、10万)の領域サンプルを取得し、前記領域サンプルは履歴データにおいて複数の損害賠償請求書類にその枠フォーマットの枠線配列に応じて領域分割を行った後の分割領域サンプルであってもよい。1つの実施形態において、分割領域サンプルにおけるフォントを黒色に、背景を白色に一括で設定でき、それにより文字認識に便利である。かつ各分割領域サンプルを注記し、例えば各分割領域サンプルの名称を前記分割領域サンプルに含まれる文字に命名して注記する。
所定数の分割領域サンプルを所定割合(例えば、8:2)で第一データセット及び第二データセットに分け、第一データセットをトレーニングセットとし、第二データセットをテストセットとし、ただし、第一データセットのサンプル数の割合が第二データセットのサンプル数の割合以上である。
第一データセットをLSTMネットワークに送り込んでモデルトレーニングを行い、所定時間(例えば30分間ごとに又は反復回数1000回ごとに)おきに、第二データセットを使用してモデルをテストすることで、現在トレーニングされているモデルの効果を評価する。例えば、テストの時、トレーニングして取得されたモデルを使用して第二データセットにおける分割領域サンプルに文字認識を行い、かつトレーニングして取得されたモデルを利用して分割領域サンプルの文字認識結果と前記分割領域サンプルの注記とを比較することで、トレーニングして取得されたモデルの文字認識結果と前記分割領域サンプルの注記との誤差を算出する。具体的には、誤差を算出する時、編集距離を算出基準として採用でき、ただし、編集距離(Edit Distance)は、Levenshtein距離とも呼ばれ、2つの文字列の間、1つの文字列からもう1つの文字列へと変更するための最少編集操作回数である。許可された編集操作は1つの文字からもう1つの文字への置換、1つの文字の挿入、1つの文字の削除を含み、一般的には、編集距離が小さいほど、2つの文字列の類似度が高い。よって、編集距離を算出基準としてトレーニングして取得されたモデルの文字認識結果と前記分割領域サンプルの注記との誤差を算出する時、算出された誤差が小さいほど、トレーニングして取得されたモデルの文字認識結果と前記分割領域サンプルの注記との類似度が高く、逆に、算出された誤差が大きいほど、トレーニングして取得されたモデルの文字認識結果と前記分割領域サンプルの注記との類似度が低いことを示す。
予め決められた解析モデルを呼び出して取得された各分割領域を解析することで、光学文字認識エンジンを利用して認識可能な第一分割領域及び光学文字認識エンジンを利用して認識不能な第二分割領域を解析し、
予め決められた光学文字認識エンジンを利用して各前記第一分割領域に文字認識を行うことで、各前記第一分割領域における文字を認識し、かつ予め決められた認識モデルを呼び出して各前記第二分割領域に文字認識を行うことで、各前記第二分割領域における文字を認識することに用いられる。
A、予め決められた損害賠償請求書類の枠フォーマットに対し、前記損害賠償請求書類の枠フォーマットに基づく所定数(例えば、50万個)の損害賠償請求書類の映像サンプルを取得し、
B、各損害賠償請求書類の映像サンプルに対して前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、かつ各損害賠償請求書類の映像サンプルにおいてOCR文字認識エンジンが誤って認識した第三分割領域及びOCR文字認識エンジンが正確に認識した第四分割領域を決め、
C、全ての第三分割領域を第一トレーニングセットに分類し、全ての第四分割領域を第二トレーニングセットに分類し、
D、第一トレーニングセット及び第二トレーニングセットから第一所定割合(例えば、80%)の分割領域をトレーニング対象の分割領域としてそれぞれ抽出し、かつ第一トレーニングセット及び第二トレーニングセットにおける残りの分割領域を検証対象の分割領域とし、
E、抽出された各トレーニング対象の分割領域を利用してモデルトレーニングを行うことで、前記予め決められた解析モデルを生成し、かつ各検証対象の分割領域を利用して生成された前記予め決められた解析モデルを検証し、
F、検証通過率が所定閾値(例えば、98%)以上である場合、トレーニングが完了し、又は、検証通過率が所定閾値未満である場合、損害賠償請求書類の映像サンプルの数を増加し、かつ検証通過率が所定閾値以上になるまで、前記手順A、B、C、D、Eを繰り返し実行する。
所定数(例えば、10万)の領域サンプルを取得し、前記領域サンプルは履歴データにおいて複数の損害賠償請求書類にその枠フォーマットの枠線配列に応じて領域分割を行った後の分割領域サンプルであってもよい。1つの実施形態において、分割領域サンプルにおけるフォントを黒色に、背景を白色に一括で設定でき、それにより文字認識に便利である。かつ各分割領域サンプルを注記し、例えば各分割領域サンプルの名称を前記分割領域サンプルに含まれる文字に命名して注記する。
所定数の分割領域サンプルを所定割合(例えば、8:2)で第一データセット及び第二データセットに分け、第一データセットをトレーニングセットとし、第二データセットをテストセットとし、ただし、第一データセットのサンプル数の割合は第二データセットのサンプル数の割合以上である。
第一データセットをLSTMネットワークに送り込んでモデルトレーニングを行い、所定時間(例えば30分間ごとに又は反復回数1000回ごとに)おきに、第二データセットを使用してモデルをテストすることで、現在トレーニングされているモデルの効果を評価する。例えば、テストの時、トレーニングして取得されたモデルを使用して第二データセットにおける分割領域サンプルに文字認識を行い、かつトレーニングして取得されたモデルを利用して分割領域サンプルの文字認識結果と前記分割領域サンプルの注記とを比較することで、トレーニングして取得されたモデルの文字認識結果と前記分割領域サンプルの注記との誤差を算出する。具体的には、誤差を算出する時、編集距離を算出基準として採用でき、ここで、編集距離(Edit Distance)は、Levenshtein距離とも呼ばれ、2つの文字列の間、1つの文字列からもう1つの文字列へと変更するための最少編集操作回数である。許可された編集操作は1つの文字からもう1つの文字への置換、1つの文字の挿入、1つの文字の削除を含み、一般的には、編集距離が小さいほど、2つの文字列の類似度が高い。よって、編集距離を算出基準としてトレーニングして取得されたモデルの文字認識結果と前記分割領域サンプルの注記との誤差を算出する時、算出された誤差が小さいほど、トレーニングして取得されたモデルの文字認識結果と前記分割領域サンプルの注記との類似度が高く、逆に、算出された誤差が大きいほど、トレーニングして取得されたモデルの文字認識結果と前記分割領域サンプルの注記との類似度が低いことを示す。
文字認識対象の損害賠償請求書類の映像を受信した後、前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、1つ又は複数の分割領域を取得し、
予め決められた解析モデルを呼び出して取得された各分割領域を解析し、かつ予め決められた認識ルールを利用して解析された各分割領域についてそれぞれ文字認識を行うことで、各分割領域における文字を認識する。
予め決められた解析モデルを呼び出して取得された各分割領域を解析することで、光学文字認識エンジンを利用して認識可能な第一分割領域及び光学文字認識エンジンを利用して認識不能な第二分割領域を解析することを含み、
前記予め決められた認識ルールを利用して解析された各分割領域にそれぞれ文字認識を行うステップは、さらに
予め決められた光学文字認識エンジンを利用して各前記第一分割領域に文字認識を行うことで、各前記第一分割領域における文字を認識し、かつ予め決められた認識モデルを呼び出して各前記第二分割領域に文字認識を行うことで、各前記第二分割領域における文字を認識することを含む。
A、予め決められた損害賠償請求書類の枠フォーマットに対し、前記損害賠償請求書類の枠フォーマットに基づく所定数の損害賠償請求書類の映像サンプルを取得し、
B、各損害賠償請求書類の映像サンプルに対して前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、かつ各損害賠償請求書類の映像サンプルにおいて光学文字認識エンジンを利用して誤って認識した第三分割領域及び光学文字認識エンジンを利用して正確に認識した第四分割領域を決め、
C、全ての第三分割領域を第一トレーニングセットに分類し、全ての第四分割領域を第二トレーニングセットに分類し、
D、前記第一トレーニングセット及び前記第二トレーニングセットから第一所定割合の分割領域をトレーニング対象の分割領域としてそれぞれ抽出し、かつ前記第一トレーニングセット及び前記第二トレーニングセットにおける残りの分割領域を検証対象の分割領域とし、
E、抽出された各トレーニング対象の分割領域を利用してモデルトレーニングを行うことで、前記予め決められた解析モデルを生成し、かつ各検証対象の分割領域を利用して生成された前記予め決められた解析モデルを検証し、
F、検証通過率が所定閾値以上である場合、トレーニングが完了し、又は、検証通過率が所定閾値未満である場合、損害賠償請求書類の映像サンプルの数を増加し、かつ検証通過率が所定閾値以上になるまで、上記手順A、B、C、D、Eを繰り返し実行する。
所定数の分割領域サンプルを取得し、各分割領域サンプルを前記分割領域サンプルに含まれる文字で注記し、
所定数の分割領域サンプルを所定割合で第一データセット及び第二データセットに分け、かつ前記第一データセットをトレーニングセットとし、前記第二データセットをテストセットとし、
前記第一データセットをLSTMネットワークに送り込んでモデルトレーニングを行い、所定時間おきに、トレーニングして取得されたモデルを使用して前記第二データセットにおける分割領域サンプルに文字認識を行い、かつ認識された文字と前記分割領域サンプルの注記とを比較することで、認識された文字と注記との誤差を算出し、
トレーニングして取得されたモデル認識文字の誤差が発散すると、トレーニングして取得されたモデル認識文字の誤差が収束するようになるまで、予め設定されたトレーニングパラメータを調整して再トレーニングし、
トレーニングして取得されたモデル認識文字の誤差が収束すると、モデルトレーニングを終了し、生成されたモデルをトレーニングされた前記予め決められた認識モデルとする。
文字認識対象の損害賠償請求書類の映像を受信した後、前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、1つ又は複数の分割領域を取得し、
予め決められた解析モデルを呼び出して取得された各分割領域を解析し、かつ予め決められた認識ルールを利用して解析された各分割領域についてそれぞれ文字認識を行うことで、各分割領域における文字を認識する。
予め決められた解析モデルを呼び出して取得された各分割領域を解析することで、光学文字認識エンジンを利用して認識可能な第一分割領域及び光学文字認識エンジンを利用して認識不能な第二分割領域を解析することを含み、
前記予め決められた認識ルールを利用して、解析された各分割領域にそれぞれ文字認識を行うステップは、さらに
予め決められた光学文字認識エンジンを利用して各前記第一分割領域に文字認識を行うことで、各前記第一分割領域における文字を認識し、かつ予め決められた認識モデルを呼び出して各前記第二分割領域に文字認識を行うことで、各前記第二分割領域における文字を認識することを含む。
A、予め決められた損害賠償請求書類の枠フォーマットに対し、前記損害賠償請求書類の枠フォーマットに基づく所定数の損害賠償請求書類の映像サンプルを取得し、
B、各損害賠償請求書類の映像サンプルに対して前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、かつ各損害賠償請求書類の映像サンプルにおいて光学文字認識エンジンを利用して誤って認識した第三分割領域及び光学文字認識エンジンを利用して正確に認識した第四分割領域を決め、
C、全ての第三分割領域を第一トレーニングセットに分類し、全ての第四分割領域を第二トレーニングセットに分類し、
D、前記第一トレーニングセット及び前記第二トレーニングセットから第一所定割合の分割領域をトレーニング対象の分割領域としてそれぞれ抽出し、かつ前記第一トレーニングセット及び前記第二トレーニングセットにおける残りの分割領域を検証対象の分割領域とし、
E、抽出された各トレーニング対象の分割領域を利用してモデルトレーニングを行うことで、前記予め決められた解析モデルを生成し、かつ各検証対象の分割領域を利用して生成された前記予め決められた解析モデルを検証し、
F、検証通過率が所定閾値以上である場合、トレーニングが完了し、又は、検証通過率が所定閾値未満である場合、損害賠償請求書類の映像サンプルの数を増加し、かつ検証通過率が所定閾値以上になるまで、上記手順A、B、C、D、Eを繰り返し実行する。
所定数の分割領域サンプルを取得し、各分割領域サンプルを前記分割領域サンプルに含まれる文字で注記し、
所定数の分割領域サンプルを所定割合で第一データセット及び第二データセットに分け、かつ前記第一データセットをトレーニングセットとし、前記第二データセットをテストセットとし、
前記第一データセットをLSTMネットワークに送り込んでモデルトレーニングを行い、所定時間おきに、トレーニングして取得されたモデルを使用して前記第二データセットにおける分割領域サンプルに文字認識を行い、かつ認識された文字と前記分割領域サンプルの注記とを比較することで、認識された文字と注記との誤差を算出し、
トレーニングして取得されたモデル認識文字の誤差が発散すると、トレーニングして取得されたモデル認識文字の誤差が収束するようになるまで、予め設定されたトレーニングパラメータを調整して再トレーニングし、
トレーニングして取得されたモデル認識文字の誤差が収束すると、モデルトレーニングを終了し、生成されたモデルをトレーニングされた前記予め決められた認識モデルとする。
Claims (20)
- 損害賠償請求書類の文字認識方法であって、
サーバが文字認識対象の損害賠償請求書類の映像を受信した後、前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、1つ又は複数の分割領域を取得するステップと、
予め決められた解析モデルを呼び出して取得された各分割領域を解析し、かつ予め決められた認識ルールを利用して解析された各分割領域についてそれぞれ文字認識を行うことで、各分割領域における文字を認識するステップと、を含む
ことを特徴とする損害賠償請求書類の文字認識方法。 - 前記予め決められた解析モデルを呼び出して取得された各分割領域を解析するステップは、
予め決められた解析モデルを呼び出して取得された各分割領域を解析することで、光学文字認識エンジンを利用して認識可能な第一分割領域及び光学文字認識エンジンを利用して認識不能な第二分割領域を解析することを含み、
前記予め決められた認識ルールを利用して解析された各分割領域にそれぞれ文字認識を行うステップは、
予め決められた光学文字認識エンジンを利用して各前記第一分割領域に文字認識を行うことで、各前記第一分割領域における文字を認識し、かつ予め決められた認識モデルを呼び出して各前記第二分割領域に文字認識を行うことで、各前記第二分割領域における文字を認識することをさらに含む
ことを特徴とする請求項1に記載の損害賠償請求書類の文字認識方法。 - 前記予め決められた解析モデルは畳み込みニューラルネットワークモデルであり、前記予め決められた解析モデルのトレーニング手順は、以下の通りである:
A、予め決められた損害賠償請求書類の枠フォーマットに対し、前記損害賠償請求書類の枠フォーマットに基づく所定数の損害賠償請求書類の映像サンプルを取得し、
B、各損害賠償請求書類の映像サンプルに対して前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、かつ各損害賠償請求書類の映像サンプルにおいて光学文字認識エンジンを利用して誤って認識した第三分割領域及び光学文字認識エンジンを利用して正確に認識した第四分割領域を決め、
C、全ての第三分割領域を第一トレーニングセットに分類し、全ての第四分割領域を第二トレーニングセットに分類し、
D、前記第一トレーニングセット及び前記第二トレーニングセットから第一所定割合の分割領域をトレーニング対象の分割領域としてそれぞれ抽出し、かつ前記第一トレーニングセット及び前記第二トレーニングセットにおける残りの分割領域を検証対象の分割領域とし、
E、抽出された各トレーニング対象の分割領域を利用してモデルトレーニングを行うことで、前記予め決められた解析モデルを生成し、かつ各検証対象の分割領域を利用して生成された前記予め決められた解析モデルを検証し、
F、検証通過率が所定閾値以上である場合、トレーニングが完了し、又は、検証通過率が所定閾値未満である場合、損害賠償請求書類の映像サンプルの数を増加し、かつ検証通過率が所定閾値以上になるまで、上記ステップA、B、C、D、Eを繰り返し実行する
ことを特徴とする請求項2に記載の損害賠償請求書類の文字認識方法。 - 前記予め決められた認識モデルは長期短期記憶LSTMモデルであり、前記予め決められた認識モデルのトレーニング手順は、
所定数の分割領域サンプルを取得し、各分割領域サンプルを前記分割領域サンプルに含まれる文字で注記し、
所定数の分割領域サンプルを所定割合で第一データセット及び第二データセットに分け、かつ前記第一データセットをトレーニングセットとし、前記第二データセットをテストセットとし、
前記第一データセットをLSTMネットワークに送り込んでモデルトレーニングを行い、所定時間おきに、トレーニングして取得されたモデルを使用して前記第二データセットにおける分割領域サンプルに文字認識を行い、かつ認識された文字と前記分割領域サンプルの注記とを比較することで、認識された文字と注記との誤差を算出し、
トレーニングして取得されたモデル認識文字の誤差が発散すると、トレーニングして取得されたモデル認識文字の誤差が収束するようになるまで、予め設定されたトレーニングパラメータを調整して再トレーニングし、
トレーニングして取得されたモデル認識文字の誤差が収束すると、モデルトレーニングを終了し、生成されたモデルをトレーニングされた前記予め決められた認識モデルとする
ことを特徴とする請求項2又は3に記載の損害賠償請求書類の文字認識方法。 - 前記分割領域は前記損害賠償請求書類の枠フォーマットの枠線で囲まれる最小単位の領域であり、かつ前記分割領域は枠線を含まない領域である
ことを特徴とする請求項1に記載の損害賠償請求書類の文字認識方法。 - 損害賠償請求書類の文字認識装置であって、
文字認識対象の損害賠償請求書類の映像を受信した後、前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、1つ又は複数の分割領域を取得するための分割モジュールと、
予め決められた解析モデルを呼び出して取得された各分割領域を解析し、かつ予め決められた認識ルールを利用して解析された各分割領域についてそれぞれ文字認識を行うことで、各分割領域における文字を認識するための認識モジュールと、を含む
ことを特徴とする損害賠償請求書類の文字認識装置。 - 前記認識モジュールは、
予め決められた解析モデルを呼び出して取得された各分割領域を解析することで、光学文字認識エンジンを利用して認識可能な第一分割領域及び光学文字認識エンジンを利用して認識不能な第二分割領域を解析し、
予め決められた光学文字認識エンジンを利用して各前記第一分割領域に文字認識を行うことで、各前記第一分割領域における文字を認識し、かつ予め決められた認識モデルを呼び出して各前記第二分割領域に文字認識を行うことで、各前記第二分割領域における文字を認識することにさらに用いられる
ことを特徴とする請求項6に記載の損害賠償請求書類の文字認識装置。 - 前記予め決められた解析モデルは畳み込みニューラルネットワークモデルであり、前記予め決められた解析モデルのトレーニング手順は、以下の通りである:
A、予め決められた損害賠償請求書類の枠フォーマットに対し、前記損害賠償請求書類の枠フォーマットに基づく所定数の損害賠償請求書類の映像サンプルを取得し、
B、各損害賠償請求書類の映像サンプルに対して前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、かつ各損害賠償請求書類の映像サンプルにおいて光学文字認識エンジンを利用して誤って認識した第三分割領域及び光学文字認識エンジンを利用して正確に認識した第四分割領域を決め、
C、全ての第三分割領域を第一トレーニングセットに分類し、全ての第四分割領域を第二トレーニングセットに分類し、
D、前記第一トレーニングセット及び前記第二トレーニングセットから第一所定割合の分割領域をトレーニング対象の分割領域としてそれぞれ抽出し、かつ前記第一トレーニングセット及び前記第二トレーニングセットにおける残りの分割領域を検証対象の分割領域とし、
E、抽出された各トレーニング対象の分割領域を利用してモデルトレーニングを行うことで、前記予め決められた解析モデルを生成し、かつ各検証対象の分割領域を利用して生成された前記予め決められた解析モデルを検証し、
F、検証通過率が所定閾値以上である場合、トレーニングが完了し、又は、検証通過率が所定閾値未満である場合、損害賠償請求書類の映像サンプルの数を増加し、かつ検証通過率が所定閾値以上になるまで、上記手順A、B、C、D、Eを繰り返し実行する
ことを特徴とする請求項7に記載の損害賠償請求書類の文字認識装置。 - 前記予め決められた認識モデルは長期短期記憶LSTMモデルであり、前記予め決められた認識モデルのトレーニング手順は、
所定数の分割領域サンプルを取得し、各分割領域サンプルを前記分割領域サンプルに含まれる文字で注記し、
所定数の分割領域サンプルを所定割合で第一データセット及び第二データセットに分け、かつ前記第一データセットをトレーニングセットとし、前記第二データセットをテストセットとし、
前記第一データセットをLSTMネットワークに送り込んでモデルトレーニングを行い、所定時間おきに、トレーニングして取得されたモデルを使用して前記第二データセットにおける分割領域サンプルに文字認識を行い、かつ認識された文字と前記分割領域サンプルの注記とを比較することで、認識された文字と注記との誤差を算出し、
トレーニングして取得されたモデル認識文字の誤差が発散すると、トレーニングして取得されたモデル認識文字の誤差が収束するようになるまで、予め設定されたトレーニングパラメータを調整して再トレーニングし、
トレーニングして取得されたモデル認識文字の誤差が収束すると、モデルトレーニングを終了し、生成されたモデルをトレーニングされた前記予め決められた認識モデルとする
ことを特徴とする請求項7又は8に記載の損害賠償請求書類の文字認識装置。 - 前記分割領域は前記損害賠償請求書類の枠フォーマットの枠線で囲まれる最小単位の領域であり、かつ前記分割領域は枠線を含まない領域である
ことを特徴とする請求項6に記載の損害賠償請求書類の文字認識装置。 - 損害賠償請求書類の文字認識サーバであって、
損害賠償請求書類の文字認識プログラムが記憶されている記憶装置と、プロセッサと、を含み、前記損害賠償請求書類の文字認識プログラムが前記プロセッサによって実行されることにより、
サーバが文字認識対象の損害賠償請求書類の映像を受信した後、前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、1つ又は複数の分割領域を取得するステップと、
予め決められた解析モデルを呼び出して取得された各分割領域を解析し、かつ予め決められた認識ルールを利用して解析された各分割領域についてそれぞれ文字認識を行うことで、各分割領域における文字を認識するステップと、を実現する
ことを特徴とする損害賠償請求書類の文字認識サーバ。 - 前記予め決められた解析モデルを呼び出して取得された各分割領域を解析するステップは、
予め決められた解析モデルを呼び出して取得された各分割領域を解析することで、光学文字認識エンジンを利用して認識可能な第一分割領域及び光学文字認識エンジンを利用して認識不能な第二分割領域を解析することを含み、
前記予め決められた認識ルールを利用して解析された各分割領域にそれぞれ文字認識を行うステップは、
予め決められた光学文字認識エンジンを利用して各前記第一分割領域に文字認識を行うことで、各前記第一分割領域における文字を認識し、かつ予め決められた認識モデルを呼び出して各前記第二分割領域に文字認識を行うことで、各前記第二分割領域における文字を認識することをさらに含む
ことを特徴とする請求項11に記載の損害賠償請求書類の文字認識サーバ。 - 前記予め決められた解析モデルは畳み込みニューラルネットワークモデルであり、前記予め決められた解析モデルのトレーニング手順は、以下の通りである:
A、予め決められた損害賠償請求書類の枠フォーマットに対し、前記損害賠償請求書類の枠フォーマットに基づく所定数の損害賠償請求書類の映像サンプルを取得し、
B、各損害賠償請求書類の映像サンプルに対して前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、かつ各損害賠償請求書類の映像サンプルにおいて光学文字認識エンジンを利用して誤って認識した第三分割領域及び光学文字認識エンジンを利用して正確に認識した第四分割領域を決め、
C、全ての第三分割領域を第一トレーニングセットに分類し、全ての第四分割領域を第二トレーニングセットに分類し、
D、前記第一トレーニングセット及び前記第二トレーニングセットから第一所定割合の分割領域をトレーニング対象の分割領域としてそれぞれ抽出し、かつ前記第一トレーニングセット及び前記第二トレーニングセットにおける残りの分割領域を検証対象の分割領域とし、
E、抽出された各トレーニング対象の分割領域を利用してモデルトレーニングを行うことで、前記予め決められた解析モデルを生成し、かつ各検証対象の分割領域を利用して生成された前記予め決められた解析モデルを検証し、
F、検証通過率が所定閾値以上である場合、トレーニングが完了し、又は、検証通過率が所定閾値未満である場合、損害賠償請求書類の映像サンプルの数を増加し、かつ検証通過率が所定閾値以上になるまで、上記手順A、B、C、D、Eを繰り返し実行する
ことを特徴とする請求項12に記載の損害賠償請求書類の文字認識サーバ。 - 前記予め決められた認識モデルは長期短期記憶LSTMモデルであり、前記予め決められた認識モデルのトレーニング手順は、
所定数の分割領域サンプルを取得し、各分割領域サンプルを前記分割領域サンプルに含まれる文字で注記し、
所定数の分割領域サンプルを所定割合で第一データセット及び第二データセットに分け、かつ前記第一データセットをトレーニングセットとし、前記第二データセットをテストセットとし、
前記第一データセットをLSTMネットワークに送り込んでモデルトレーニングを行い、所定時間おきに、トレーニングして取得されたモデルを使用して前記第二データセットにおける分割領域サンプルに文字認識を行い、かつ認識された文字と前記分割領域サンプルの注記とを比較することで、認識された文字と注記との誤差を算出し、
トレーニングして取得されたモデル認識文字の誤差が発散すると、トレーニングして取得されたモデル認識文字の誤差が収束するようになるまで、予め設定されたトレーニングパラメータを調整して再トレーニングし、
トレーニングして取得されたモデル認識文字の誤差が収束すると、モデルトレーニングを終了し、生成されたモデルをトレーニングされた前記予め決められた認識モデルとする
ことを特徴とする請求項12又は13に記載の損害賠償請求書類の文字認識サーバ。 - 前記分割領域は前記損害賠償請求書類の枠フォーマットの枠線で囲まれる最小単位の領域であり、かつ前記分割領域は枠線を含まない領域である
ことを特徴とする請求項11に記載の損害賠償請求書類の文字認識サーバ。 - コンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ読み取り可能な記憶媒体に損害賠償請求書類の文字認識プログラムが記憶されており、前記損害賠償請求書類の文字認識プログラムが少なくとも1つのプロセッサによって実行されることにより、
サーバが文字認識対象の損害賠償請求書類の映像を受信した後、前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、1つ又は複数の分割領域を取得するステップと、
予め決められた解析モデルを呼び出して取得された各分割領域を解析し、かつ予め決められた認識ルールを利用して解析された各分割領域についてそれぞれ文字認識を行うことで、各分割領域における文字を認識するステップと、を実現する
ことを特徴とするコンピュータ読み取り可能な記憶媒体。 - 前記予め決められた解析モデルを呼び出して取得された各分割領域を解析するステップは、
予め決められた解析モデルを呼び出して取得された各分割領域を解析することで、光学文字認識エンジンを利用して認識可能な第一分割領域及び光学文字認識エンジンを利用して認識不能な第二分割領域を解析することを含み、
前記予め決められた認識ルールを利用して解析された各分割領域にそれぞれ文字認識を行うステップは、
予め決められた光学文字認識エンジンを利用して各前記第一分割領域に文字認識を行うことで、各前記第一分割領域における文字を認識し、かつ予め決められた認識モデルを呼び出して各前記第二分割領域に文字認識を行うことで、各前記第二分割領域における文字を認識することをさらに含む
ことを特徴とする請求項16に記載のコンピュータ読み取り可能な記憶媒体。 - 前記予め決められた解析モデルは畳み込みニューラルネットワークモデルであり、前記予め決められた解析モデルのトレーニング手順は、以下の通りである:
A、予め決められた損害賠償請求書類の枠フォーマットに対し、前記損害賠償請求書類の枠フォーマットに基づく所定数の損害賠償請求書類の映像サンプルを取得し、
B、各損害賠償請求書類の映像サンプルに対して前記損害賠償請求書類の枠フォーマットの枠線配列に応じて領域分割を行い、かつ各損害賠償請求書類の映像サンプルにおいて光学文字認識エンジンを利用して誤って認識した第三分割領域及び光学文字認識エンジンを利用して正確に認識した第四分割領域を決め、
C、全ての第三分割領域を第一トレーニングセットに分類し、全ての第四分割領域を第二トレーニングセットに分類し、
D、前記第一トレーニングセット及び前記第二トレーニングセットから第一所定割合の分割領域をトレーニング対象の分割領域としてそれぞれ抽出し、かつ前記第一トレーニングセット及び前記第二トレーニングセットにおける残りの分割領域を検証対象の分割領域とし、
E、抽出された各トレーニング対象の分割領域を利用してモデルトレーニングを行うことで、前記予め決められた解析モデルを生成し、かつ各検証対象の分割領域を利用して生成された前記予め決められた解析モデルを検証し、
F、検証通過率が所定閾値以上である場合、トレーニングが完了し、又は、検証通過率が所定閾値未満である場合、損害賠償請求書類の映像サンプルの数を増加し、かつ検証通過率が所定閾値以上になるまで、上記手順A、B、C、D、Eを繰り返し実行する
ことを特徴とする請求項17に記載のコンピュータ読み取り可能な記憶媒体。 - 前記予め決められた認識モデルは長期短期記憶LSTMモデルであり、前記予め決められた認識モデルのトレーニング手順は、
所定数の分割領域サンプルを取得し、各分割領域サンプルを前記分割領域サンプルに含まれる文字で注記し、
所定数の分割領域サンプルを所定割合で第一データセット及び第二データセットに分け、かつ前記第一データセットをトレーニングセットとし、前記第二データセットをテストセットとし、
前記第一データセットをLSTMネットワークに送り込んでモデルトレーニングを行い、所定時間おきに、トレーニングして取得されたモデルを使用して前記第二データセットにおける分割領域サンプルに文字認識を行い、かつ認識された文字と前記分割領域サンプルの注記とを比較することで、認識された文字と注記との誤差を算出し、
トレーニングして取得されたモデル認識文字の誤差が発散すると、トレーニングして取得されたモデル認識文字の誤差が収束するようになるまで、予め設定されたトレーニングパラメータを調整して再トレーニングし、
トレーニングして取得されたモデル認識文字の誤差が収束すると、モデルトレーニングを終了し、生成されたモデルをトレーニングされた前記予め決められた認識モデルとする
ことを特徴とする請求項17又は18に記載のコンピュータ読み取り可能な記憶媒体。 - 前記分割領域は前記損害賠償請求書類の枠フォーマットの枠線で囲まれる最小単位の領域であり、かつ前記分割領域は枠線を含まない領域である
ことを特徴とする請求項16に記載のコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710233613.3 | 2017-04-11 | ||
CN201710233613.3A CN107220648B (zh) | 2017-04-11 | 2017-04-11 | 理赔单据的字符识别方法及服务器 |
PCT/CN2017/091363 WO2018188199A1 (zh) | 2017-04-11 | 2017-06-30 | 理赔单据的字符识别方法、装置、服务器及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019520615A true JP2019520615A (ja) | 2019-07-18 |
JP6710483B2 JP6710483B2 (ja) | 2020-06-17 |
Family
ID=59927567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018536430A Active JP6710483B2 (ja) | 2017-04-11 | 2017-06-30 | 損害賠償請求書類の文字認識方法、装置、サーバ及び記憶媒体 |
Country Status (9)
Country | Link |
---|---|
US (1) | US10650231B2 (ja) |
EP (1) | EP3432197B1 (ja) |
JP (1) | JP6710483B2 (ja) |
KR (1) | KR102171220B1 (ja) |
CN (1) | CN107220648B (ja) |
AU (1) | AU2017408799B2 (ja) |
SG (1) | SG11201900263SA (ja) |
TW (1) | TWI621077B (ja) |
WO (1) | WO2018188199A1 (ja) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107766809B (zh) * | 2017-10-09 | 2020-05-19 | 平安科技(深圳)有限公司 | 电子装置、票据信息识别方法和计算机可读存储介质 |
CN107798299B (zh) * | 2017-10-09 | 2020-02-07 | 平安科技(深圳)有限公司 | 票据信息识别方法、电子装置及可读存储介质 |
CN108319641A (zh) * | 2017-12-21 | 2018-07-24 | 无锡雅座在线科技股份有限公司 | 菜品信息录入方法及装置 |
CN108198591A (zh) * | 2017-12-28 | 2018-06-22 | 泰康保险集团股份有限公司 | 用于远程审核单据的方法与装置 |
CN110135225B (zh) * | 2018-02-09 | 2021-04-09 | 北京世纪好未来教育科技有限公司 | 样本标注方法及计算机存储介质 |
CN108595519A (zh) * | 2018-03-26 | 2018-09-28 | 平安科技(深圳)有限公司 | 热点事件分类方法、装置及存储介质 |
CN110321760A (zh) * | 2018-03-29 | 2019-10-11 | 北京和缓医疗科技有限公司 | 一种医疗单据识别方法和装置 |
CN108564035B (zh) * | 2018-04-13 | 2020-09-25 | 杭州睿琪软件有限公司 | 识别单据上记载的信息的方法及系统 |
EP3811292A4 (en) | 2018-06-21 | 2022-04-13 | Servicenow Canada Inc. | DATA EXTRACTION FROM SHORT BUSINESS DOCUMENTS |
CN109241857A (zh) * | 2018-08-13 | 2019-01-18 | 杭州睿琪软件有限公司 | 一种单据信息的识别方法及系统 |
CN109190594A (zh) * | 2018-09-21 | 2019-01-11 | 广东蔚海数问大数据科技有限公司 | 光学字符识别系统及信息提取方法 |
CN110569700B (zh) * | 2018-09-26 | 2020-11-03 | 创新先进技术有限公司 | 优化损伤识别结果的方法及装置 |
CN109492549A (zh) * | 2018-10-24 | 2019-03-19 | 杭州睿琪软件有限公司 | 一种训练样本集处理、模型训练方法及系统 |
CN109344838B (zh) * | 2018-11-02 | 2023-11-24 | 长江大学 | 发票信息自动快速识别方法、系统以及装置 |
SG11201903592RA (en) * | 2018-11-02 | 2020-06-29 | Alibaba Group Holding Ltd | Monitoring multiple system indicators |
TWI684950B (zh) * | 2018-12-12 | 2020-02-11 | 全友電腦股份有限公司 | 物種數據解析方法、系統及電腦程式產品 |
TWI703508B (zh) * | 2018-12-19 | 2020-09-01 | 洽吧智能股份有限公司 | 字元影像識別方法與系統 |
CN109784341A (zh) * | 2018-12-25 | 2019-05-21 | 华南理工大学 | 一种基于lstm神经网络的医疗单据识别方法 |
JP2020027598A (ja) * | 2018-12-27 | 2020-02-20 | 株式会社シグマクシス | 文字認識装置、文字認識方法及び文字認識プログラム |
CN109903172A (zh) * | 2019-01-31 | 2019-06-18 | 阿里巴巴集团控股有限公司 | 理赔信息提取方法和装置、电子设备 |
CN110084704A (zh) * | 2019-03-15 | 2019-08-02 | 北京水滴互联科技有限公司 | 一种互助保障服务器、系统及互助保障方法 |
SG10201904825XA (en) | 2019-05-28 | 2019-10-30 | Alibaba Group Holding Ltd | Automatic optical character recognition (ocr) correction |
CN110610175A (zh) * | 2019-08-06 | 2019-12-24 | 深圳市华付信息技术有限公司 | 一种ocr数据误标注清洗方法 |
US11481605B2 (en) | 2019-10-25 | 2022-10-25 | Servicenow Canada Inc. | 2D document extractor |
CN111291742B (zh) * | 2020-02-10 | 2023-08-04 | 北京百度网讯科技有限公司 | 对象识别方法和装置、电子设备、存储介质 |
CN111539424A (zh) * | 2020-04-21 | 2020-08-14 | 北京云从科技有限公司 | 一种基于ocr的图像处理方法、系统、设备及介质 |
US11972489B1 (en) | 2020-04-24 | 2024-04-30 | State Farm Mutual Automobile Insurance Company | Claims process assistance using models |
CN111259873B (zh) * | 2020-04-26 | 2021-02-26 | 江苏联著实业股份有限公司 | 一种表格数据提取方法及装置 |
CN112686262B (zh) * | 2020-12-28 | 2024-07-02 | 广州博士信息技术研究院有限公司 | 一种基于图像识别技术的提取数据并快速归档的方法 |
CN114241483A (zh) * | 2021-12-08 | 2022-03-25 | 中信银行股份有限公司 | 单据图像栏位信息匹配方法、装置、设备及可读存储介质 |
CN116110068A (zh) * | 2023-01-19 | 2023-05-12 | 广州盈尚信息科技有限公司 | 保单分析报表生成方法、装置、设备及可读存储介质 |
CN115981798B (zh) * | 2023-03-21 | 2023-08-01 | 北京探境科技有限公司 | 文件解析方法、装置、计算机设备及可读存储介质 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04304586A (ja) | 1991-04-01 | 1992-10-27 | Mitsubishi Electric Corp | 文字認識装置 |
JP2003256772A (ja) * | 2002-03-06 | 2003-09-12 | Ricoh Co Ltd | 文字認識装置及び記録媒体 |
TW200802137A (en) | 2006-06-16 | 2008-01-01 | Univ Nat Chiao Tung | Serial-type license plate recognition system |
TWI355853B (en) | 2008-04-25 | 2012-01-01 | Hon Hai Prec Ind Co Ltd | Image capturing device and image arranging method |
KR101028670B1 (ko) * | 2008-10-22 | 2011-04-12 | 엔에이치엔(주) | 언어모델과 ocr을 이용하여 문서에 포함된 문자열을 인식하는 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 |
JP4856235B2 (ja) | 2009-12-15 | 2012-01-18 | 富士通株式会社 | 帳票認識方法及び帳票認識装置 |
US8625113B2 (en) * | 2010-09-24 | 2014-01-07 | Ricoh Company Ltd | System and method for distributed optical character recognition processing |
CN102567764B (zh) | 2012-01-13 | 2016-03-02 | 中国工商银行股份有限公司 | 一种提高电子影像识别效率的票据凭证及系统 |
JP5753828B2 (ja) | 2012-09-27 | 2015-07-22 | 京セラドキュメントソリューションズ株式会社 | 画像処理装置及び画像処理プログラム |
CN103258198B (zh) | 2013-04-26 | 2015-12-23 | 四川大学 | 一种表格文档图像中字符提取方法 |
US9716899B2 (en) | 2013-06-27 | 2017-07-25 | Qualcomm Incorporated | Depth oriented inter-view motion vector prediction |
JP6773400B2 (ja) * | 2014-09-30 | 2020-10-21 | メディア株式会社 | 帳票認識装置、帳票認識システム、帳票認識システムのプログラム、帳票認識システムの制御方法、帳票認識システムプログラムを搭載した記録媒体 |
US9659213B2 (en) * | 2015-07-03 | 2017-05-23 | Cognizant Technology Solutions India Pvt. Ltd. | System and method for efficient recognition of handwritten characters in documents |
CN105654072B (zh) * | 2016-03-24 | 2019-03-01 | 哈尔滨工业大学 | 一种低分辨率医疗票据图像的文字自动提取和识别系统与方法 |
CN106446881B (zh) * | 2016-07-29 | 2019-05-21 | 北京交通大学 | 从医疗化验单图像中提取化验结果信息的方法 |
US20180101726A1 (en) * | 2016-10-10 | 2018-04-12 | Insurance Services Office Inc. | Systems and Methods for Optical Character Recognition for Low-Resolution Documents |
CN106557747B (zh) * | 2016-11-15 | 2018-06-22 | 平安科技(深圳)有限公司 | 识别保险单号码的方法及装置 |
JP6401806B2 (ja) * | 2017-02-14 | 2018-10-10 | 株式会社Pfu | 日付識別装置、日付識別方法及び日付識別プログラム |
-
2017
- 2017-04-11 CN CN201710233613.3A patent/CN107220648B/zh active Active
- 2017-06-30 AU AU2017408799A patent/AU2017408799B2/en active Active
- 2017-06-30 JP JP2018536430A patent/JP6710483B2/ja active Active
- 2017-06-30 WO PCT/CN2017/091363 patent/WO2018188199A1/zh active Application Filing
- 2017-06-30 KR KR1020187023693A patent/KR102171220B1/ko active IP Right Grant
- 2017-06-30 US US16/084,244 patent/US10650231B2/en active Active
- 2017-06-30 SG SG11201900263SA patent/SG11201900263SA/en unknown
- 2017-06-30 EP EP17899230.1A patent/EP3432197B1/en active Active
- 2017-10-13 TW TW106135247A patent/TWI621077B/zh active
Also Published As
Publication number | Publication date |
---|---|
US10650231B2 (en) | 2020-05-12 |
KR102171220B1 (ko) | 2020-10-29 |
EP3432197B1 (en) | 2022-07-06 |
AU2017408799B2 (en) | 2019-10-10 |
CN107220648A (zh) | 2017-09-29 |
EP3432197A1 (en) | 2019-01-23 |
JP6710483B2 (ja) | 2020-06-17 |
KR20190026641A (ko) | 2019-03-13 |
US20190147239A1 (en) | 2019-05-16 |
CN107220648B (zh) | 2018-06-22 |
AU2017408799A1 (en) | 2018-11-08 |
EP3432197A4 (en) | 2019-06-19 |
TWI621077B (zh) | 2018-04-11 |
TW201837788A (zh) | 2018-10-16 |
SG11201900263SA (en) | 2019-02-27 |
WO2018188199A1 (zh) | 2018-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6710483B2 (ja) | 損害賠償請求書類の文字認識方法、装置、サーバ及び記憶媒体 | |
US10049096B2 (en) | System and method of template creation for a data extraction tool | |
US20190171904A1 (en) | Method and apparatus for training fine-grained image recognition model, fine-grained image recognition method and apparatus, and storage mediums | |
WO2021184578A1 (zh) | 基于ocr的目标字段识别方法、装置、电子设备及存储介质 | |
WO2021151270A1 (zh) | 图像结构化数据提取方法、装置、设备及存储介质 | |
WO2018090641A1 (zh) | 识别保险单号码的方法、装置、设备及计算机可读存储介质 | |
CN109656652B (zh) | 网页图表绘制方法、装置、计算机设备和存储介质 | |
WO2020232902A1 (zh) | 异常对象识别方法、装置、计算设备和存储介质 | |
CN106649210B (zh) | 一种数据转换方法及装置 | |
CN107168635A (zh) | 信息呈现方法和装置 | |
CN114385694A (zh) | 一种数据加工处理方法、装置、计算机设备及存储介质 | |
CN113283231A (zh) | 获取签章位的方法、设置系统、签章系统及存储介质 | |
CN117765544A (zh) | 一种文档关键要素识别方法、装置、设备及介质 | |
CN117234505A (zh) | 一种交互页面生成方法、装置、设备及其存储介质 | |
CN116704528A (zh) | 票据识别核验方法、装置、计算机设备及存储介质 | |
CN113722203A (zh) | 程序测试方法及装置、电子设备和计算机可读存储介质 | |
CN106909570B (zh) | 一种数据转换方法及装置 | |
CN113936286A (zh) | 图像文本识别方法、装置、计算机设备及存储介质 | |
CN112395450A (zh) | 图片文字检测方法、装置、计算机设备及存储介质 | |
CN115145823B (zh) | 一种ui自动化测试方法、装置、计算机设备及存储介质 | |
CN114490620B (zh) | 测试方法、装置、电子设备及存储介质 | |
CN114495140B (zh) | 表格的信息提取方法、系统、设备、介质及程序产品 | |
CN114254625A (zh) | 文件检查方法、设备及存储介质 | |
CN117370817A (zh) | 数据处理方法、装置、设备、介质和程序产品 | |
CN117037178A (zh) | 数据分类模型的训练方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180919 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180919 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191016 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191023 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200526 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6710483 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |