JP2020017274A - ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステムおよび方法 - Google Patents
ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2020017274A JP2020017274A JP2019132445A JP2019132445A JP2020017274A JP 2020017274 A JP2020017274 A JP 2020017274A JP 2019132445 A JP2019132445 A JP 2019132445A JP 2019132445 A JP2019132445 A JP 2019132445A JP 2020017274 A JP2020017274 A JP 2020017274A
- Authority
- JP
- Japan
- Prior art keywords
- handwritten text
- sequence
- image
- images
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 35
- 239000013598 vector Substances 0.000 claims abstract description 67
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 230000006870 function Effects 0.000 claims abstract description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 38
- 238000007781 pre-processing Methods 0.000 claims description 29
- 238000012805 post-processing Methods 0.000 claims description 24
- 210000004027 cell Anatomy 0.000 claims description 19
- 230000000007 visual effect Effects 0.000 claims description 17
- 230000007246 mechanism Effects 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 16
- 230000004913 activation Effects 0.000 claims description 13
- 238000001994 activation Methods 0.000 claims description 13
- 230000007774 longterm Effects 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 8
- 238000013500 data storage Methods 0.000 claims description 4
- 210000002569 neuron Anatomy 0.000 claims description 4
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 3
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 2
- 230000003213 activating effect Effects 0.000 claims 1
- 230000015654 memory Effects 0.000 abstract description 21
- 238000006243 chemical reaction Methods 0.000 abstract description 4
- 238000004364 calculation method Methods 0.000 abstract description 2
- 230000008878 coupling Effects 0.000 abstract 1
- 238000010168 coupling process Methods 0.000 abstract 1
- 238000005859 coupling reaction Methods 0.000 abstract 1
- 238000002203 pretreatment Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000006872 improvement Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/30—Writer recognition; Reading and verifying signatures
- G06V40/33—Writer recognition; Reading and verifying signatures based only on signature image, e.g. static signature recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/22—Character recognition characterised by the type of writing
- G06V30/226—Character recognition characterised by the type of writing of cursive writing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Character Discrimination (AREA)
Abstract
Description
本出願は、2018年7月19日に出願されたインド特許出願第201821026934号からの優先権を主張するものである。先述の出願の内容全体は参照により本明細書に組み込まれる。
ct=ft゜ct-1+it゜ut、および
ht=ot゜tanh(ct)、ここで
ft=σ(Wfxt+Ufht-1)
it=σ(Wixt+Uiht-1)
ut=tanh(Wuxt+Uuht-1)
ot=σ(Woxt+Uoht-1)
式中、σ()およびtanh()は、要素ごとのシグモイドおよび双曲線正接演算を表し、WおよびUは、線形変換のパラメータである。最終セル状態CTsは、対応する部分画像に対するコンテキストベクトルとして使用される。
を学習する。デコーダユニットを使用して、それぞれの条件付きは、p(yt|{yt、…、yt-1}、c1=softmax(g(yt-1、ht-1、c1))としてモデリングされ、ここで、gは非線形関数であり、ht-1はデコーダユニットの隠れ状態である。
の類似性に基づいてそれぞれの時間ステップにおいてコンテキストベクトルが修正されることにより、RNNベースのエンコーダユニットおよびデコーダユニットへの拡張として採用される。一実施形態では、注意機構は、エンコーダユニットとデコーダユニットとの間のリンクを形成するコンテキストベクトルが特に長いシーケンスに対して基本的な情報を忘れる傾向がある場合があるという事実により使用される。一実施形態では、長いシーケンスは2つ以上の手書きテキスト文を含有する場合がある。i番目のデコーダ時間ステップにおけるコンテキストベクトルは以下によって与えられる。
として定義され、ここで、p(yt)は時間ステップtにおけるtrueクラスの確率である。
p(y1、y2、…、yTd)=p(y1)×p(y2|y1)×p(y3|{y1、y2})×…×p(yTd|{y1、y2、…、yTd-1})
ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のための開示されたシステムおよび方法は、走査済み手書きテキスト入力画像のテキスト行全てに対する平均として判断される性能測定基準として誤字率(CER)およびワード誤り率(WER)を使用して、IAM手書きデータベースv3:0(英語)、およびNvidia Tesla K40 GPUにおけるRIMESデータベース(フランス語)などの公的に入手可能であるデータセットにおいて評価される。ミニバッチ勾配降下は、トレーニングを加速させるために採用され、以下のように算出される、シーケンス損失の単純な拡張であるバッチ損失が最適化される。
Claims (11)
- ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステム(100)であって、
1つまたは複数のハードウェアプロセッサ(104)に動作可能に結合されて前記1つまたは複数のハードウェアプロセッサによって実行するように構成される命令を記憶する1つまたは複数の内部データ記憶デバイス(102)を備え、前記命令は、
走査済み手書きテキスト入力画像を受信するように、前記走査済み手書きテキスト入力画像から1つまたは複数の部分画像を、前記1つまたは複数の部分画像のそれぞれが前記走査済み手書きテキスト入力画像に存在する手書きテキスト行を含んで得るように、および前記1つまたは複数の部分画像を、一定の高さおよび可変の幅を有し、かつそのアスペクト比を維持する1つまたは複数のスケーリングされた部分画像にスケーリングするように構成される画像前処理モジュール(102A)と、
前記画像前処理モジュール(102A)に動作可能に結合され、かつ畳み込みニューラルネットワーク(CNN)を適用することによって前記1つまたは複数のスケーリングされた部分画像のそれぞれを1つまたは複数の機能マップに変えるように構成される特徴抽出モジュール(102B)であって、前記1つまたは複数の機能マップは対応する部分画像の視覚的特徴を含有する、特徴抽出モジュール(102B)と、
前記特徴抽出モジュール(102B)に動作可能に結合され、かつ前記1つまたは複数の機能マップに含まれる列を深さ方向に分離し、かつ対応する前記部分画像の前記1つまたは複数の機能マップの各列を連結することによって前記1つまたは複数の機能マップを特徴ベクトルのシーケンスに変換するように構成されるマップ−シーケンスモジュール(102C)と、
前記マップ−シーケンスモジュール(102C)に動作可能に結合され、かつ回帰ニューラルネットワーク(RNN)ベースのエンコーダユニットおよびデコーダユニットを使用して、特徴ベクトルのそれぞれのシーケンスと関連付けられる前記視覚的特徴をマッピングすることによって、1つまたは複数の文字セットを生成するように構成されるシーケンス学習モジュール(102D)であって、前記1つまたは複数の文字セットは前記対応する部分画像に対して認識される機械可読テキストであり、前記RNNベースのエンコーダユニットおよびデコーダユニットのエンコーダユニットは、特徴ベクトルのそれぞれのシーケンスに対してコンテキストベクトルを生成するように構成され、前記RNNベースのエンコーダユニットおよびデコーダユニットのデコーダユニットは、前記対応する部分画像に対する文字セットを生成するために特徴ベクトルのそれぞれのシーケンスに対するコンテキストベクトルにわたって条件付き確率分布を適用するように構成される、シーケンス学習モジュール(102D)と、
前記シーケンス学習モジュール(102D)に動作可能に結合され、かつ手書きテキスト出力ファイルを生成するために前記対応する部分画像のそれぞれに対して前記文字セットを組み合わせるように構成される画像後処理モジュール(102E)であって、前記手書きテキスト出力ファイルは前記走査済み手書きテキスト入力画像の認識されたテキストバージョンである、画像後処理モジュール(102E)と、に含まれる、システム。 - 前記画像前処理モジュールは、左側および右側両方における対応する背景画素を有するバッチに含まれる前記1つまたは複数の部分画像をパディングして前記バッチにおける最も幅広い部分画像の幅をマッチさせることによって寸法の一様性を維持するためのミニバッチトレーニング技法を採用するように、およびランダムな歪みを前記1つまたは複数の部分画像に取り込んで前記1つまたは複数の部分画像における変形を生じさせるように、さらに構成される、請求項1に記載のシステム。
- 前記CNNは、leaky ReLU活性化によって連続的に積み重ねられる7つの畳み込み層を含み、前記畳み込み層の前記leaky ReLU活性化は、内部共変量シフトを防止し、かつ次の畳み込み層に伝わる前に前記トレーニングを加速するためのバッチ正規化、および、前記1つまたは複数の部分画像の次元性を低減するために前記畳み込み層の少なくともいくつかの前記活性化に対して行うプーリング演算機構を行うことによって構成される、請求項1に記載のシステム。
- 前記エンコーダユニットは2つの長・短期記憶(LSTM)セルを組み合わせることによって形成される双方向ネットワークであり、前記デコーダユニットは単一のLSTMセルを有する一方向ネットワークである、請求項1に記載のシステム。
- 前記エンコーダユニットおよび前記デコーダユニットは、前記LSTMセルのそれぞれにおける256の隠れユニットを有する2つの回帰層を含む、請求項4に記載のシステム。
- 前記RNNベースのエンコーダユニットおよびデコーダユニットは、残差接続によって含まれている回帰ユニットを通した後続の回帰層への勾配流を促進すること、深さ方向接続に従ってドロップアウト機構を採用することによって長期依存性を捕らえるために回帰接続を修正することなく前記エンコーダユニットを規則化すること、層正規化によってミニバッチトレーニングによる前記共変量シフトを防止するために神経細胞を活性化すること、および、前記注意機構を通して、前記デコーダユニットの隠れ状態を前記エンコーダユニットの隠れ状態と合わせることによって構成される、請求項1に記載のシステム。
- ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのプロセッサ実施方法(300)であって、
画像前処理モジュールによって、受信した走査済み手書きテキスト入力画像を前処理するステップ(302)であって、前記前処理するステップは、
前記受信した走査済み手書きテキスト入力画像から1つまたは複数の部分画像を、それぞれの部分画像が前記走査済み手書きテキスト入力画像に存在する手書きテキスト行を含んで得ること(302a)、および
前記1つまたは複数の部分画像を、一定の高さおよび可変の幅を有し、かつそのアスペクト比を維持する1つまたは複数のスケーリングされた部分画像にスケーリングすること(302b)を含む、前処理するステップと、
特徴抽出モジュールによって、畳み込みニューラルネットワーク(CNN)を適用することによって前記1つまたは複数のスケーリングされた部分画像のそれぞれを1つまたは複数の機能マップに変えるステップであって、前記1つまたは複数の機能マップは対応する部分画像の視覚的特徴を含有する、変えるステップ(304)と、
マップ−シーケンスモジュールによって、前記1つまたは複数の機能マップに含まれる列を深さ方向に分離し、かつ対応する前記部分画像の前記1つまたは複数の機能マップの各列を連結することによって前記1つまたは複数の機能マップを特徴ベクトルのシーケンスに変換するステップ(306)と、
シーケンス学習モジュールによって、回帰ニューラルネットワーク(RNN)ベースのエンコーダユニットおよびデコーダユニットを使用して、特徴ベクトルのそれぞれのシーケンスと関連付けられる前記視覚的特徴をマッピングすることによって、1つまたは複数の文字セットを生成するステップであって、前記1つまたは複数の文字セットは前記対応する部分画像に対して認識される機械可読テキストであり、前記RNNベースのエンコーダユニットおよびデコーダユニットのエンコーダユニットは、特徴ベクトルのそれぞれのシーケンスに対してコンテキストベクトルを生成するように構成され、前記RNNベースのエンコーダユニットおよびデコーダユニットのデコーダユニットは、前記対応する部分画像に対する文字セットを生成するために特徴ベクトルのそれぞれのシーケンスに対する前記コンテキストベクトルにわたって条件付き確率分布を適用するように構成される、生成するステップ(308)と、
画像後処理モジュールによって前記文字セットを後処理するステップであって、前記後処理するステップは、手書きテキスト出力ファイルを生成するために前記対応する部分画像のそれぞれに対して前記文字セットを組み合わせることを含み、前記手書きテキスト出力ファイルは前記走査済み手書きテキスト入力画像の認識されたテキストバージョンである、後処理するステップ(310)と、を含む、プロセッサ実施方法。 - 前記前処理するステップは、左側および右側両方における対応する背景画素を有するバッチに含まれる前記1つまたは複数の部分画像をパディングして前記バッチにおける最も幅広い部分画像の幅をマッチさせることによって寸法の一様性を維持するためのミニバッチトレーニング技法を採用することと、ランダムな歪みを前記1つまたは複数の部分画像に取り込んで前記1つまたは複数の部分画像における変形を生じさせることと、をさらに含む、請求項7に記載の方法。
- 前記CNNは、leaky ReLU活性化によって連続的に積み重ねられる7つの畳み込み層であって、該leaky ReLU活性化は、内部共変量シフトを防止し、かつ次の畳み込み層に伝わる前に前記トレーニングを加速するためのバッチ正規化、および、前記1つまたは複数の部分画像の次元性を低減するために前記畳み込み層の少なくともいくつかの前記活性化に対して行うプーリング演算機構によって構成される、請求項7に記載の方法。
- 前記RNNベースのエンコーダユニットおよびデコーダユニットは、含まれている回帰ユニットを通した後続の回帰層への勾配流を促進するための残差接続、長期依存性を捕らえるために前記回帰接続を修正することなく前記エンコーダユニットを規則化するために深さ方向接続に従って採用されたドロップアウト機構、ミニバッチトレーニングによる前記共変量シフトを防止するために神経細胞を活性化するための層正規化、および、前記デコーダユニットの隠れ状態を前記エンコーダユニットの隠れ状態と合わせるための注意機構によって構成される、請求項7に記載の方法。
- コンピュータ可読プログラムが具現化されている非一時的なコンピュータ可読媒体を含むコンピュータプログラム製品であって、前記コンピュータ可読プログラムは、コンピューティングデバイス上で実行される時、前記コンピューティングデバイスに、
画像前処理モジュールによって、受信した走査済み手書きテキスト入力画像を前処理することであって、前記前処理することは、前記受信した走査済み手書きテキスト入力画像から1つまたは複数の部分画像を、それぞれの部分画像が前記走査済み手書きテキスト入力画像に存在する手書きテキスト行を含んで得ること、および前記1つまたは複数の部分画像を、一定の高さおよび可変の幅を有し、かつそのアスペクト比を維持する1つまたは複数のスケーリングされた部分画像にスケーリングすることを含む、前処理することと、
畳み込みニューラルネットワーク(CNN)を適用することによって、特徴抽出モジュールによる前記1つまたは複数のスケーリングされた部分画像のそれぞれを1つまたは複数の機能マップに変えることであって、前記1つまたは複数の機能マップは対応する部分画像の視覚的特徴を含有する、変えることと、
前記1つまたは複数の機能マップに含まれる列を深さ方向に分離し、かつ前記対応する部分画像の前記1つまたは複数の機能マップの各列を連結することによって、マップ−シーケンスモジュールによる前記1つまたは複数の機能マップを特徴ベクトルのシーケンスに変換することと、
回帰ニューラルネットワーク(RNN)ベースのエンコーダユニットおよびデコーダユニットを使用して、特徴ベクトルのそれぞれのシーケンスと関連付けられる前記視覚的特徴をマッピングすることによって、シーケンス学習モジュールによって1つまたは複数の文字セットを生成することであって、前記1つまたは複数の文字セットは前記対応する部分画像に対して認識される機械可読テキストであり、前記RNNベースのエンコーダユニットおよびデコーダユニットのエンコーダユニットは、特徴ベクトルのそれぞれのシーケンスに対してコンテキストベクトルを生成するように構成され、前記RNNベースのエンコーダユニットおよびデコーダユニットのデコーダユニットは、前記対応する部分画像に対する文字セットを生成するために特徴ベクトルのそれぞれのシーケンスに対する前記コンテキストベクトルにわたって条件付き確率分布を適用するように構成される、生成することと、
画像後処理モジュールによって前記文字セットを後処理することであって、前記後処理することは、手書きテキスト出力ファイルを生成するために前記対応する部分画像のそれぞれに対して前記文字セットを組み合わせることを含み、前記手書きテキスト出力ファイルは前記走査済み手書きテキスト入力画像の認識されたテキストバージョンである、後処理することと、を行わせる、コンピュータプログラム製品。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN201821026934 | 2018-07-19 | ||
IN201821026934 | 2018-07-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020017274A true JP2020017274A (ja) | 2020-01-30 |
JP7311341B2 JP7311341B2 (ja) | 2023-07-19 |
Family
ID=67145731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019132445A Active JP7311341B2 (ja) | 2018-07-19 | 2019-07-18 | ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステムおよび方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10839246B2 (ja) |
EP (1) | EP3598339A1 (ja) |
JP (1) | JP7311341B2 (ja) |
CN (1) | CN110738090B (ja) |
AU (1) | AU2019206010B2 (ja) |
CA (1) | CA3050025C (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021149333A (ja) * | 2020-03-17 | 2021-09-27 | 株式会社東芝 | 画像処理装置 |
KR20220068880A (ko) * | 2020-11-19 | 2022-05-26 | 네이버 주식회사 | 인공지능 모델을 이용한 동영상 인코딩 최적화 방법, 시스템, 및 컴퓨터 프로그램 |
JP7417192B2 (ja) | 2020-02-13 | 2024-01-18 | 京セラドキュメントソリューションズ株式会社 | 画像処理システムおよび画像処理プログラム |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10839543B2 (en) * | 2019-02-26 | 2020-11-17 | Baidu Usa Llc | Systems and methods for depth estimation using convolutional spatial propagation networks |
US11388416B2 (en) * | 2019-03-21 | 2022-07-12 | Qualcomm Incorporated | Video compression using deep generative models |
CN111753822B (zh) * | 2019-03-29 | 2024-05-24 | 北京市商汤科技开发有限公司 | 文本识别方法及装置、电子设备和存储介质 |
US10984279B2 (en) * | 2019-06-13 | 2021-04-20 | Wipro Limited | System and method for machine translation of text |
US11023783B2 (en) | 2019-09-11 | 2021-06-01 | International Business Machines Corporation | Network architecture search with global optimization |
US10943353B1 (en) * | 2019-09-11 | 2021-03-09 | International Business Machines Corporation | Handling untrainable conditions in a network architecture search |
CN111291696B (zh) * | 2020-02-19 | 2024-03-22 | 南京大学 | 一种基于卷积神经网络的手写东巴文识别方法 |
CN111353313A (zh) * | 2020-02-25 | 2020-06-30 | 四川翼飞视科技有限公司 | 基于进化神经网络架构搜索的情感分析模型构建方法 |
CN111401374A (zh) * | 2020-03-06 | 2020-07-10 | 湖南快乐阳光互动娱乐传媒有限公司 | 基于多任务的模型训练方法、字符识别方法及装置 |
CN111444834A (zh) * | 2020-03-26 | 2020-07-24 | 同盾控股有限公司 | 图像文本行检测方法、装置、设备及存储介质 |
CN111553363B (zh) * | 2020-04-20 | 2023-08-04 | 北京易道博识科技有限公司 | 一种端到端的图章识别方法及系统 |
CN111639527A (zh) * | 2020-04-23 | 2020-09-08 | 平安国际智慧城市科技股份有限公司 | 英文手写文本识别方法、装置、电子设备及存储介质 |
CN111786738B (zh) * | 2020-07-01 | 2022-06-03 | 中国人民解放军陆军工程大学 | 基于长短期记忆的抗干扰学习的网络结构及学习方法 |
US11461988B2 (en) * | 2020-07-23 | 2022-10-04 | Suresh Babu Revoled Konti | Method of transferring data between unconnected computing devices |
CN112926372B (zh) * | 2020-08-22 | 2023-03-10 | 清华大学 | 基于序列变形的场景文字检测方法及系统 |
CN114120336B (zh) * | 2020-08-25 | 2023-08-08 | 本源量子计算科技(合肥)股份有限公司 | 手写数字识别方法、系统、设备及计算机可读存储介质 |
CN112052852B (zh) * | 2020-09-09 | 2023-12-29 | 国家气象信息中心 | 一种基于深度学习的手写气象档案资料的字符识别方法 |
CN112183544A (zh) * | 2020-09-29 | 2021-01-05 | 厦门大学 | 一种融合双通道的三层架构数学公式识别方法、系统和存储设备 |
CN112257847A (zh) * | 2020-10-16 | 2021-01-22 | 昆明理工大学 | 一种基于CNN和LSTM预测地磁Kp指数的方法 |
CN112508023A (zh) * | 2020-10-27 | 2021-03-16 | 重庆大学 | 基于深度学习的零件喷码字符端到端识别方法 |
RU2768211C1 (ru) * | 2020-11-23 | 2022-03-23 | Общество с ограниченной ответственностью "Аби Продакшн" | Оптическое распознавание символов посредством комбинации моделей нейронных сетей |
WO2022125777A1 (en) * | 2020-12-11 | 2022-06-16 | Ancestry.Com Operations Inc. | Handwriting recognition |
CN112883818A (zh) * | 2021-01-26 | 2021-06-01 | 上海西井信息科技有限公司 | 文本图像识别方法、系统、设备及存储介质 |
CN112686219B (zh) * | 2021-03-11 | 2021-06-18 | 北京世纪好未来教育科技有限公司 | 手写文本识别方法及计算机存储介质 |
CN113313127B (zh) * | 2021-05-18 | 2023-02-14 | 华南理工大学 | 文本图像识别方法、装置、计算机设备和存储介质 |
CN113255668B (zh) * | 2021-06-22 | 2021-10-08 | 北京世纪好未来教育科技有限公司 | 文本识别方法、装置、电子设备、存储介质 |
CN113269189B (zh) * | 2021-07-20 | 2021-10-08 | 北京世纪好未来教育科技有限公司 | 文本识别模型的构建方法、文本识别方法、装置及设备 |
CN113283427B (zh) * | 2021-07-20 | 2021-10-01 | 北京世纪好未来教育科技有限公司 | 文本识别方法、装置、设备及介质 |
CN113344145B (zh) * | 2021-08-02 | 2021-11-19 | 智道网联科技(北京)有限公司 | 字符识别方法、装置、电子设备和存储介质 |
CN113591764B (zh) * | 2021-08-09 | 2024-06-07 | 广州博冠信息科技有限公司 | 手势识别方法、装置、存储介质和电子设备 |
CN113591882A (zh) * | 2021-08-11 | 2021-11-02 | 卓尔智联(武汉)研究院有限公司 | 汽车配件识别方法、计算机装置及可读存储介质 |
CN113963339A (zh) * | 2021-09-02 | 2022-01-21 | 泰康保险集团股份有限公司 | 一种信息提取方法和装置 |
CN113807340B (zh) * | 2021-09-07 | 2024-03-15 | 南京信息工程大学 | 一种基于注意力机制的不规则自然场景文本识别方法 |
CN113919294A (zh) * | 2021-09-29 | 2022-01-11 | 北京搜狗科技发展有限公司 | 公式识别模型的训练方法、装置和用于模型训练的装置 |
CN113837186A (zh) * | 2021-11-29 | 2021-12-24 | 中央民族大学 | 一种基于卷积神经网络的东巴象形文字识别方法及装置 |
CN114283411B (zh) * | 2021-12-20 | 2022-11-15 | 北京百度网讯科技有限公司 | 文本识别方法、文本识别模型的训练方法及装置 |
CN114118075B (zh) * | 2022-01-28 | 2022-04-22 | 北京易真学思教育科技有限公司 | 文本识别方法、装置、电子设备和存储介质 |
CN114821601A (zh) * | 2022-04-14 | 2022-07-29 | 北京知云再起科技有限公司 | 一种基于深度学习的端到端英文手写体文本检测识别技术 |
CN114998673B (zh) * | 2022-05-11 | 2023-10-13 | 河海大学 | 一种基于本地自注意力机制的大坝缺陷时序图像描述方法 |
CN115577118B (zh) * | 2022-09-30 | 2023-05-30 | 南京信息工程大学 | 一种基于混合分组排序和动态实体记忆规划的文本生成方法 |
CN115797952B (zh) * | 2023-02-09 | 2023-05-05 | 山东山大鸥玛软件股份有限公司 | 基于深度学习的手写英文行识别方法及系统 |
CN116630979B (zh) * | 2023-04-10 | 2024-04-30 | 雄安创新研究院 | 一种ocr识别方法、系统、存储介质和边缘设备 |
CN118095210B (zh) * | 2024-04-28 | 2024-06-25 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、产品、设备和介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3433795A4 (en) | 2016-03-24 | 2019-11-13 | Ramot at Tel-Aviv University Ltd. | METHOD AND SYSTEM FOR CONVERTING A TEXT IMAGE |
US10354168B2 (en) | 2016-04-11 | 2019-07-16 | A2Ia S.A.S. | Systems and methods for recognizing characters in digitized documents |
US9881208B2 (en) | 2016-06-20 | 2018-01-30 | Machine Learning Works, LLC | Neural network based recognition of mathematical expressions |
US10846523B2 (en) | 2016-11-14 | 2020-11-24 | Kodak Alaris Inc. | System and method of character recognition using fully convolutional neural networks with attention |
US10733380B2 (en) * | 2017-05-15 | 2020-08-04 | Thomson Reuters Enterprise Center Gmbh | Neural paraphrase generator |
CN107180247A (zh) * | 2017-05-19 | 2017-09-19 | 中国人民解放军国防科学技术大学 | 基于选择性注意力卷积神经网络的关系分类器及其方法 |
US10217028B1 (en) * | 2017-08-22 | 2019-02-26 | Northrop Grumman Systems Corporation | System and method for distributive training and weight distribution in a neural network |
KR20200055760A (ko) * | 2017-09-19 | 2020-05-21 | 라모트 앳 텔-아비브 유니버시티 리미티드 | 이미지 컨텐츠 인식 방법 및 장치 |
US10262235B1 (en) * | 2018-02-26 | 2019-04-16 | Capital One Services, Llc | Dual stage neural network pipeline systems and methods |
CN108509881A (zh) | 2018-03-22 | 2018-09-07 | 五邑大学 | 一种无切分的脱机手写汉字文本识别方法 |
-
2019
- 2019-07-03 EP EP19184180.8A patent/EP3598339A1/en active Pending
- 2019-07-10 US US16/507,385 patent/US10839246B2/en active Active
- 2019-07-16 AU AU2019206010A patent/AU2019206010B2/en active Active
- 2019-07-17 CA CA3050025A patent/CA3050025C/en active Active
- 2019-07-18 JP JP2019132445A patent/JP7311341B2/ja active Active
- 2019-07-19 CN CN201910654750.3A patent/CN110738090B/zh active Active
Non-Patent Citations (4)
Title |
---|
BAOGUANG SHI ET AL.: "An End-to-End Trainable Neural Network for Image-Based Sequence Recognition and Its Application to S", [ONLINE], JPN6023017424, November 2017 (2017-11-01), ISSN: 0005049297 * |
BAOGUANG SHI ET AL.: "ASTER: An Attentional Scene Text Recognizer with Flexible Rectification", [ONLINE], JPN6023017429, 24 June 2018 (2018-06-24), ISSN: 0005049299 * |
FENFEN SHENG ET AL.: "End-to-End Chinese Image Text Recognition with Attention Model", [ONLINE], JPN7023001671, 2017, pages 180 - 189, XP047453546, ISSN: 0005049298, DOI: 10.1007/978-3-319-70090-8_19 * |
JOAN PUIGCERVER ET AL.: "Are Multidimensional Recurrent Layers Really Necessary for Handwritten Text Recognition?", [ONLINE], JPN6023017422, 2017, ISSN: 0005049300 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7417192B2 (ja) | 2020-02-13 | 2024-01-18 | 京セラドキュメントソリューションズ株式会社 | 画像処理システムおよび画像処理プログラム |
JP2021149333A (ja) * | 2020-03-17 | 2021-09-27 | 株式会社東芝 | 画像処理装置 |
JP7293157B2 (ja) | 2020-03-17 | 2023-06-19 | 株式会社東芝 | 画像処理装置 |
KR20220068880A (ko) * | 2020-11-19 | 2022-05-26 | 네이버 주식회사 | 인공지능 모델을 이용한 동영상 인코딩 최적화 방법, 시스템, 및 컴퓨터 프로그램 |
KR102472971B1 (ko) * | 2020-11-19 | 2022-12-02 | 네이버 주식회사 | 인공지능 모델을 이용한 동영상 인코딩 최적화 방법, 시스템, 및 컴퓨터 프로그램 |
Also Published As
Publication number | Publication date |
---|---|
AU2019206010A1 (en) | 2020-02-06 |
US20200026951A1 (en) | 2020-01-23 |
CA3050025A1 (en) | 2020-01-19 |
CA3050025C (en) | 2021-11-02 |
JP7311341B2 (ja) | 2023-07-19 |
CN110738090A (zh) | 2020-01-31 |
EP3598339A1 (en) | 2020-01-22 |
US10839246B2 (en) | 2020-11-17 |
CN110738090B (zh) | 2023-10-27 |
AU2019206010B2 (en) | 2023-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7311341B2 (ja) | ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステムおよび方法 | |
Chowdhury et al. | An efficient end-to-end neural model for handwritten text recognition | |
Li et al. | Highly efficient forward and backward propagation of convolutional neural networks for pixelwise classification | |
US10417525B2 (en) | Object recognition with reduced neural network weight precision | |
GB2571825A (en) | Semantic class localization digital environment | |
CN111783705A (zh) | 一种基于注意力机制的文字识别方法及系统 | |
WO2023160472A1 (zh) | 一种模型训练方法及相关设备 | |
Ahmad et al. | Offline Urdu Nastaleeq optical character recognition based on stacked denoising autoencoder | |
CN112329760A (zh) | 基于空间变换网络端到端印刷体蒙古文识别翻译的方法 | |
WO2023236977A1 (zh) | 一种数据处理方法及相关设备 | |
Shamsaldin et al. | A study of the convolutional neural networks applications | |
US11568140B2 (en) | Optical character recognition using a combination of neural network models | |
CN111738169A (zh) | 一种基于端对端网络模型的手写公式识别方法 | |
Hou et al. | HAM: Hidden anchor mechanism for scene text detection | |
CN114863407B (zh) | 一种基于视觉语言深度融合的多任务冷启动目标检测方法 | |
CN111985525A (zh) | 基于多模态信息融合处理的文本识别方法 | |
CN113435210A (zh) | 社交图片文本识别方法、装置、计算机设备及存储介质 | |
Ko et al. | Convolutional neural networks for character-level classification | |
CN116703944A (zh) | 图像分割方法、图像分割装置、电子设备及存储介质 | |
Hemanth et al. | CNN-RNN BASED HANDWRITTEN TEXT RECOGNITION. | |
JP2023007432A (ja) | コンテンツアウェアおよびスタイルアウェアデータを増強することによる筆跡認識方法および装置 | |
CN116095183A (zh) | 一种数据压缩方法以及相关设备 | |
Zhang et al. | Byte-level recursive convolutional auto-encoder for text | |
Zhang et al. | Compressed densenet for lightweight character recognition | |
Sharma et al. | Towards Faster Offline Handwriting Recognition Using Temporal Convolution Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220613 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230502 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230608 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230706 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7311341 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |