JP7311341B2 - ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステムおよび方法 - Google Patents

ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステムおよび方法 Download PDF

Info

Publication number
JP7311341B2
JP7311341B2 JP2019132445A JP2019132445A JP7311341B2 JP 7311341 B2 JP7311341 B2 JP 7311341B2 JP 2019132445 A JP2019132445 A JP 2019132445A JP 2019132445 A JP2019132445 A JP 2019132445A JP 7311341 B2 JP7311341 B2 JP 7311341B2
Authority
JP
Japan
Prior art keywords
sub
images
handwritten text
image
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019132445A
Other languages
English (en)
Other versions
JP2020017274A (ja
Inventor
チョウドゥリ、アリンダム
ヴィグ、ロベケシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tata Consultancy Services Ltd
Original Assignee
Tata Consultancy Services Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tata Consultancy Services Ltd filed Critical Tata Consultancy Services Ltd
Publication of JP2020017274A publication Critical patent/JP2020017274A/ja
Application granted granted Critical
Publication of JP7311341B2 publication Critical patent/JP7311341B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/30Writer recognition; Reading and verifying signatures
    • G06V40/33Writer recognition; Reading and verifying signatures based only on signature image, e.g. static signature recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/226Character recognition characterised by the type of writing of cursive writing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Description

優先権の主張
本出願は、2018年7月19日に出願されたインド特許出願第201821026934号からの優先権を主張するものである。先述の出願の内容全体は参照により本明細書に組み込まれる。
本明細書における開示は、一般的に、オフラインモードでの手書きテキスト認識に関し、より詳細には、ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステムおよび方法に関する。
走査済み手書きテキスト画像からのオフライン手書きテキスト認識(HTR)は、現在のデジタル世界において大量の手書き走査文書または報告書をデジタル化しようとする企業にとって重要な問題である。オフライン手書きテキスト認識(HTR)は、テキスト画像に加えてストローク情報および軌道のような属性を利用するオンラインモードと比較してかなり困難であるの対し、オフラインモードは、特徴抽出に利用可能な文書/報告書のテキスト画像のみを有する。
技術的に、手書きテキスト認識(HTR)は、シーケンスマッチング問題として明確に表されている。この場合、文書または報告書のテキスト行などの入力データから抽出された特徴のシーケンスは、主に隠れマルコフモデル(HMM)を使用して、入力データに相当するテキストからの文字で構成される出力シーケンスにマッチさせる。しかしながら、隠れマルコフモデル(HMM)は、それぞれの観察が現状のみに頼るマルコフ仮定により、入力テキストシーケンスにおけるコンテキスト情報を活用できない。回帰ニューラルネットワーク(RNN)によって、隠し状態におけるコンテキスト情報を符号化する、入力テキストシーケンスにおけるコンテキスト情報を使用するこの問題が対処された。それにもかかわらず、回帰ニューラルネットワーク(RNN)の使用は、RNN目的関数がそれぞれの時間ステップにおける別個のトレーニング信号を必要とするため、あるシーケンスにおける個々の特性がセグメント化される場合があるシナリオに限定される。
HMMとRNNとを組み合わせるハイブリッドアーキテクチャに基づくさまざまな改善されたシステムおよびモデルが当技術分野において利用可能である。RNNと組み合わせたコネクショニスト時系列分類法(Connectionist Temporal Classification)(CTC)の使用は、効果的な解決策であることが証明され、この場合、コネクショニスト時系列分類法(CTC)によって、ネットワークは、入力シーケンスを出力ラベルのシーケンスに直接マッピングすることによって、セグメント化入力の必要性をなくすことができる。しかしながら、RNN-CTCモデルの性能は、RNNに対する入力シーケンスを構成するために走査済み手書きテキスト画像からの手作業による特徴の使用に依然限定されている。
多次元の回帰ニューラルネットワーク(MDRNN)は、2つの軸に沿って入力テキスト画像を処理することによって両方向における長期依存性を学習する多次元RNN層の階層を使用する手書きテキスト認識(HTR)用の第1のエンドツーエンドモデルとして知られている。多次元回帰ニューラルネットワーク(MDRNN)において、特性の空間構造は、水平軸に沿ってシーケンス情報を符号化する間に垂直軸に合わせてキャプチャされる。しかしながら、同じ視覚的特徴を抽出する標準的な畳み込み演算と比較して、定式化は計算上費用が高い。畳み込みニューラルネットワーク(CNN)と深層1次元RNN-CTCモデルとを組み合わせる合成アーキテクチャによって標準的な手書きテキスト認識(HTR)のベンチマークに対してより良い性能がもたらされるが、より良い精度、より少ないメモリ消費、およびより少ない計算数の手書きテキスト認識(HTR)の効率的なやり方は、常に改善すべき部分である。
本開示の実施形態は、従来のシステムにおける発明者によって認識される上述した技術的な問題の1つまたは複数に対する解決策として、技術的な改善点を提示する。
一態様において、ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステムであって、1つまたは複数のハードウェアプロセッサに動作可能に結合されて1つまたは複数のハードウェアプロセッサによって実行するように構成される命令を記憶する1つまたは複数の内部データ記憶デバイスを備え、該命令は、走査済み手書きテキスト入力画像を受信するように、走査済み手書きテキスト入力画像から1つまたは複数の部分画像を、1つまたは複数の部分画像のそれぞれが走査済み手書きテキスト入力画像に存在する手書きテキスト行を含んで得るように、および1つまたは複数の部分画像を、一定の高さおよび可変の幅を有し、かつそのアスペクト比を維持する1つまたは複数のスケーリングされた部分画像にスケーリングするように構成される画像前処理モジュールと、画像前処理モジュールに動作可能に結合され、かつ畳み込みニューラルネットワーク(CNN)を適用することによって1つまたは複数のスケーリングされた部分画像のそれぞれを1つまたは複数の機能マップに変えるように構成される特徴抽出モジュールであって、1つまたは複数の機能マップは対応する部分画像の視覚的特徴を含有する、特徴抽出モジュールと、特徴抽出モジュールに動作可能に結合され、かつ1つまたは複数の機能マップに含まれる列を深さ方向に分離し、かつ対応する部分画像の1つまたは複数の機能マップの各列を連結することによって1つまたは複数の機能マップを特徴ベクトルのシーケンスに変換するように構成されるマップ-シーケンスモジュールと、マップ-シーケンスモジュールに動作可能に結合され、かつ回帰ニューラルネットワーク(RNN)ベースのエンコーダユニットおよびデコーダユニットを使用して、特徴ベクトルのそれぞれのシーケンスと関連付けられる視覚的特徴をマッピングすることによって、1つまたは複数の文字セットを生成するように構成されるシーケンス学習モジュールであって、1つまたは複数の文字セットは対応する部分画像に対して認識される機械可読テキストであり、RNNベースのエンコーダユニットおよびデコーダユニットのエンコーダユニットは、特徴ベクトルのそれぞれのシーケンスに対してコンテキストベクトルを生成するように構成され、RNNベースのエンコーダユニットおよびデコーダユニットのデコーダユニットは、対応する部分画像に対する文字セットを生成するために特徴ベクトルのそれぞれのシーケンスに対するコンテキストベクトルにわたって条件付き確率分布を適用するように構成される、シーケンス学習モジュールと、シーケンス学習モジュールに動作可能に結合され、かつ手書きテキスト出力ファイルを生成するために対応する部分画像のそれぞれに対して文字セットを組み合わせるように構成される画像後処理モジュールであって、手書きテキスト出力ファイルは走査済み手書きテキスト入力画像の認識されたテキストバージョンである、画像後処理モジュールと、に含まれる、システムが提供される。
別の態様では、ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのプロセッサ実施方法であって、画像前処理モジュールによって受信した走査済み手書きテキスト入力画像を前処理するステップであって、前処理するステップは、受信した走査済み手書きテキスト入力画像から1つまたは複数の部分画像を、それぞれの部分画像が走査済み手書きテキスト入力画像に存在する手書きテキスト行を含んで得ること、および1つまたは複数の部分画像を、一定の高さおよび可変の幅を有し、かつそのアスペクト比を維持する1つまたは複数のスケーリングされた部分画像にスケーリングすることを含む、前処理するステップと、特徴抽出モジュールによって、畳み込みニューラルネットワーク(CNN)を適用することによって1つまたは複数のスケーリングされた部分画像のそれぞれを1つまたは複数の機能マップに変えるステップであって、1つまたは複数の機能マップは対応する部分画像の視覚的特徴を含有する、変えるステップと、マップ-シーケンスモジュールによって、1つまたは複数の機能マップに含まれる列を深さ方向に分離し、かつ対応する部分画像の1つまたは複数の機能マップの各列を連結することによって1つまたは複数の機能マップを特徴ベクトルのシーケンスに変換するステップと、シーケンス学習モジュールによって、回帰ニューラルネットワーク(RNN)ベースのエンコーダユニットおよびデコーダユニットを使用して、特徴ベクトルのそれぞれのシーケンスと関連付けられる視覚的特徴をマッピングすることによって、1つまたは複数の文字セットを生成するステップであって、1つまたは複数の文字セットは対応する部分画像に対して認識される機械可読テキストであり、RNNベースのエンコーダユニットおよびデコーダユニットのエンコーダユニットは、特徴ベクトルのそれぞれのシーケンスに対してコンテキストベクトルを生成するように構成され、RNNベースのエンコーダユニットおよびデコーダユニットのデコーダユニットは、対応する部分画像に対する文字セットを生成するために特徴ベクトルのそれぞれのシーケンスに対するコンテキストベクトルにわたって条件付き確率分布を適用するように構成される、生成するステップと、画像後処理モジュールによって文字セットを後処理するステップであって、後処理するステップは、手書きテキスト出力ファイルを生成するために対応する部分画像のそれぞれに対して文字セットを組み合わせることを含み、手書きテキスト出力ファイルは走査済み手書きテキスト入力画像の認識されたテキストバージョンである、後処理するステップと、を含む、プロセッサ実施方法が提供される。
さらに別の態様では、コンピュータ可読プログラムが具現化されている非一時的なコンピュータ可読媒体を含むコンピュータプログラム製品であって、コンピュータ可読プログラムは、コンピューティングデバイス上で実行される時、コンピューティングデバイスに、画像前処理モジュールによって受信した走査済み手書きテキスト入力画像を前処理することであって、前処理することは、受信した走査済み手書きテキスト入力画像から1つまたは複数の部分画像を、それぞれの部分画像が走査済み手書きテキスト入力画像に存在する手書きテキスト行を含んで得ること、および1つまたは複数の部分画像を、一定の高さおよび可変の幅を有し、かつそのアスペクト比を維持する1つまたは複数のスケーリングされた部分画像にスケーリングすることを含む、前処理することと、畳み込みニューラルネットワーク(CNN)を適用することによって、特徴抽出モジュールによる1つまたは複数のスケーリングされた部分画像のそれぞれを1つまたは複数の機能マップに変えることであって、1つまたは複数の機能マップは対応する部分画像の視覚的特徴を含有する、変えることと、1つまたは複数の機能マップに含まれる列を深さ方向に分離し、かつ対応する部分画像の1つまたは複数の機能マップの各列を連結することによって、マップ-シーケンスモジュールによる1つまたは複数の機能マップを特徴ベクトルのシーケンスに変換することと、回帰ニューラルネットワーク(RNN)ベースのエンコーダユニットおよびデコーダユニットを使用して、特徴ベクトルのそれぞれのシーケンスと関連付けられる視覚的特徴をマッピングすることによって、シーケンス学習モジュールによって1つまたは複数の文字セットを生成することであって、1つまたは複数の文字セットは対応する部分画像に対して認識される機械可読テキストであり、RNNベースのエンコーダユニットおよびデコーダユニットのエンコーダユニットは、特徴ベクトルのそれぞれのシーケンスに対してコンテキストベクトルを生成するように構成され、RNNベースのエンコーダユニットおよびデコーダユニットのデコーダユニットは、対応する部分画像に対する文字セットを生成するために特徴ベクトルのそれぞれのシーケンスに対するコンテキストベクトルにわたって条件付き確率分布を適用するように構成される、生成することと、画像後処理モジュールによって文字セットを後処理することであって、後処理することは、手書きテキスト出力ファイルを生成するために対応する部分画像のそれぞれに対して文字セットを組み合わせることを含み、手書きテキスト出力ファイルは走査済み手書きテキスト入力画像の認識されたテキストバージョンである、後処理することと、を行わせる、コンピュータプログラム製品が提供される。
本開示の一実施形態では、画像前処理モジュールは、左側および右側両方における対応する背景画素を有するバッチに含まれる1つまたは複数の部分画像をパディングしてバッチにおける最も幅広い部分画像の幅をマッチさせることによって寸法の一様性を維持するためのミニバッチトレーニング技法を採用するように、およびランダムな歪みを1つまたは複数の部分画像に取り込んで1つまたは複数の部分画像における変形を生じさせるように、さらに構成される。
本開示の一実施形態では、CNNは、Leaky ReLU活性化によって連続的に積み重ねられる7つの畳み込み層を含む。畳み込み層のLeaky ReLU活性化は、内部共変量シフトを防止し、かつ次の畳み込み層に伝わる前にトレーニングを加速するためのバッチ正規化、および、1つまたは複数の部分画像の次元性を低減するために畳み込み層の少なくともいくつかの活性化に対して行うプーリング演算機構を行うことによって構成される。
本開示の一実施形態では、エンコーダユニットは2つの長・短期記憶(LSTM)セルを組み合わせることによって形成される双方向ネットワークであり、デコーダユニットは単一のLSTMセルを有する一方向ネットワークである。
本開示の一実施形態では、エンコーダユニットおよびデコーダユニットは、LSTMセルのそれぞれにおける256の隠れユニットを有する2つの回帰層を含む。
本開示の一実施形態では、RNNベースのエンコーダユニットおよびデコーダユニットは、残差接続によって含まれている回帰ユニットを通した後続の回帰層への勾配流を促進すること、深さ方向接続に従ってドロップアウト機構を採用することによって長期依存性を捕らえるために回帰接続を修正することなくエンコーダユニットを規則化すること、層正規化によってミニバッチトレーニングによる共変量シフトを防止するために神経細胞を活性化すること、および、注意機構を通して、デコーダユニットの隠れ状態をエンコーダユニットの隠れ状態と合わせることによって構成される。
前述の全般的な説明、および以下の詳細な説明が両方共、例示であり説明するためだけのものであり、特許請求される本開示の実施形態を制限するものではないことは理解されたい。
本開示に組み込まれかつこの一部を構成する添付の図面は、例示の実施形態を示し、この説明と共に、開示された原理を説明する役割を果たす。
本開示の一実施形態による、ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステムの例示のブロック図である。 本開示の一実施形態による、図1のシステムに含まれる機能モジュールの例示のアーキテクチャを示す図である。 本開示の一実施形態による、ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのプロセッサ実施方法のフロー図である。 本開示の一実施形態による、ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのプロセッサ実施方法のフロー図である。 本開示の一実施形態による、ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのプロセッサ実施方法のフロー図である。 本開示の一実施形態による、畳み込みニューラルネットワーク(CNN)を使用する走査済み手書きテキスト入力画像のそれぞれの部分画像の機能マップからの特徴ベクトルのシーケンスの生成を示す図形表現である。 本開示の一実施形態による、注意と共に回帰ニューラルネットワーク(RNN)ベースのエンコーダユニットおよびデコーダユニットを使用して走査済み手書きテキスト入力画像のそれぞれの部分画像に対する手書きテキストの認識を示す図形表現である。
例示の実施形態について、添付の図面を参照して説明する。図では、参照番号の最上位桁(複数可)は、参照番号が最初に現れる図を特定している。好都合であれば、同じ参照番号は、同じまたは同様の部分を指すために図面全体を通して使用される。開示された原理の例および特徴が本明細書に説明されているが、開示された実施形態の趣旨および範囲から逸脱することなく、修正、適合、および他の実装が可能である。以下の詳細な説明が単に例示とみなされ、その真の範囲および趣旨は(明細書に含まれる時)特許請求の範囲によって指示されていることが意図される。
文字、テキスト、およびシーケンスのような術語は、変換前また後の走査済み手書きテキスト入力画像に存在するテキストを指示するために文脈によって区別なく使用される。出力シーケンスは変換後の認識されたテキストを指す。
オフライン手書きテキスト認識(HTR)は、数十年間の主要な研究課題となっており、手書き文書に記憶されたデータを抽出し、かつ現代のAIシステムを使用してそれを利用することからロック解除できる潜在的価値により近年活性化している。多次元長・短期記憶(LSTM)セルなどの深層回帰ニューラルネットワーク(RNN)モデルは、マルコフ仮定という難点があるため、RNNの表現力を欠如している従来の隠れマルコフモデルベースのアプローチに対して、効率的な手書きテキスト認識に対する優れた性能を生み出すことが証明された。エンドツーエンド手書きテキスト認識のための開示されたシステムおよび方法は、深層畳み込みニューラルネットワーク(CNN)をRNNベースのエンコーダユニットおよびデコーダユニットと組み合わせて、手書きテキスト画像を走査済み手書きテキスト入力画像に存在するテキストに対応する文字シーケンスにマッピングする。深層CNNは手書きテキスト画像から特徴を抽出するために使用されるのに対し、RNNベースのエンコーダユニットおよびデコーダユニットは変換されたテキストを文字セットとして生成するために使用される。
ここで図面、より詳細には、同様の参照符号が図全体を通して一貫して対応する特徴を示す図1~図5を参照すると、好ましい実施形態が示されており、これらの実施形態は、ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のための以下の例示のシステムおよび方法の文脈の中で説明される。
図1は、本開示の一実施形態による、ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステム100の例示のブロック図を示す。一実施形態では、システム100は、1つまたは複数のプロセッサ104、通信インターフェースデバイス(複数可)または入力/出力(I/O)インターフェース(複数可)106、および、1つまたは複数のプロセッサ104に動作可能に結合される1つまたは複数のデータ記憶デバイスもしくはメモリ102を含む。ハードウェアプロセッサである1つまたは複数のプロセッサ104は、1つまたは複数のマイクロプロセッサ、マイクロコンピュータ、マイクロコントローラ、デジタル信号プロセッサ、中央処理装置、状態機械、グラフィックスコントローラ、論理回路、および/または動作命令に基づいて信号を操作する任意のデバイスとして実装可能である。いくつかある能力の中でも特に、プロセッサ(複数可)は、メモリに記憶されたコンピュータ可読命令をフェッチしかつ実行するように構成される。一実施形態では、システム100は、ラップトップコンピュータ、ノートブック、ハンドヘルドデバイス、ワークステーション、メインフレームコンピュータ、サーバ、およびネットワーククラウドなどのさまざまなコンピューティングシステムにおいて実装可能である。
I/Oインターフェースデバイス(複数可)106は、さまざまなソフトウェアおよびハードウェアインターフェース、例えば、ウェブインターフェースおよびグラフィカルユーザインターフェースなどを含むことができ、例えば、LAN、ケーブルなどの有線ネットワーク、およびWLAN、セルラー、または衛星などの無線ネットワークを含む、多種多様のネットワークN/Wおよびプロトコル型内の多重通信を促進することができる。一実施形態では、I/Oインターフェースデバイス(複数可)は、いくつかのデバイスを互いにまたは別のサーバに接続するための1つまたは複数のポートを含むことができる。
メモリ102は、例えば、スタティックランダムアクセスメモリ(SRAM)およびダイナミックランダムアクセスメモリ(DRAM)などの揮発性メモリ、および/または、読み出し専用メモリ(ROM)、消去可能プログラマブルROM、フラッシュメモリ、ハードディスク、光ディスク、および磁気テープなどの不揮発性メモリを含む、当技術分野で既知の任意のコンピュータ可読媒体を含むことができる。一実施形態では、システム100の1つまたは複数のモジュール(図2の102A~102E)はメモリ102に記憶可能である。
図2は、本開示の一実施形態による、図1のシステム100に含まれる機能モジュールの例示のアーキテクチャを示す。一実施形態では、機能モジュールは、画像前処理モジュール102A、特徴抽出モジュール102B、マップ-シーケンスモジュール102C、シーケンス学習モジュール102D、および画像後処理モジュール(102E)を含む。
図3A~図3Cは、本開示の一実施形態による、ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのプロセッサ実施方法300のフロー図を示す。一実施形態では、1つまたは複数のプロセッサ104に動作可能に結合される1つまたは複数のデータ記憶デバイスもしくはメモリ102は、1つまたは複数のプロセッサ104によって方法300のステップを実行するように構成される命令を記憶するように構成される。方法300のステップについてここで、図1のシステム100のコンポーネント、および図2の例示のアーキテクチャの機能モジュールを参照して詳細に説明する。プロセスのステップ、方法のステップ、または技法などは順番に説明可能であるが、このようなプロセッサ、方法、および技法は、交互に働くように構成されてよい。換言すれば、説明され得るステップのいずれのシーケンスまたは順序も、ステップがその順序で行われるべきであるという要件を必ずしも指示しているわけではない。本明細書に説明されるプロセスのステップは、実際的な任意の順序で行われてよい。さらに、いくつかのステップは同時に行われてよい。
本開示の一実施形態によると、画像前処理モジュール(図2の102A)は、ステップ302において、受信した走査済み手書きテキスト入力画像を前処理するように構成される。前処理するステップ302は、ステップ302aにおいて受信した走査済み手書きテキスト入力画像から1つまたは複数の部分画像を、それぞれの部分画像が走査済み手書きテキスト入力画像に存在する手書きテキスト行を含んで得ることと、さらに、ステップ302bにおいて、1つまたは複数の部分画像を、一定の高さおよび可変の幅を有し、かつアスペクト比を維持する1つまたは複数のスケーリングされた部分画像にスケーリングすることとを含む。
一実施形態では、受信した走査済み手書きテキスト入力画像は、スキャナ、多機能周辺(MFP)デバイス、および画像複写デバイスなどの標準的な走査装置によって走査または処理されてよい、ファイルまたは文書であってよい。受信した走査済み手書きテキスト入力画像は、認識される、またはデジタルまたは機械可読テキストに変換される少なくとも1つの手書きテキスト行を含むことができる。受信した走査済み手書きテキスト入力画像は、画像前処理モジュール(図2の102A)によって、ステップ302aにおける1つまたは複数の部分画像に分割され、それぞれの部分画像は、走査済み手書きテキスト入力画像に存在する手書きテキスト行を含む。一実施形態では、それぞれの部分画像に含まれる手書きテキスト行は完全な文であってもなくてもよい。
一実施形態では、1つまたは複数の部分画像は、一定の高さおよび可変の幅を有し、かつアスペクト比を維持するように、画像前処理モジュール(図2の102A)によってステップ302bにおいてスケーリングまたはダウンサンプリングされる。一実施形態では、それぞれの部分画像は、256の輝度レベルを有する単一チャネルを含有し、一定の高さは128画素から32画素に及んでよい。しかしながら、それぞれの部分画像の幅は、表1に示されるようにシステム100の計算数およびメモリ要件を低減するために対応する部分画像のアスペクト比を維持するように調節される。
Figure 0007311341000001
一実施形態では、前処理するステップ302は、左側および右側両方における対応する背景画素を有するバッチに含まれる1つまたは複数の部分画像をパディングしてバッチにおける最も幅広い部分画像の幅をマッチさせることによって寸法の一様性を維持するためのミニバッチトレーニング技法を採用することと、ランダムな歪みを1つまたは複数の部分画像に取り込んで1つまたは複数の部分画像における変形を生じさせることとをさらに含む。一実施形態では、平行移動、回転、傾斜、およびスケーリングを含む4つの変換動作のセットを行うことによって、ミニバッチトレーニング技法を採用する間に、ランダムな歪みがバッチにおけるそれぞれの部分画像に取り込まれる。4つの変換動作のセットを行っている間のパラメータは、ガウス分布を使用して独立してサンプリングされる。例えば、回転動作に対するパラメータは角度の量である。同様に、スケーリング動作に対するパラメータは解像度である。一実施形態では、システム100が、繰り返す度に以前に見られなかった部分画像のセットを処理することができるように1つまたは複数の部分画像に対して行って変形を生成するために、4つの変換動作のセットから、少なくとも1つが行われてもよいし行われなくてもよい。
本開示の一実施形態によると、特徴抽出モジュール(図2の102B)は、ステップ304において、畳み込みニューラルネットワーク(CNN)を適用することによって、1つまたは複数のスケーリングされた部分画像のそれぞれを1つまたは複数の機能マップに変えるように構成され、この場合、1つまたは複数の機能マップは対応する部分画像の視覚的特徴を含有する。
一実施形態では、畳み込みニューラルネットワーク(CNN)は、完全に接続された層のない標準的な畳み込みニューラルネットワーク(CNN)であってよい。CNNは、基本的な非線形変換のセットを自動的に学習することによって、1つまたは複数の機能マップの形式のそれぞれのスケーリングされた部分画像から豊富な視覚的特徴を抽出するために使用される。抽出された豊富な視覚的特徴は、対応する部分画像における局所的な属性を符号化しつつ、対応する部分画像に存在する物体の空間的構成を保持することができる。
一実施形態では、CNNは、Leaky ReLU活性化によって連続的に積み重ねられた7つの畳み込み層を含む。一実施形態では、CNNの最初の6つの層は、1画素の幅で入力されるパディングによる3×3画素のカーネルサイズを含み、7番目の層は、入力されたパディングのない、2×2画素のカーネルサイズを含む。カーネルのストライドは、CNNにおける7つの畳み込み層の垂直方向および水平方向両方において1画素である。
一実施形態では、7つの畳み込み層のleaky ReLU活性化は、内部共変量シフトを防止し、かつ後続の畳み込み層に伝わる前にトレーニングを加速するためのバッチ正規化、および、1つまたは複数の部分画像の次元性を低減するための畳み込み層の活性化に対するプーリング演算機構を行うことによって構成される。
一実施形態では、プーリング演算機構は、合計4つの最大プーリング層を含み、このうちの2つは、それぞれの部分画像に存在する手書きテキストの水平方向空間分布を保持するために2×1のカーネルサイズを有し、残りの2つの最大プーリング層は、標準的な2×2の重なり合わないカーネルサイズを有する。表2は、CNNにおけるそれぞれの畳み込み層のネットワーク構成を示す。
Figure 0007311341000002
表2によると、第1の畳み込み層は16の畳み込みフィルタを含有し、第2の畳み込み層は32の畳み込みフィルタを含有し、第3および第4の畳み込み層はそれぞれ、64の畳み込みフィルタを含有し、第5、第6、および第7の畳み込み層はそれぞれ、128の畳み込みフィルタを含有する。第1の畳み込み層および第2の畳み込み層は、2×2の重なり合わないカーネルサイズの最大プーリング層を含むのに対し、第5の畳み込み層および第6の畳み込み層は、2×1のカーネルサイズの最大プーリング層を含む。
一実施形態では、受信した走査済み手書きテキスト入力画像のそれぞれの部分画像は、特徴抽出モジュール(図2の102B)に送られる前に画像前処理モジュール(図2の102A)によって反転させることで、それぞれの部分画像の前景は、容易に学習するために畳み込みニューラルネットワーク(CNN)活性化のために暗い背景に対してより高い輝度で構成される。
本開示の一実施形態によると、マップ-シーケンスモジュール(図2の102C)は、ステップ306において、1つまたは複数の機能マップに含まれる列を深さ方向に分離し、かつ対応する部分画像の1つまたは複数の機能マップの各列を連結することによって1つまたは複数の機能マップを特徴ベクトルのシーケンスに変換するように構成される。
一実施形態では、特徴ベクトルのシーケンスは、1つまたは複数の機能マップの各列を連結することによって構成される。一実施形態では、i番目の特徴ベクトルは、1つまたは複数の機能マップのi番目の列を連結することによって構成される。ステップ304においてCNNによって行われる畳み込み演算の並進不変性により、それぞれの列は、図4に示されるように、左から右に移動する(受容野と称される)縦縞を表す。ステップ302におけるそれぞれの部分画像のスケーリングにより、画像前処理モジュール(図2の102A)によって、特徴ベクトルのシーケンスは、それぞれの特徴ベクトルのシーケンス長に制限を加えることのない独自の次元を含む。
本開示の一実施形態によると、シーケンス学習モジュール(図2の102D)は、ステップ308において、回帰ニューラルネットワーク(RNN)ベースのエンコーダユニットおよびデコーダユニットを使用して、特徴ベクトルのそれぞれのシーケンスと関連付けられる視覚的特徴をマッピングすることによって、1つまたは複数の文字セットを生成するように構成される。1つまたは複数の文字セットは対応する部分画像に対して認識される機械可読テキストである。RNNベースのエンコーダユニットおよびデコーダユニットのエンコーダユニットは、特徴ベクトルのそれぞれのシーケンスに対してコンテキストベクトルを生成するように構成される。RNNベースのエンコーダユニットおよびデコーダユニットのデコーダユニットは、対応する部分画像に対する文字セットを生成するために特徴ベクトルのそれぞれのシーケンスに対するコンテキストベクトルにわたって条件付き確率分布を適用するように構成される。
一実施形態では、RNNベースのエンコーダユニットおよびデコーダユニットは両方共、別個の回帰ニューラルネットワークの機能を果たす。エンコーダユニットは、ステップ306において得られるそれぞれの部分画像の特徴ベクトルのシーケンスの理解に基づいてコンテキストベクトルの形式のコンパクト表現を構成し、デコーダユニットは、同コンパクト表現に対して条件付き確率分布を適用することによって対応する部分画像に対してデジタル化された文字または機械可読テキストのセットを生成する。
一実施形態では、エンコーダユニットは、入力として、TSはシーケンス長である、X=(x1、…、xTs)である、それぞれの部分画像の特徴ベクトルのシーケンスを取り、かつ、シーケンス全体を代表する、対応する部分画像に対するコンテキストベクトルcを生成することで、それぞれの時間ステップtにおいて、隠れ状態はht=g(xt、ht-1)となり、最後に、c=s(h1、…、hTs)となる。式中、gおよびsはある非線形関数である。
一実施形態では、長・短期記憶(LSTM)セルは、メモリセルc∈Rnの存在により長期依存性を学習するためにエンコーダユニットにおいて使用される。一実施形態では、単一の長・短期記憶(LSTM)セルは、最終セル状態が特徴ベクトルのシーケンスの関連コンポーネントのみを符号化するやり方で情報を選択的に蓄積しかつ廃棄することによって、それぞれの時間ステップにおいてセル状態ctを修正する4つのゲート、forget f、input i、update u、およびoutput oから成る。それぞれの時間ステップtにおいて、セルおよび隠れ状態は、以下のように更新される。
t=ft゜ct-1+it゜ut、および
t=ot゜tanh(ct)、ここで
t=σ(Wft+Uft-1
t=σ(Wit+Uit-1
t=tanh(Wut+Uut-1
t=σ(Wot+Uot-1
式中、σ()およびtanh()は、要素ごとのシグモイドおよび双曲線正接演算を表し、WおよびUは、線形変換のパラメータである。最終セル状態CTsは、対応する部分画像に対するコンテキストベクトルとして使用される。
一実施形態では、エンコーダユニットは双方向ネットワークである。LSTMセルが一方向のものであり、過去のコンテキストを学習できるだけであるため、双方向ネットワークは、特徴ベクトルのシーケンスにおける前方依存性および後方依存性両方を用いるために、2つのLSTMセルを組み合わせることによって形成される。双方向ネットワークは、図5に示されるように、特徴ベクトルのシーケンスを相対する方向に処理する。
Figure 0007311341000003
一実施形態では、エンコーダユニットによって生成されるコンテキストベクトルCTsは、対応する部分画像に対するデコーダユニットへの入力として提供される。デコーダユニットは単一のLSTMセルを有する一方向ネットワークである。
一実施形態では、Waが変換行列c1である、アフィン変換、c1=WaTsは、デコーダユニットのセル状態を初期化するために使用される。デコーダユニットは、c1、および自身の以前の予測{y1、…、yt-1}が条件付けられている、それぞれの時間ステップtにおける出力シーケンスのトークンytを生成する。デコーダユニットは、Tdはシーケンス長である、出力シーケンスy={y1、…、yTd}にわたる条件付き確率分布
Figure 0007311341000004
を学習する。デコーダユニットを使用して、それぞれの条件付きは、p(yt|{yt、…、yt-1}、c1=softmax(g(yt-1、ht-1、c1))としてモデリングされ、ここで、gは非線形関数であり、ht-1はデコーダユニットの隠れ状態である。
一実施形態では、エンコーダユニットおよびデコーダユニットの両方は、それぞれが、LSTMセルのそれぞれにおいて256の隠れユニットを有する2つの回帰層を含み、学習能力を高めるために2つの層の深さまで拡張する。
一実施形態では、RNNベースのエンコーダユニットおよびデコーダユニットは、含まれている回帰ユニットを通して後続の回帰層への勾配流を促進するように残差接続によって構成される。深さ方向接続に従ってドロップアウト機構を採用して、長期依存性を捕らえるために回帰接続を修正することなくエンコーダユニットを規則化する。層正規化は、ミニバッチトレーニングによる共変量シフトを防止するように神経細胞を活性化するために採用される。また、注意機構は、デコーダユニットの隠れ状態をエンコーダユニットの隠れ状態と合わせるために採用される。
一実施形態では、ドロップアウト機構は、長期依存性を捕らえるようにRNNベースのエンコーダユニットおよびデコーダユニットの容量を保持するために採用される。一実施形態では、層正規化は、隠れ状態ダイナミックスを安定化させるようにRNNベースのエンコーダユニットおよびデコーダユニットにおける回帰活性化のために、および、システム100のトレーニング中の良好な収束のために採用される。線形変換W∈R256xNは、ロジットを生成するためにデコーダユニットに対して適用され、ここで、Nは出力される語彙サイズである。Softmax演算は、それぞれの時間ステップにおける出力される語彙にわたる確率分布を定義するためにロジットに対して行われる。一実施形態では、出力される語彙サイズは、スペース、アスタリスクなどの特殊文字と併せた言語に存在する文字数である。一実施形態では、英語の手書きテキスト認識に対する出力される語彙サイズは、26の文字および53の特殊文字を含む79である。
一実施形態では、Bahdanau注意機構などの注意機構は、特徴ベクトルのシーケンスに対して、エンコーダユニットによって生成される注釈のシーケンス
Figure 0007311341000005
の類似性に基づいてそれぞれの時間ステップにおいてコンテキストベクトルが修正されることにより、RNNベースのエンコーダユニットおよびデコーダユニットへの拡張として採用される。一実施形態では、注意機構は、エンコーダユニットとデコーダユニットとの間のリンクを形成するコンテキストベクトルが特に長いシーケンスに対して基本的な情報を忘れる傾向がある場合があるという事実により使用される。一実施形態では、長いシーケンスは2つ以上の手書きテキスト文を含有する場合がある。i番目のデコーダ時間ステップにおけるコンテキストベクトルは以下によって与えられる。
Figure 0007311341000006
ここで、aは、特徴抽出モジュール(図2の102B)のCNN、および、シーケンス学習モジュール(図2の102D)のRNNベースのエンコーダユニットおよびデコーダユニットと共にトレーニングされるフィードフォワードネットワークである。
従って、コンテキストベクトルは入力された注釈の加重和として修正され、ここで、重みによって、位置iにおけるデコーダユニットの出力が特徴ベクトルのシーケンスの位置jの周りのシーケンス特徴ベクトルからの特徴ベクトルとどれほど類似しているかが測定される。Luong注意機構において使用される注意入力送り(attention input feeding)アプローチはまた、以前の時間ステップからのコンテキストベクトルがシステム100の予測容量をさらに増大させるために現在の時間ステップの入力と連結されることにより採用される。
一実施形態では、システム100は、出力シーケンスにおけるそれぞれの予測された文字に対して独立して算出される累積カテゴリクロスエントロピ(CE)損失を最小化することによってトレーニングされる。出力シーケンスy={y1、…、yTd}に対して、
Figure 0007311341000007
として定義され、ここで、p(yt)は時間ステップtにおけるtrueクラスの確率である。
一実施形態では、それぞれの時間ステップにおけるデコーダユニットへの入力は、シーケンス終了<eos>が発せられるまで、以前のステップからのgold予測に対応する、学習可能な埋め込み層からの埋め込みベクトルである。勾配降下は、通時的誤差逆伝搬法(BPTT)の使用後に、CNN内に誤差逆伝搬法を行ってネットワークの重みおよびバイアスを更新して、RNNベースのエンコーダユニットおよびデコーダユニットにわたって行われる。
一実施形態では、CE損失から生じるクラスの不均衡問題に対処するために最終CE損失におけるそれぞれのインスタンスの貢献度に適した重みを割り当てることによる焦点損失技法が採用される。最終CE損失は、F L(p)=-(1-p)γlog(p)として定義され、ここで、pはtrueクラスの確率であり、γは調整可能な焦点パラメータである。
一実施形態では、システム100の推論は、そのインスタンスにおける出力として、それぞれの時間ステップにおけるsoftmax分布からの最も高い確率を有するクラスを発する貪欲復号(Greedy Decoding)(GD)を使用して導出される。貪欲復号は、最良のシーケンスが、必ずしも真でない場合がある、それぞれの時間ステップにおける最も可能性の高いトークンで構成されるという根本的な仮定によって動作する。
一実施形態では、ビームサーチ復号アルゴリズムを使用して、ビームとして既知の仮説のセットにわたって、同時分布を最大化することによって最良のシーケンスを見つける。同時分布は下記により与えられる。
p(y1、y2、…、yTd)=p(y1)×p(y2|y1)×p(y3|{y1、y2})×…×p(yTd|{y1、y2、…、yTd-1})
ビームサーチ復号アルゴリズムは、top-Kクラスを選択する。ここで、Kは第1の時間ステップにおけるビームサイズであり、次の時間ステップにおけるそれらのそれぞれに対して個々に出力分布を得る。K×N仮説のうち、Nは出力される語彙サイズであり、top-Kクラスは、積p(y1)×p(y2|y1)に基づいて選定される。上記のプロセスは、ビームにおける全てのKの光線が<eos>トークンを発するまで繰り返される。デコーダユニットの最終出力は、ビームにおける最も高い値のp(y1、y2、…、yTd)を有する光線である。ビームサイズは出力される語彙サイズに相当するものとして定義される。
本開示の一実施形態によると、画像後処理モジュール(図2の102E)は、ステップ310において、文字セットを後処理するように構成される。後処理するステップ310は、手書きテキスト出力ファイルを生成するために対応する部分画像のそれぞれに対して文字セットを組み合わせることを含み、手書きテキスト出力ファイルは走査済み手書きテキスト入力画像の認識されたテキストバージョンである。
一実施形態では、画像後処理モジュール(図2の102E)は、文字セットが、手書きテキスト出力ファイルを生成するためにRNNベースのエンコーダユニットおよびデコーダユニットによってそれぞれの部分画像に対して認識される順序で文字セットを組み合わせるように構成される。
本開示の一実施形態によると、特徴抽出モジュール(図2の102B)およびシーケンス学習モジュール(図2の102D)は両方共、ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のための開示されたシステム100におけるコネクショニストコンポーネント(Connectionist component)の機能を果たす。
本開示によると、ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステムおよび方法は、理解を容易にするために単一の走査済み手書きテキスト画像に対する手書きテキスト認識によって説明される。しかしながら、開示されたシステムおよび方法は、複数の走査済み手書きテキスト画像に対する手書きテキストを認識できる。
実験結果
ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のための開示されたシステムおよび方法は、走査済み手書きテキスト入力画像のテキスト行全てに対する平均として判断される性能測定基準として誤字率(CER)およびワード誤り率(WER)を使用して、IAM手書きデータベースv3:0(英語)、およびNvidia Tesla K40 GPUにおけるRIMESデータベース(フランス語)などの公的に入手可能であるデータセットにおいて評価される。ミニバッチ勾配降下は、トレーニングを加速させるために採用され、以下のように算出される、シーケンス損失の単純な拡張であるバッチ損失が最適化される。
Figure 0007311341000008
式中、Mはバッチサイズであり、yitはバッチのi番目のインスタンスのt番目の時間ステップを表す。実験について、バッチサイズは16に設定される。Adamアルゴリズムは0:001の学習率による最適化プログラムとして使用される。開示されたシステム100は、テスト検証精度を取得するまでトレーニングされ、30エポック後に達成される。
表3は、開示されたシステム100における、層正規化(LN)、焦点損失技法、およびビームサーチ復号アルゴリズムの効果を示す。LNによって、システム100の基本モデルの性能はおよそ3%改善された。焦点損失技法の使用によって、また、システム100の精度が1~3%増大したが、貪欲復号を、システム100の精度を4~5%高めるビームサーチ復号アルゴリズムと置き換えることによって、主要な改善が達成される。
Figure 0007311341000009
表4は、既存のシステムおよび方法論との、開示されたシステム100および方法300の誤字率(CER)およびワード誤り率(WER)に関する精度ついての比較を示す。表5は、既存のCNN-1DRNN-CTCモデルとの、開示されたシステムおよび方法の最大GPUメモリ消費およびトレーニング可能パラメータ数に関する効率についての比較を示す。
Figure 0007311341000010
Figure 0007311341000011
開示されたシステムおよび方法のワードレベル精度は、既存のシステムおよび方法論に対して改善されているが、文字レベル精度は比較するとわずかに低い。
本開示によると、ネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステムおよび方法は、入力された部分画像を、128画素から32画素に及ぶ一定の高さを維持する一方、幅は対応する部分画像のアスペクト比を維持するように調節される、スケーリングされたまたはダウンサンプリングされたバージョンとして取ることによって、計算数が少なくなりかつメモリ要件が少なくなった手書きテキスト認識が達成される。実験結果によって、全体的な精度を損なうことなく、それぞれの部分画像の元のサイズのほぼ16分の1までダウンサンプリングすることによって、計算の61%の低減、およびメモリ消費の17%の低減が達成される。
本開示の一実施形態によると、ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のための開示されたシステムおよび方法によって、注意機構を有する、RNNベースのエンコーダユニットおよびデコーダユニットを使用する手書きテキスト認識における精度の、既存のCNN-1DRNN-CTCモデルに対する大幅な改善が達成される。実験結果によって、ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のための開示されたシステムおよび方法は、利用可能なデータセットのIAMおよびRIMESに対して精度がそれぞれ、3:5%および1:1%優れていた。
本開示によると、ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステムおよび方法は、走査済み手書きテキスト入力画像を使用して効率的なオフライン手書きテキスト認識を行うための完全なエンドツーエンド解決策をもたらす。
保護の範囲がこのようなプログラムまで拡張され、メッセージを有するコンピュータ可読手段に加えて、このようなコンピュータ可読記憶手段が、プログラムが、サーバもしくはモバイルデバイス、または任意の適したプログラマブルデバイス上で実行している時、方法の1つまたは複数のステップの実施のためのプログラムコード手段を含有することは、理解されたい。ハードウェアデバイスは、例えば、サーバもしくはパーソナルコンピュータなどのような任意の種類のコンピュータ、またはこれらの組み合わせなどを含む、プログラム可能である任意の種類のデバイスとすることができる。デバイスはまた、例えば、特定用途向け集積回路(ASIC)のようなハードウェア手段、フィールドプログラマブルゲートアレイ(FPGA)、または例えば、ASICおよびFPGAといったハードウェア手段およびソフトウェア手段の組み合わせ、または、ソフトウェアモジュールが位置している、少なくとも1つのマイクロプロセッサおよび少なくとも1つのメモリとすることが可能な手段を含んでよい。よって、手段は、ハードウェア手段およびソフトウェア手段両方を含むことができる。本明細書に説明される方法の実施形態は、ハードウェアおよびソフトウェアにおいて実装可能である。デバイスはソフトウェア手段も含んでよい。代替的には、実施形態は、例えば、複数のCPUを使用して種々のハードウェアデバイス上で実施されてよい。
本明細書における実施形態は、ハードウェア要素およびソフトウェア要素を含むことができる。ソフトウェアで実装される実施形態は、限定ではないが、ファームウェア、常駐ソフトウェア、マイクロコードなどを含む。本明細書に説明されるさまざまなモジュールによって行われる機能は、他のモジュールまたは他のモジュールの組み合わせで実装されてよい。この説明の目的で、コンピュータ使用可能またはコンピュータ可読媒体は、命令実行システム、装置、またはデバイスによるまたはこれに関連して使用するためのプログラムを、含む、記憶する、通信する、伝える、または転送することができる任意の装置とすることができる。
例証のステップは、示される例示の実施形態を説明するために述べられたものであり、進展中の技術的進歩が特定の機能が行われるやり方を変更することが予期されるものとする。これらの例は、本明細書において限定ではなく例証の目的で提示されている。さらに、機能的構築ブロックの境界は、説明の便宜上、本明細書に任意に定義されている。代替の境界は、特定の機能およびその関係性が適切に行われる限り定義され得る。(本明細書に説明されるものの等価例、拡張例、変形例、逸脱例などを含む)代替例は、本明細書に含有される教示に基づいて当業者には明らかになるであろう。このような代替例は、開示される実施形態の範囲および趣旨の範囲内にある。また、「備える(comprising)」、「有する(having)」、「含有する(containing)」、および「含む(including)」という語、ならびに他の類似の形は、これらの語のうちのいずれか1つに続く項目(単数または複数)が、このような項目(単数または複数)の網羅的なリストであること、すなわち、リストされた項目(単数または複数)のみに限定することを意味していないという点で意味的に等価であり、オープンエンドであることが意図される。また、本明細書において、および添付の特許請求の範囲において使用されるように(明細書に含まれる時)、単数形「a」、「an」、および「the」は、別段文脈において明確に決定づけられていない限り、複数の参照記号を含むことにも留意されなくてはならない。
さらには、1つまたは複数のコンピュータ可読記憶媒体は、本開示と合致する実施形態を実装する際に用いられてよい。コンピュータ可読記憶媒体は、プロセッサによって可読の情報またはデータが記憶可能である任意のタイプの物理メモリを指す。よって、コンピュータ可読記憶媒体は、本明細書に説明される実施形態と合致するステップまたは段階をプロセッサ(複数可)に行わせるための命令を含んだ、1つまたは複数のプロセッサによって実行するための命令を記憶することができる。「コンピュータ可読媒体」という用語は、有形の品目を含み、かつ搬送波および過渡信号を含まない、すなわち、非一時的であると理解されるべきである。例として、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、揮発性メモリ、不揮発性メモリ、ハードドライブ、CD ROM、DVD、フラッシュドライブ、ディスク、および任意の他の既知の物理記憶媒体が挙げられる。
本開示および例は、単に例示とみなされ、開示される実施形態の真の範囲および趣旨は、以下の特許請求の範囲によって指示されていることが意図される。

Claims (8)

  1. ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステム(100)であって、
    1つまたは複数のハードウェアプロセッサ(104)に動作可能に結合されて前記1つまたは複数のハードウェアプロセッサによって実行するように構成される命令を記憶する1つまたは複数の内部データ記憶デバイス(102)を備え、前記命令は、
    走査済み手書きテキスト入力画像を受信するように、前記走査済み手書きテキスト入力画像から1つまたは複数の部分画像を、前記1つまたは複数の部分画像のそれぞれが前記走査済み手書きテキスト入力画像に存在する手書きテキスト行を含んで得るように、および前記1つまたは複数の部分画像を、一定の高さおよび可変の幅を有し、かつそのアスペクト比を維持する1つまたは複数のスケーリングされた部分画像にスケーリングするように構成される画像前処理モジュール(102A)と、
    前記画像前処理モジュール(102A)に動作可能に結合され、かつ畳み込みニューラルネットワーク(CNN)を適用することによって前記1つまたは複数のスケーリングされた部分画像のそれぞれを1つまたは複数の機能マップに変えるように構成される特徴抽出モジュール(102B)であって、前記1つまたは複数の機能マップは対応する部分画像の視覚的特徴を含有し、前記CNNは、leaky ReLU活性化によって連続的に積み重ねられる複数の畳み込み層を含み、前記畳み込み層のleaky ReLU活性化は、
    内部共変量シフトを防止し、かつ次の畳み込み層に伝わる前にトレーニングを加速するためのバッチ正規化、および、
    前記1つまたは複数の部分画像の次元性を低減するために前記畳み込み層の少なくともいくつかの活性化に対して行うプーリング演算機構
    を行うことによって構成される、特徴抽出モジュール(102B)と、
    前記特徴抽出モジュール(102B)に動作可能に結合され、かつ前記1つまたは複数の機能マップに含まれる列を深さ方向に分離し、かつ対応する前記部分画像の前記1つまたは複数の機能マップの各列を連結することによって前記1つまたは複数の機能マップを特徴ベクトルのシーケンスに変換するように構成されるマップ-シーケンスモジュール(102C)と、
    前記マップ-シーケンスモジュール(102C)に動作可能に結合され、かつ回帰ニューラルネットワーク(RNN)ベースのエンコーダユニットおよびデコーダユニットを使用して、特徴ベクトルのそれぞれのシーケンスと関連付けられる前記視覚的特徴をマッピングすることによって、1つまたは複数の文字セットを生成するように構成されるシーケンス学習モジュール(102D)であって、前記1つまたは複数の文字セットは前記対応する部分画像に対して認識される機械可読テキストであり、前記RNNベースのエンコーダユニットおよびデコーダユニットのエンコーダユニットは、特徴ベクトルのそれぞれのシーケンスに対してコンテキストベクトルを生成するように構成され、前記RNNベースのエンコーダユニットおよびデコーダユニットのデコーダユニットは、前記対応する部分画像に対する文字セットを生成するために特徴ベクトルのそれぞれのシーケンスに対するコンテキストベクトルにわたって条件付き確率分布を適用するように構成され前記RNNベースのエンコーダユニットおよびデコーダユニットは、
    残差接続によって含まれている回帰ユニットを通した後続の回帰層への勾配流を促進すること、
    深さ方向接続に従ってドロップアウト機構を採用することによって長期依存性を捕らえるために回帰接続を修正することなく前記RNNベースのエンコーダユニットを規則化すること、
    層正規化によってミニバッチトレーニングによる共変量シフトを防止するために神経細胞を活性化すること、および、
    注意機構を通して、前記デコーダユニットの隠れ状態を前記エンコーダユニットの隠れ状態と合わせること
    によって構成される、シーケンス学習モジュール(102D)と、
    前記シーケンス学習モジュール(102D)に動作可能に結合され、かつ手書きテキスト出力ファイルを生成するために前記対応する部分画像のそれぞれに対して前記文字セットを組み合わせるように構成される画像後処理モジュール(102E)であって、前記手書きテキスト出力ファイルは前記走査済み手書きテキスト入力画像の認識されたテキストバージョンである、画像後処理モジュール(102E)と、に含まれる、システム。
  2. 前記画像前処理モジュールは、左側および右側両方における対応する背景画素を有するバッチに含まれる前記1つまたは複数の部分画像をパディングして前記バッチにおける最も幅広い部分画像の幅をマッチさせることによって寸法の一様性を維持するためのミニバッチトレーニング技法を採用するように、およびランダムな歪みを前記1つまたは複数の部分画像に取り込んで前記1つまたは複数の部分画像における変形を生じさせるように、さらに構成される、請求項1に記載のシステム。
  3. 前記CNNは、leaky ReLU活性化によって連続的に積み重ねられる7つの畳み込み層を含む、請求項1に記載のシステム。
  4. 前記エンコーダユニットは2つの長・短期記憶(LSTM)セルを組み合わせることによって形成される双方向ネットワークであり、前記デコーダユニットは単一のLSTMセルを有する一方向ネットワークである、請求項1に記載のシステム。
  5. 前記エンコーダユニットおよび前記デコーダユニットは、前記LSTMセルのそれぞれにおける256の隠れユニットを有する2つの回帰層を含む、請求項4に記載のシステム。
  6. ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのプロセッサ実施方法(300)であって、
    画像前処理モジュールによって、受信した走査済み手書きテキスト入力画像を前処理するステップ(302)であって、前記前処理するステップは、
    前記受信した走査済み手書きテキスト入力画像から1つまたは複数の部分画像を、それぞれの部分画像が前記走査済み手書きテキスト入力画像に存在する手書きテキスト行を含んで得ること(302a)、および
    前記1つまたは複数の部分画像を、一定の高さおよび可変の幅を有し、かつそのアスペクト比を維持する1つまたは複数のスケーリングされた部分画像にスケーリングすること(302b)を含む、前処理するステップと、
    特徴抽出モジュールによって、畳み込みニューラルネットワーク(CNN)を適用することによって前記1つまたは複数のスケーリングされた部分画像のそれぞれを1つまたは複数の機能マップに変えるステップであって、前記1つまたは複数の機能マップは対応する部分画像の視覚的特徴を含有し、前記CNNは、leaky ReLU活性化によって連続的に積み重ねられる複数の畳み込み層を含み、前記畳み込み層のleaky ReLU活性化は、
    内部共変量シフトを防止し、かつ次の畳み込み層に伝わる前にトレーニングを加速するためのバッチ正規化、および、
    前記1つまたは複数の部分画像の次元性を低減するために前記畳み込み層の少なくともいくつかの活性化に対して行うプーリング演算機構
    を行うことによって構成される、変えるステップ(304)と、
    マップ-シーケンスモジュールによって、前記1つまたは複数の機能マップに含まれる列を深さ方向に分離し、かつ対応する前記部分画像の前記1つまたは複数の機能マップの各列を連結することによって前記1つまたは複数の機能マップを特徴ベクトルのシーケンスに変換するステップ(306)と、
    シーケンス学習モジュールによって、回帰ニューラルネットワーク(RNN)ベースのエンコーダユニットおよびデコーダユニットを使用して、特徴ベクトルのそれぞれのシーケンスと関連付けられる前記視覚的特徴をマッピングすることによって、1つまたは複数の文字セットを生成するステップであって、前記1つまたは複数の文字セットは前記対応する部分画像に対して認識される機械可読テキストであり、前記RNNベースのエンコーダユニットおよびデコーダユニットのエンコーダユニットは、特徴ベクトルのそれぞれのシーケンスに対してコンテキストベクトルを生成するように構成され、前記RNNベースのエンコーダユニットおよびデコーダユニットのデコーダユニットは、前記対応する部分画像に対する文字セットを生成するために特徴ベクトルのそれぞれのシーケンスに対する前記コンテキストベクトルにわたって条件付き確率分布を適用するように構成され前記RNNベースのエンコーダユニットおよびデコーダユニットは、
    残差接続によって含まれている回帰ユニットを通した後続の回帰層への勾配流を促進すること、
    深さ方向接続に従ってドロップアウト機構を採用することによって長期依存性を捕らえるために回帰接続を修正することなく前記RNNベースのエンコーダユニットを規則化すること、
    層正規化によってミニバッチトレーニングによる共変量シフトを防止するために神経細胞を活性化すること、および、
    注意機構を通して、前記デコーダユニットの隠れ状態を前記エンコーダユニットの隠れ状態と合わせること
    によって構成される、生成するステップ(308)と、
    画像後処理モジュールによって前記文字セットを後処理するステップであって、前記後処理するステップは、手書きテキスト出力ファイルを生成するために前記対応する部分画像のそれぞれに対して前記文字セットを組み合わせることを含み、前記手書きテキスト出力ファイルは前記走査済み手書きテキスト入力画像の認識されたテキストバージョンである、後処理するステップ(310)と、を含む、プロセッサ実施方法。
  7. 前記前処理するステップは、左側および右側両方における対応する背景画素を有するバッチに含まれる前記1つまたは複数の部分画像をパディングして前記バッチにおける最も幅広い部分画像の幅をマッチさせることによって寸法の一様性を維持するためのミニバッチトレーニング技法を採用することと、ランダムな歪みを前記1つまたは複数の部分画像に取り込んで前記1つまたは複数の部分画像における変形を生じさせることと、をさらに含む、請求項に記載の方法。
  8. 前記CNNは、leaky ReLU活性化によって連続的に積み重ねられる7つの畳み込み層であ、請求項に記載の方法。

JP2019132445A 2018-07-19 2019-07-18 ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステムおよび方法 Active JP7311341B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN201821026934 2018-07-19
IN201821026934 2018-07-19

Publications (2)

Publication Number Publication Date
JP2020017274A JP2020017274A (ja) 2020-01-30
JP7311341B2 true JP7311341B2 (ja) 2023-07-19

Family

ID=67145731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019132445A Active JP7311341B2 (ja) 2018-07-19 2019-07-18 ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステムおよび方法

Country Status (6)

Country Link
US (1) US10839246B2 (ja)
EP (1) EP3598339A1 (ja)
JP (1) JP7311341B2 (ja)
CN (1) CN110738090B (ja)
AU (1) AU2019206010B2 (ja)
CA (1) CA3050025C (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10839543B2 (en) * 2019-02-26 2020-11-17 Baidu Usa Llc Systems and methods for depth estimation using convolutional spatial propagation networks
US11388416B2 (en) * 2019-03-21 2022-07-12 Qualcomm Incorporated Video compression using deep generative models
CN111753822A (zh) * 2019-03-29 2020-10-09 北京市商汤科技开发有限公司 文本识别方法及装置、电子设备和存储介质
US10984279B2 (en) * 2019-06-13 2021-04-20 Wipro Limited System and method for machine translation of text
US11023783B2 (en) 2019-09-11 2021-06-01 International Business Machines Corporation Network architecture search with global optimization
US10943353B1 (en) * 2019-09-11 2021-03-09 International Business Machines Corporation Handling untrainable conditions in a network architecture search
JP7417192B2 (ja) 2020-02-13 2024-01-18 京セラドキュメントソリューションズ株式会社 画像処理システムおよび画像処理プログラム
CN111291696B (zh) * 2020-02-19 2024-03-22 南京大学 一种基于卷积神经网络的手写东巴文识别方法
CN111353313A (zh) * 2020-02-25 2020-06-30 四川翼飞视科技有限公司 基于进化神经网络架构搜索的情感分析模型构建方法
CN111401374A (zh) * 2020-03-06 2020-07-10 湖南快乐阳光互动娱乐传媒有限公司 基于多任务的模型训练方法、字符识别方法及装置
JP7293157B2 (ja) * 2020-03-17 2023-06-19 株式会社東芝 画像処理装置
CN111444834A (zh) * 2020-03-26 2020-07-24 同盾控股有限公司 图像文本行检测方法、装置、设备及存储介质
CN111553363B (zh) * 2020-04-20 2023-08-04 北京易道博识科技有限公司 一种端到端的图章识别方法及系统
CN111639527A (zh) * 2020-04-23 2020-09-08 平安国际智慧城市科技股份有限公司 英文手写文本识别方法、装置、电子设备及存储介质
CN111786738B (zh) * 2020-07-01 2022-06-03 中国人民解放军陆军工程大学 基于长短期记忆的抗干扰学习的网络结构及学习方法
US11461988B2 (en) * 2020-07-23 2022-10-04 Suresh Babu Revoled Konti Method of transferring data between unconnected computing devices
CN112926372B (zh) * 2020-08-22 2023-03-10 清华大学 基于序列变形的场景文字检测方法及系统
CN114120336B (zh) * 2020-08-25 2023-08-08 本源量子计算科技(合肥)股份有限公司 手写数字识别方法、系统、设备及计算机可读存储介质
CN112052852B (zh) * 2020-09-09 2023-12-29 国家气象信息中心 一种基于深度学习的手写气象档案资料的字符识别方法
CN112183544A (zh) * 2020-09-29 2021-01-05 厦门大学 一种融合双通道的三层架构数学公式识别方法、系统和存储设备
CN112257847A (zh) * 2020-10-16 2021-01-22 昆明理工大学 一种基于CNN和LSTM预测地磁Kp指数的方法
CN112508023A (zh) * 2020-10-27 2021-03-16 重庆大学 基于深度学习的零件喷码字符端到端识别方法
KR102472971B1 (ko) * 2020-11-19 2022-12-02 네이버 주식회사 인공지능 모델을 이용한 동영상 인코딩 최적화 방법, 시스템, 및 컴퓨터 프로그램
RU2768211C1 (ru) 2020-11-23 2022-03-23 Общество с ограниченной ответственностью "Аби Продакшн" Оптическое распознавание символов посредством комбинации моделей нейронных сетей
WO2022125777A1 (en) * 2020-12-11 2022-06-16 Ancestry.Com Operations Inc. Handwriting recognition
CN112883818A (zh) * 2021-01-26 2021-06-01 上海西井信息科技有限公司 文本图像识别方法、系统、设备及存储介质
CN112686219B (zh) * 2021-03-11 2021-06-18 北京世纪好未来教育科技有限公司 手写文本识别方法及计算机存储介质
CN113313127B (zh) * 2021-05-18 2023-02-14 华南理工大学 文本图像识别方法、装置、计算机设备和存储介质
CN113255668B (zh) * 2021-06-22 2021-10-08 北京世纪好未来教育科技有限公司 文本识别方法、装置、电子设备、存储介质
CN113269189B (zh) * 2021-07-20 2021-10-08 北京世纪好未来教育科技有限公司 文本识别模型的构建方法、文本识别方法、装置及设备
CN113283427B (zh) * 2021-07-20 2021-10-01 北京世纪好未来教育科技有限公司 文本识别方法、装置、设备及介质
CN113344145B (zh) * 2021-08-02 2021-11-19 智道网联科技(北京)有限公司 字符识别方法、装置、电子设备和存储介质
CN113591764A (zh) * 2021-08-09 2021-11-02 广州博冠信息科技有限公司 手势识别方法、装置、存储介质和电子设备
CN113591882A (zh) * 2021-08-11 2021-11-02 卓尔智联(武汉)研究院有限公司 汽车配件识别方法、计算机装置及可读存储介质
CN113963339A (zh) * 2021-09-02 2022-01-21 泰康保险集团股份有限公司 一种信息提取方法和装置
CN113807340B (zh) * 2021-09-07 2024-03-15 南京信息工程大学 一种基于注意力机制的不规则自然场景文本识别方法
CN113837186A (zh) * 2021-11-29 2021-12-24 中央民族大学 一种基于卷积神经网络的东巴象形文字识别方法及装置
CN114283411B (zh) * 2021-12-20 2022-11-15 北京百度网讯科技有限公司 文本识别方法、文本识别模型的训练方法及装置
CN114118075B (zh) * 2022-01-28 2022-04-22 北京易真学思教育科技有限公司 文本识别方法、装置、电子设备和存储介质
CN114998673B (zh) * 2022-05-11 2023-10-13 河海大学 一种基于本地自注意力机制的大坝缺陷时序图像描述方法
CN115577118B (zh) * 2022-09-30 2023-05-30 南京信息工程大学 一种基于混合分组排序和动态实体记忆规划的文本生成方法
CN115797952B (zh) * 2023-02-09 2023-05-05 山东山大鸥玛软件股份有限公司 基于深度学习的手写英文行识别方法及系统
CN116630979B (zh) * 2023-04-10 2024-04-30 雄安创新研究院 一种ocr识别方法、系统、存储介质和边缘设备

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3433795A4 (en) 2016-03-24 2019-11-13 Ramot at Tel-Aviv University Ltd. METHOD AND SYSTEM FOR CONVERTING A TEXT IMAGE
US10354168B2 (en) 2016-04-11 2019-07-16 A2Ia S.A.S. Systems and methods for recognizing characters in digitized documents
US9881208B2 (en) 2016-06-20 2018-01-30 Machine Learning Works, LLC Neural network based recognition of mathematical expressions
US10846523B2 (en) 2016-11-14 2020-11-24 Kodak Alaris Inc. System and method of character recognition using fully convolutional neural networks with attention
US10733380B2 (en) * 2017-05-15 2020-08-04 Thomson Reuters Enterprise Center Gmbh Neural paraphrase generator
CN107180247A (zh) * 2017-05-19 2017-09-19 中国人民解放军国防科学技术大学 基于选择性注意力卷积神经网络的关系分类器及其方法
US10217028B1 (en) * 2017-08-22 2019-02-26 Northrop Grumman Systems Corporation System and method for distributive training and weight distribution in a neural network
EP3685312A4 (en) * 2017-09-19 2021-06-16 Ramot at Tel-Aviv University Ltd. METHOD AND SYSTEM FOR DETECTION OF IMAGE CONTENT
US10262235B1 (en) * 2018-02-26 2019-04-16 Capital One Services, Llc Dual stage neural network pipeline systems and methods
CN108509881A (zh) 2018-03-22 2018-09-07 五邑大学 一种无切分的脱机手写汉字文本识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Baoguang Shi et al.,An End-to-End Trainable Neural Network for Image-Based Sequence Recognition and Its Application to Scene Text Recognition,[online],2017年11月,https://ieeexplore.ieee.org/document/7801919
Baoguang Shi et al.,ASTER: An Attentional Scene Text Recognizer with Flexible Rectification,[online],2018年06月24日,https://ieeexplore.ieee.org/abstract/document/8395027
Fenfen Sheng et al.,End-to-End Chinese Image Text Recognition with Attention Model,[online],2017年,pp.180-189,https://link.springer.com/chapter/10.1007/978-3-319-70090-8_19
Joan Puigcerver et al.,Are Multidimensional Recurrent Layers Really Necessary for Handwritten Text Recognition?,[online],2017年,https://ieeexplore.ieee.org/document/8269951

Also Published As

Publication number Publication date
EP3598339A1 (en) 2020-01-22
US10839246B2 (en) 2020-11-17
CN110738090A (zh) 2020-01-31
CA3050025A1 (en) 2020-01-19
CN110738090B (zh) 2023-10-27
CA3050025C (en) 2021-11-02
AU2019206010A1 (en) 2020-02-06
JP2020017274A (ja) 2020-01-30
US20200026951A1 (en) 2020-01-23
AU2019206010B2 (en) 2023-11-02

Similar Documents

Publication Publication Date Title
JP7311341B2 (ja) ニューラルネットワークを使用するエンドツーエンド手書きテキスト認識のためのシステムおよび方法
Chowdhury et al. An efficient end-to-end neural model for handwritten text recognition
CN111767979B (zh) 神经网络的训练方法、图像处理方法、图像处理装置
Li et al. Highly efficient forward and backward propagation of convolutional neural networks for pixelwise classification
CN111553246B (zh) 基于多任务对抗学习网络的汉字风格迁移方法及系统
Jaramillo et al. Boosting handwriting text recognition in small databases with transfer learning
WO2023160472A1 (zh) 一种模型训练方法及相关设备
Bhunia et al. Indic handwritten script identification using offline-online multi-modal deep network
Ahmad et al. Offline Urdu Nastaleeq optical character recognition based on stacked denoising autoencoder
CN112686345B (zh) 一种基于注意力机制的脱机英文手写识别方法
CN110659725A (zh) 神经网络模型的压缩与加速方法、数据处理方法及装置
CN112329760A (zh) 基于空间变换网络端到端印刷体蒙古文识别翻译的方法
Naseer et al. Meta features-based scale invariant OCR decision making using LSTM-RNN
WO2023236977A1 (zh) 一种数据处理方法及相关设备
CN111985525A (zh) 基于多模态信息融合处理的文本识别方法
CN114863407A (zh) 一种基于视觉语言深度融合的多任务冷启动目标检测方法
CN111046771A (zh) 用于恢复书写轨迹的网络模型的训练方法
Cojocaru et al. Watch your strokes: improving handwritten text recognition with deformable convolutions
Cui et al. An end-to-end network for irregular printed Mongolian recognition
CN112070086B (zh) 文本识别系统的优化方法、计算机设备及存储介质
CN111724309B (zh) 图像处理方法及装置、神经网络的训练方法、存储介质
Hemanth et al. CNN-RNN BASED HANDWRITTEN TEXT RECOGNITION.
Yadav et al. Assamese character recognition using convolutional neural networks
Retsinas et al. Deformation-invariant networks for handwritten text recognition
Akkaya et al. Enhancing performance of vision transformers on small datasets through local inductive bias incorporation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230706

R150 Certificate of patent or registration of utility model

Ref document number: 7311341

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150