JP6611346B2 - 文字列認識装置、方法、及びプログラム - Google Patents

文字列認識装置、方法、及びプログラム Download PDF

Info

Publication number
JP6611346B2
JP6611346B2 JP2016110270A JP2016110270A JP6611346B2 JP 6611346 B2 JP6611346 B2 JP 6611346B2 JP 2016110270 A JP2016110270 A JP 2016110270A JP 2016110270 A JP2016110270 A JP 2016110270A JP 6611346 B2 JP6611346 B2 JP 6611346B2
Authority
JP
Japan
Prior art keywords
character string
character
candidate
image
cnn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016110270A
Other languages
English (en)
Other versions
JP2017215859A (ja
Inventor
新豪 劉
隆仁 川西
小萌 武
邦夫 柏野
薫 平松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016110270A priority Critical patent/JP6611346B2/ja
Publication of JP2017215859A publication Critical patent/JP2017215859A/ja
Application granted granted Critical
Publication of JP6611346B2 publication Critical patent/JP6611346B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Character Discrimination (AREA)

Description

本発明は、文字列認識装置、方法、及びプログラムに係り、特に、文字列画像が表す文字列を認識するための文字列認識装置、方法、及びプログラムに関する。
文字検出と分類に関する従来技術として、伝統的にHOG特徴が使われている。また、文字特有の中間特徴を学習により作り出す技術や、属性を部分空間で表現した手法も提案されている。
また、最近ではDNNを用いた特徴も提案されており、例えば、教師無しCNN特徴が提案されている(非特許文献1)。
本発明では、文字列画像が表す文字列を精度よく認識する文字列認識装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明に係る文字列認識装置は、文字列画像が表す文字列を認識する文字列認識装置であって、前記文字列画像に対して部分画像を切り出すための窓を走査して、前記窓で切り出された部分画像の各々を、Network in Network構造であって、かつ、文字を認識するための予め学習されたCNN(Convolutional Neural Network)に入力して、前記部分画像の各々についての各文字のスコアを表すCNNスコア行列を求める文字認識部と、を含んで構成されている。
本発明に係る文字列認識方法は、文字列画像が表す文字列を認識する文字列認識装置における文字列認識方法であって、文字認識部が、前記文字列画像に対して部分画像を切り出すための窓を走査して、前記窓で切り出された部分画像の各々を、Network in Network構造であって、かつ、文字を認識するための予め学習されたCNN(Convolutional Neural Network)に入力して、前記部分画像の各々についての各文字のスコアを表すCNNスコア行列を求め、文字列候補認識部が、前記文字認識部によって求められた前記CNNスコア行列に基づいて、前記文字列画像が表す文字列候補を認識する。
また、本発明のプログラムは、コンピュータを、上記の文字列認識装置を構成する各部として機能させるためのプログラムである。
以上説明したように、本発明の文字列認識装置、方法、及びプログラムによれば、文字列画像に対して走査した窓で切り出された部分画像の各々を、Network in Network構造のCNNに入力し、求められたCNNスコア行列に基づいて、文字列画像が表す文字列候補を認識することにより、文字列画像が表す文字列を精度よく認識することができる。
本発明の第1の実施の形態及び第2の実施の形態に係る文字列認識装置の構成を示すブロック図である。 Network in Network構造のCNNを示す図である。 RNNを示す図である。 スコアを再検証する方法を説明するための図である。 本発明の第1の実施の形態に係る文字列認識装置における文字列認識処理ルーチンの内容を示すフローチャートである。 第2の実施の形態に係る文字列認識装置の処理の流れを示す図である。 探索グラフを用いて文字列を認識する方法を説明するための図である。 本発明の第2の実施の形態に係る文字列認識装置における文字列認識処理ルーチンの内容を示すフローチャートである。 実験結果を示す図である。 本発明の実施の形態の他の例に係る文字列認識装置の処理の流れを示す図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態の概要>
入力画像から、文字の領域を切り出すことを検出と言う。検出された文字の領域の画像から、どの単語に該当するか、判断する過程を認識とよぶ。このように画像内文字認識の過程として、以下の3つのタスクが考えられる。
1)文字領域の場所を検出する。
2)切り出された文字領域を入力として、そこに描かれている文字を認識する。
3)画像の入力から認識結果の出力までのトータルの技術を扱う。
本実施の形態では、上記の2)を扱う。また、本実施の形態では、以下の3つのポイントを特徴としている。
1)CNNを用いた高い性能の文字分類器を用いる。
2)辞書と言語モデルを組み合せたWFSTによる文字列のラベル付け技術を用いる。
3)RNN系列分類器による文字列認識技術を用いる。
<第1の実施の形態>
<文字列認識装置のシステム構成>
図1は、本発明の第1の実施の形態に係る文字列認識装置100を示すブロック図である。この文字列認識装置100は、CPUと、RAMと、後述する文字列認識処理ルーチンを実行するためのプログラムを記憶したROMと、を備えたコンピュータで構成され、機能的には次に示すように構成されている。
本実施の形態に係る文字列認識装置100は、図1に示すように、入力部10と、演算部20と、出力部40とを備えている。
入力部10は、文字列画像を入力として受け付ける。文字列画像は、画像から文字列の領域を切り出した画像であり、縦の画素数が所定数となるように大きさが正規化されているものとする。ここで、所定数とは、後述する窓と同じサイズである。
演算部20は、文字認識部22、文字列候補認識部24、及び文字列認識部26を備えている。
文字認識部22は、入力された文字列画像に対して部分画像を切り出すための窓を走査して、窓で切り出された部分画像の各々を、Network in Network構造であって、かつ、文字を認識するための予め学習されたCNN(Convolutional Neural Network)に入力して、部分画像の各々についての各文字のスコアを表すCNNスコア行列を求める。
本実施の形態では、文字認識のタスクで、図2に示すような、Network in Network構造を持つCNNを用いて、走査ステップ毎に窓で切り出された部分画像から、例えば、62クラスへ分類するための各スコアを計算し、走査した窓毎に62クラスの各スコアを並べたCNNスコア行列が得られる。
ここで、62クラスとは、数字10個、アルファベット26文字*2(大文字,小文字)を合わせたものである。
また、Network in Network構造を持つCNNの入力としては、32×32のグレースケール画像を用い、Micro network(非特許文献2(M. Lin et al. "Network in Network", ICLR 2014)を参照)に接続された3つの畳み込み層(convolutional layer)と、128個のニューロンを有する、1つの全接続層(fully connected layer)とを有するCNNを用いる。
畳み込み層間は、小さな複層パーセプションネットワークで接続され、全接続層は、分類カテゴリと特徴マップとを直接リンクさせるグローバルアベレージプーリング層である。
なお、CNNは、訓練データに基づいて予め学習しておく。
文字列候補認識部24は、文字認識部22によって求められたCNNスコア行列に対して、局所的な最大値以外を押さえる強調処理を行い、強調処理後のCNNスコア行列から、文字列画像が表す文字列候補を認識する。具体的には、強調処理後のCNNスコア行列を、文字列候補を認識するための予め学習されたRNN(Recurrent Neural Network)に入力して、文字列画像が表す文字列候補の各々を求める。
本実施の形態では、RNNとして、図3に示すLSTMを用いた双方向のRNN系列分類器を用いる。
なお、RNNは、訓練データに基づいて予め学習しておく。
文字列認識部26は、文字列候補認識部24によって認識された文字列候補から、誤った文字列候補を取り除くことにより、文字列画像が表す文字列を認識する。本実施の形態では、文字列候補認識部24によって認識された文字列候補の各々について、CNNスコア行列から得られるスコアを再検証することにより、誤った文字列候補を取り除く。
具体的には、CNNスコア行列Mに基づいて、文字列候補Wの各々について、以下の式に従ってスコアS(W,M)を計算し、再検証を行う。
ただし、W={c1,c2,…,cN}であり、pi+Δは、文字ciの中心の位置である(図4参照)。また、B=[−δ,δ]は、幅を示すパラメタである。実験ではδを5としている。
文字列候補Wの各々について計算されたスコアS(W,M)に基づいて、スコアS(W,M)が最大となる文字列候補Wを、文字列画像が表す文字列の認識結果とする。
出力部40は、文字列画像が表す文字列の認識結果を出力する。
<文字列認識装置の作用>
次に、本実施の形態に係る文字列認識装置100の作用について説明する。縦の画素数が所定数となるように大きさが正規化されている文字列画像が、文字列認識装置100に入力されると、文字列認識装置100によって、図5に示す文字列認識処理ルーチンが実行される。
まず、ステップS100において、入力された文字列画像に対して窓を走査して、窓で切り出された部分画像の各々を、Network in Network構造のCNN(Convolutional Neural Network)に入力して、部分画像の各々についての各文字のスコアを表すCNNスコア行列を求める。
そして、ステップS102において、上記ステップS100で求められたCNNスコア行列に対して、強調処理を行う。
ステップS104では、強調処理後のスコア行列を、文字列候補を認識するための予め学習されたRNN(Recurrent Neural Network)に入力して、文字列画像が表す文字列候補の各々を取得する。
そして、ステップS106では、上記ステップS100で得られたCNNスコア行列Mに基づいて、上記ステップS104で得られた文字列候補Wの各々について、スコアS(W,M)を計算し、再検証し、スコアS(W,M)が最大となる文字列候補Wを、文字列画像が表す文字列の認識結果として、出力部40により出力し、文字列認識処理ルーチンを終了する。
以上説明したように、本発明の第1の実施の形態に係る文字列認識装置によれば、文字列画像に対して走査した窓で切り出された部分画像の各々を、Network In Network構造のCNNに入力し、求められたCNNスコア行列に基づいて、文字列画像が表す文字列候補を認識することにより、文字列画像が表す文字列を精度よく認識することができる。
また、CNN特徴がさまざまなノイズ・変形に強いことから、CNNスコア行列を用いて、文字列画像が表す文字列を精度よく認識することができる。
また、RNNを用いて、文字列候補を求めることにより、文脈の情報を十分に役立てることができ、また、原語モデルや語彙辞書を前提とせずに、文字列候補を得ることができる。
<第2の実施の形態>
<文字列認識装置のシステム構成>
次に、第2の実施の形態について説明する。なお、第2の実施の形態に係る文字列認識装置は、第1の実施の形態と同様の構成であるため、同一符号を付して説明を省略する。
第2の実施の形態では、図6に示すように、文字列候補に対して、WFST(Weight Finite State Transducer)に基づく探索グラフを作成して、文字列画像が表す文字列の認識結果を求めている点が、第1の実施の形態と異なっている。
第2の実施の形態では、文字列認識部26は、文字列候補認識部24によって認識された文字列候補の各々から、言語モデル及び語彙辞書から得られる、文字列候補の各々に対応する文字列を表す探索グラフを生成し、生成した探索グラフに基づいて、文字列画像が表す文字列を認識する。
具体的には、文字列候補の各々を、語彙辞書の中の正しい文字列に対応付けることにより、語彙辞書から得られる文字列候補の各々に対応する文字列を表す、語彙辞書に基づくWFST Lを生成し、文字列候補の各々を、言語モデルの中の正しい文字列に対応付けることにより、言語モデルから得られる文字列候補の各々に対応する文字列を表す、言語モデルに基づくWFST Gを生成し、複数のWFSTを組み合わせて、効率のよい1つの探索グラフを作成する。
作成した探索グラフを用いて、文字列候補に対して編集距離が最も短い文字列を求め、文字列画像が表す文字列の認識結果とする。
例えば、図7に示すように、文字列候補「POCHIETL」に対して、編集距離が最も短い文字列を求めることで、文字列の認識結果「POCKET」を得ることができる。
<文字列認識装置の作用>
次に第2の実施の形態における文字列認識処理ルーチンについて、図8を用いて説明する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
まず、ステップS100において、入力された文字列画像に対して窓を走査して、窓で切り出された部分画像の各々を、Network in Network構造のCNNに入力して、CNNスコア行列を求める。
そして、ステップS102において、上記ステップS100で求められたCNNスコア行列に対して、強調処理を行う。
ステップS104では、強調処理後のスコア行列を、RNNに入力して、文字列画像が表す文字列候補の各々を取得する。
そして、ステップS206では、上記ステップS104で得られた文字列候補Wの各々から、語彙辞書に基づくWFST L、及び言語モデルに基づくWFST Gを組み合わせた探索グラフを作成する。ステップS208では、上記ステップS206で作成した探索グラフを用いて、文字列候補に対して編集距離が最も短い文字列を求め、文字列画像が表す文字列の認識結果として、出力部40により出力し、文字列認識処理ルーチンを終了する。
以上説明したように、本発明の第2の実施の形態に係る文字列認識装置によれば、文字列候補に対して、複数のWFSTに基づく探索グラフを作成して、文字列画像が表す文字列の認識結果を求めることにより、効率的に、語彙辞書と言語モデルの双方を考慮した文字列を認識結果として得ることができる。
<実施例>
既存のICDAR 2003のデータセット、SVT-WORDのデータセット、IIIT5Kのデータセットを用いて上述した第2の実施の形態の手法による文字列認識の効果を検証する評価実験を行った。比較対象は従来のICCV2011(非特許文献3)、BMVC2012(非特許文献4)、ICPR2012(非特許文献5)、CVPR2014(非特許文献6)、ICLR2014(非特許文献7)、ECCV2014(非特許文献8)、PAMI2014(非特許文献9)に記載の各手法とした。
[非特許文献3]: Kai Wang, Boris Babenko, and Serge Belongie, “Endto-end scene text recognition,” in ICCV. IEEE, 2011,pp. 1457-1464.
[非特許文献4]:Anand Mishra, Karteek Alahari, and CV Jawahar,“Scene text recognition using higher order language priors,”in BMVC, 2012
[非特許文献5]:Tao Wang, David J Wu, Andrew Coates, and Andrew Y Ng, “End-to-end text recognition with convolutional neural networks,” in Pattern Recognition (ICPR), 2012 21st International Conference on. IEEE, 2012, pp. 3304-3308.
[非特許文献6]:Cong Yao, Xiang Bai, Baoguang Shi, and Wenyu Liu,“Strokelets: A learned multi-scale representation for scene text recognition,” in Computer Vision and Pattern Recognition (CVPR), 2014 IEEE Conference on. IEEE, 2014, pp. 4042-4049.
[非特許文献7]:Ouais Alsharif and Joelle Pineau, “End-to-end text recognition with hybrid HMM maxout models,” in ICLR, 2014.
[非特許文献8]: Max Jaderberg, Andrea Vedaldi, and Andrew Zisserman, “Deep features for text spotting,” in Computer Vision-ECCV 2014, pp. 512-528. Springer, 2014.
[非特許文献9]: Jon Almazan, Albert Gordo, Alicia Forn´es, and Ernest Valveny, “Word spotting and recognition with embedded attributes,” Pattern Analysis and Machine Intelligence, IEEE Transactions on, vol. 36, no. 12, pp. 2552-2566, 2014.
文字列認識の結果を図9の表に示す。ノイズや変形の多いデータセットに対して、上述した第2の実施の形態の手法では、最高性能を示すことが分かった。
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、図10に示すように、RNNを用いずに、強調処理後のCNNスコア行列から、順序の整合性を考慮した解釈により、文字列候補を取得するようにしてもよい。
上述の文字列認識装置100は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
例えば、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
10 入力部
20 演算部
22 文字認識部
24 文字列候補認識部
26 文字列認識部
40 出力部
100 文字列認識装置

Claims (4)

  1. 文字列画像が表す文字列を認識する文字列認識装置であって、
    前記文字列画像に対して部分画像を切り出すための窓を走査して、前記窓で切り出された部分画像の各々を、文字を認識するための予め学習されたCNN(Convolutional Neural Network)に入力して、前記部分画像の各々についての各文字の文字スコアを表すCNNスコア行列を求める文字認識部と、
    前記文字認識部によって求められた前記CNNスコア行列を、文字列候補を認識するための予め学習されたRNN(Recurrent Neural Network)に入力して、前記文字列画像が表す文字列候補を認識する文字列候補認識部と、
    前記文字列候補認識部によって認識された文字列候補の各々について、前記CNNスコア行列を用いて再検証し、誤った文字列候補を取り除くことにより、前記文字列画像が表す文字列を認識する文字列認識部と、
    を含み、
    前記文字列認識部は、前記再検証する際に、前記文字列候補に含まれる各文字について、前記CNNスコア行列における、前記文字の順番に応じて定められる文字の中心位置に対応して得られる複数の文字スコアの最大値を、前記文字の最大文字スコアとして取得し、前記文字列候補に含まれる各文字について取得された最大文字スコアの和と、前記文字列候補の文字数とから、前記文字列候補に対する文字列スコア関数の値を計算し、前記文字列スコア関数の値が最大となる前記文字列候補を、前記文字列画像が表す文字列として認識する
    文字列認識装置。
  2. 前記文字列スコア関数は、以下の式で表される請求項1記載の文字列認識装置。

    ただし、Wは、前記文字列候補を表し、W={c 1 ,c 2 ,…,c N }であり、Mは、前記CNNスコア行列であり、M(c、p)は、p番目の前記部分画像での文字cの文字スコアを表す要素であり、p i は、i番目の文字c i について予め定められた中心位置を示す番号であり、B=[−δ,δ]は、−δからδまでの整数の集合であり、δは予め定められた整数であり、Nは、前記文字列候補の文字数である。
  3. 文字列画像が表す文字列を認識する文字列認識装置における文字列認識方法であって、
    文字認識部が、前記文字列画像に対して部分画像を切り出すための窓を走査して、前記窓で切り出された部分画像の各々を、文字を認識するための予め学習されたCNN(Convolutional Neural Network)に入力して、前記部分画像の各々についての各文字の文字スコアを表すCNNスコア行列を求め、
    文字列候補認識部が、前記文字認識部によって求められた前記CNNスコア行列を、文字列候補を認識するための予め学習されたRNN(Recurrent Neural Network)に入力して、前記文字列画像が表す文字列候補を認識し、
    文字列認識部が、前記文字列候補認識部によって認識された文字列候補の各々について、前記CNNスコア行列を用いて再検証し、誤った文字列候補を取り除くことにより、前記文字列画像が表す文字列を認識する
    ことを含み、
    前記文字列認識部が、前記再検証する際に、前記文字列候補に含まれる各文字について、前記CNNスコア行列における、前記文字の順番に応じて定められる文字の中心位置に対応して得られる複数の文字スコアの最大値を、前記文字の最大文字スコアとして取得し、前記文字列候補に含まれる各文字について取得された最大文字スコアの和と、前記文字列候補の文字数とから、前記文字列候補に対する文字列スコア関数の値を計算し、前記文字列スコア関数の値が最大となる前記文字列候補を、前記文字列画像が表す文字列として認識する
    文字列認識方法。
  4. コンピュータを、請求項1又は2記載の文字列認識装置を構成する各部として機能させるためのプログラム。
JP2016110270A 2016-06-01 2016-06-01 文字列認識装置、方法、及びプログラム Active JP6611346B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016110270A JP6611346B2 (ja) 2016-06-01 2016-06-01 文字列認識装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016110270A JP6611346B2 (ja) 2016-06-01 2016-06-01 文字列認識装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017215859A JP2017215859A (ja) 2017-12-07
JP6611346B2 true JP6611346B2 (ja) 2019-11-27

Family

ID=60575753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016110270A Active JP6611346B2 (ja) 2016-06-01 2016-06-01 文字列認識装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6611346B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108427953A (zh) * 2018-02-26 2018-08-21 北京易达图灵科技有限公司 一种文字识别方法及装置
KR101951595B1 (ko) * 2018-05-18 2019-02-22 한양대학교 산학협력단 모듈형 순환 신경망 구조 기반 차량 경로 예측 시스템 및 방법
JP7172351B2 (ja) * 2018-09-21 2022-11-16 富士フイルムビジネスイノベーション株式会社 文字列認識装置及び文字列認識プログラム
KR102235506B1 (ko) * 2018-10-05 2021-04-02 주식회사 한글과컴퓨터 문자 인식 장치 및 방법
CA3115746C (en) 2018-10-24 2023-08-29 Fujitsu Frontech Limited Banknote inspection device, banknote inspection method, and banknote inspection program
JP7343585B2 (ja) * 2019-07-17 2023-09-12 富士フイルム富山化学株式会社 識別支援システム、識別支援クライアント、識別支援サーバ、及び識別支援方法
CN111507353B (zh) * 2020-04-17 2023-10-03 新分享科技服务(深圳)有限公司 一种基于文字识别的中文字段检测方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830728A (ja) * 1994-07-12 1996-02-02 Suzuki Motor Corp 画像の二値化装置
JP5300000B2 (ja) * 2008-09-19 2013-09-25 国立大学法人豊橋技術科学大学 調音特徴抽出装置、調音特徴抽出方法、及び調音特徴抽出プログラム
US8484154B2 (en) * 2009-12-14 2013-07-09 Intel Corporation Methods and systems to traverse graph-based networks
JP5536687B2 (ja) * 2011-01-31 2014-07-02 インターナショナル・ビジネス・マシーンズ・コーポレーション 目次と見出しの対応付け方法、対応付け装置、及び対応付けプログラム
CN105247540B (zh) * 2013-06-09 2018-10-16 苹果公司 管理实时手写识别
JP6303671B2 (ja) * 2014-03-20 2018-04-04 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム

Also Published As

Publication number Publication date
JP2017215859A (ja) 2017-12-07

Similar Documents

Publication Publication Date Title
JP6611346B2 (ja) 文字列認識装置、方法、及びプログラム
EP3620956B1 (en) Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same
JP6678778B2 (ja) 画像内の物体を検出する方法及び物体検出システム
CN106548127B (zh) 图像识别方法
US8306327B2 (en) Adaptive partial character recognition
JP4905931B2 (ja) 人体領域抽出方法および装置並びにプログラム
IL273446A (en) Method and system for identifying content in an image
US20060239560A1 (en) Recognition graph
WO2020164278A1 (zh) 一种图像处理方法、装置、电子设备和可读存储介质
JP2004054956A (ja) 顔/類似顔映像で学習されたパターン分類器を利用した顔検出方法及びシステム
US10373028B2 (en) Pattern recognition device, pattern recognition method, and computer program product
Hussain et al. Nastalique segmentation-based approach for Urdu OCR
JP6170860B2 (ja) 文字認識装置及び識別関数生成方法
Mor et al. Confidence prediction for lexicon-free OCR
CN109033321B (zh) 一种图像与自然语言特征提取及基于关键词的语言指示图像分割方法
JP2018206252A (ja) 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
Liu et al. Scene text recognition with high performance CNN classifier and efficient word inference
Liu et al. Scene text recognition with CNN classifier and WFST-based word labeling
CN117115824A (zh) 一种基于笔划区域分割策略的视觉文本检测方法
Sirigineedi et al. Deep Learning Approaches for Autonomous Driving to Detect Traffic Signs
JP6393495B2 (ja) 画像処理装置および物体認識方法
Duth et al. Recognition of hand written and printed text of cursive writing utilizing optical character recognition
JP6235368B2 (ja) パターン認識装置、パターン認識方法およびプログラム
Meena et al. Hybrid neural network architecture for multi-label object recognition using feature fusion
Hassan et al. SCAN: Sequence-character Aware Network for Text Recognition.

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20160622

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191028

R150 Certificate of patent or registration of utility model

Ref document number: 6611346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150