JP3027321B2 - 拘束のない手書き英数字のオンライン認識の方法及び装置 - Google Patents

拘束のない手書き英数字のオンライン認識の方法及び装置

Info

Publication number
JP3027321B2
JP3027321B2 JP7249837A JP24983795A JP3027321B2 JP 3027321 B2 JP3027321 B2 JP 3027321B2 JP 7249837 A JP7249837 A JP 7249837A JP 24983795 A JP24983795 A JP 24983795A JP 3027321 B2 JP3027321 B2 JP 3027321B2
Authority
JP
Japan
Prior art keywords
character
feature value
class
vector
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP7249837A
Other languages
English (en)
Other versions
JPH08180139A (ja
Inventor
トゥ ロ−ティン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Publication of JPH08180139A publication Critical patent/JPH08180139A/ja
Application granted granted Critical
Publication of JP3027321B2 publication Critical patent/JP3027321B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/333Preprocessing; Feature extraction
    • G06V30/347Sampling; Contour coding; Stroke extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/36Matching; Classification
    • G06V30/373Matching; Classification using a special pattern or subpattern alphabet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Character Discrimination (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、文字認識に係り、
特に、(機械印刷文字と共に)手書き文字のオンライン
認識、即ち、認識されるべき文字が手書きされるときに
認識するため十分に高速である認識装置及び方法に関す
る。
【0002】
【従来の技術】文字認識は、電子的なディジタル形式で
はなく、人間が読解できる形式(即ち、機械印刷又は手
書きの形式)である情報を入力するため屡々使用される
ことがある。例えば、殆どのコンピュータ装置は、キー
パンチ入力を受けるためのキーボードを有し、一方、他
のコンピュータ装置は書類の入力を受けるための光学ス
キャナを有する。更に別のコンピュータ装置は、手書き
の入力を受けるためのペン状のスタイラスとタブレット
形のディジタイザを有する。上記手書き入力装置が設け
られる理由は多数ある。例えば、多くのユーザは、キー
パンチよりも手書きによるデータ入力の方に慣れてい
る。その上、キーボードには、パーソナルディジタルア
シスタント又はPDAのような小さい携帯形コンピュー
タには収容し得ない大きい空間が必要とされる。
【0003】図1には従来の手書き文字認識装置10が
示されている。手書き文字認識装置には、手書き入力を
受けるためのタブレット及びスタイラス12が含まれて
いる。ユーザはタブレットの表面でスタイラスを動か
す。スタイラス及びタブレット12は、ユーザのタブレ
ットに対するスタイラスの動きをディジタル的な2進デ
ータに変換する。上記ディジタル的な2進データはその
スタイラスの動きをグラフィック的に表わす。即ち、ユ
ーザがペンと紙を使用するならば、ペンの動きによって
紙の上に線が得られる。上記スタイラス及びタブレット
は、上記線の画素化された画像をディジタルデータの形
式で生成する。
【0004】スタイラス及びタブレット12は上記デー
タをインタフェース14に送る。次いで、インタフェー
ス14は上記データをシステムバス16に送る。手書き
認識装置10は、プロセッサ又はCPU22と、主記憶
装置18と、ディスク記憶装置20と、陰極線管及びス
ピーカーのようなオーディオ/ビデオ出力装置24とを
有する。上記装置18、20、22及び24の各々は、
何れか他の装置又はインタフェース14との間でデータ
の送信及び受信を行うためシステムバス16に接続され
ている。オーディオ/ビデオ出力装置24は、画像及び
音声の形式で情報をユーザに搬送するためにある。主記
憶装置18及びディスク記憶装置20は、データ及びプ
ログラムを記憶するためにある。CPU2はデータを
処理するためにある。特に、他の装置12、14、1
6、18、2及び24と組み合わされたCPU2
は、入力された手書き文字データから文字を認識する段
階を実行する。
【0005】図2には、図1の装置10と類似したアー
キテクチャを有する他の文字認識装置10’が示されて
いる。しかし、光学スキャナ13’がスタイラス及びタ
ブレット12の代わりに設けられている。書類は文字の
画素化された画像をディジタルデータの形式で生成する
光学スキャナに供給される。図3は図1の手書き認識装
置10により行われる従来の手書き文字認識方法を示し
ている。第1のステップ32において、入力手書きデー
タが受けられる。例えば、スタイラス及びタブレット1
2(図1)を使用して、ユーザは少なくとも一つの文字
を書く。スタイラス及びタブレット12は、書かれた文
字がグラフィック的に表わされた文字データをインタフ
ェース14に送る。インタフェース14は、入力文字デ
ータをシステムバス16を介して、例えば、主記憶装置
18に送る。次のステップ34において、CPU22
は、主記憶装置18内の入力文字データに前処理を施
す。例えば、CPU22は、最小の閾値よりも小さい面
積を有する連結された画素のクラスタを捨てることによ
りノイズを除去する。更に、CPU22は、入力文字の
グラフィック的な画像を平滑化する。次いで、ステップ
36において、CPU22は、文字のスケルトン画像を
選択的に形成し、スケルトン画像を輪郭の拡張された画
像に変換する(即ち、スケルトン画像の線を太くす
る)。ステップ38において、CPUは文字の画像を区
分する(即ち、画像を副画像に分割する)。このセグメ
ンテーションは抽出されるべき特徴に依存している。次
のステップ40において、CPU22は文字の特徴値を
抽出する。(以下、特徴とは、少なくとも一文字の画像
を他の画像と識別するため有用である定量化可能な画像
のグラフィック的な特性を意味する。)ステップ42に
おいて、CPU22は、抽出された特徴値を、文字認識
データベースの中から手書き文字認識装置10によって
認識される対応するモデル文字の特徴値と比較する。文
字認識データベースは、例えば、ディスク記憶装置20
に記憶される。ステップ42において実行された比較に
基づいて、CPU22は、文字認識データベースの中か
ら手書き文字の画像に最も良く一致するモデル文字を定
める。ステップ44において、CPUは最も良くマッチ
ングするモデル文字を出力する。
【0006】図3の手書き文字認識処理は、かなり抽象
的であり、基本的である。多数の変形及び改良が機械印
刷及び手書き文字を認識するため提案されている。米国
特許第5,151,950 号、第5,050,219 号、第5,034,989
号、第4,903,312 号、第4,731,857 号、第4,718,103
号、第4,685,142 号及び第4,284,975 号明細書と、リー
(D. Lee)とスリハリ(N. Srihari)による「手書き印刷の
ディジタル認識:アルゴリズムの比較(Handprinted Dig
ital Recognition: A comparison of Algorithms)」、
手書き認識の新領域の第3回ワークショップ(THIRD INT
ERNATIONAL WORKSHOP ON FRONTIERS IN HANDWRITING RE
COGNITION)、153-162 ページ、1993年発行と、スリカン
タン(G. Srikantan)による「手書き文字認識の勾配表現
(Gradient Representation for Handwritten Character
Recognition) 」、手書き認識の新領域の第3回ワーク
ショップ、318-323 ページ、1993年発行と、ツウ(L. T
u) 、リン(W. Lin)、チャン(Y. Chan) 及びシュー(I. S
hyu) による「PCベースの手書き漢字認識装置(A PC B
ased Handwritten Chinese Character Recognition Sys
tem) 」、手書き認識の新領域の第3回ワークショッ
プ、349-354 ページ、1993年発行とを参照のこと。殆ど
の装置は、各文字を構成するストロークを識別し、かく
して識別されたストロークを文字認識データベース内の
モデル文字のストロークと比較することにより手書き文
字を認識する。個々のストロークを使用する認識は、手
書き文字のオンライン認識に非常に役立つ。しかし、ス
トロークの識別には、CPU22が各ストロークに属し
ている画素を明瞭に判定できるよう光学スキャナではな
くスタイラス及びタブレット形の入力装置が屡々必要と
される。従って、ストロークの検出は手書き文字のオフ
ライン認識又は機械印刷文字認識には使用されない。
【0007】上記引用文献の中には、ストロークの検出
/認識を使用するのではなく、文字自体の画素化された
画像から輪郭の特徴値を抽出する装置も開示されてい
る。従って、このような装置は、手書きのオフライン認
識及び機械印刷文字認識に使用することが可能である。
特に、米国特許第4,903,312 号(サトウ)明細書には、
図4に示す如く、入力文字の各画像が境界を定める矩形
状の画素配列50内に収められる文字認識装置が開示さ
れている。入力文字の画像は、図5に示す如く、ゾーン
と呼ばれるより小さい矩形51−66に区分される。上
記引例によれば、境界を定める矩形のゾーン51−66
への分割は可変的である。即ち、区分されたゾーン51
−66の間の分割線の位置は、境界を定める矩形内の文
字の画素の分布に基づいて決められる。
【0008】典型的な文字認識装置において、入力文字
と比較されるモデル文字の文字認識データベースは、認
識を行う前に構築されることが必要である。文字認識デ
ータベースは多数の方法で構造化することが可能であ
る。例えば、米国特許第5,050,219 号(マウリイ(Maur
y) )明細書には、木構造に従って構造化された文字認
識データベースが開示されている。木構造中の葉以外の
ノードの各々には、入力文字の特徴値に対し行われるべ
き複数の所定の特徴の比較の中の特定の一つが含まれて
いる。かかる葉以外のノードにおける比較の結果に基づ
いて、データベースは、特定の付属した子ノードの方へ
探索される。比較段階において、木は葉ノードに達する
まで探索される。次いで、上記文字は葉ノードに対応す
る文字として認識される。
【0009】他の文字認識データベースはフラットな構
造である。かかる文字認識データベースは、認識される
べき各モデル文字に対し一組の特徴値を含む。入力文字
の特徴値は各々の特徴値の組と比較される。入力文字
は、入力文字の特徴値に最も良く一致する特徴値の組に
対応するモデル文字として認識される。上記の如く使用
されるフラットな文字認識データベースは、従来以下の
ように作られる。認識され得る各モデル文字用の多数の
見本が図1の装置10に入力される。特徴値は各モデル
文字の見本に対し抽出される。各モデル文字に対し、一
組の平均特徴値を形成するため特徴値が見本の全体に亘
って平均化される。即ち、各モデル文字に対し入力され
た全部でP個の見本の中のp番目の見本毎にL個の特徴
値A1p、A2p、...、ALpが抽出されると想定する。
式中、L及びPは正の整数を表わし、lは1乃至Lのイ
ンデックスを表わし、pは1乃至Pのインデックスを表
わす。従って、特定のモデル文字に対するl番目の平均
特徴値
【0010】
【外1】
【0011】は:
【0012】
【数6】
【0013】によって得られる。
【0014】
【発明が解決しようとする課題】見本の特徴値データの
分散に関連する従来技術のフラットなデータベースの構
築技術には問題点がある。所定の入力文字にP個の見本
が与えられ、各特徴値に対しL個の特徴値が得られる上
記の例の場合を想定する。各p番目の見本は、L個の特
徴値Ap のベクトルによって表わされる。かかるベクト
ルはL次元の超空間にプロットすることが可能である。
図6は上記のようなグラフィック的な描画の一例を示す
図であり、各点はP個の見本の中の一つを表わし、各軸
はL個の特徴値の中の別々の一つに対応している。図6
のグラフは一般的なL次元超空間に当てはまる原理を実
証する目的のため2次元空間に描画されている。
【0015】同図に示す如く、見本はかなり不均一に分
布している。ここに、一つの平均特徴値ベクトルを用い
て文字を認識する場合の問題点がある。三角形によって
示された点1000は、P個の見本の全体に亘る平均特
徴値ベクトルを表わしている。P個の分布の境界の近く
にあり、星印によって示された特徴値ベクトル1010
を有する入力文字を考慮する。同図により分かる如く、
入力文字の特徴値ベクトル1010は、平均特徴値ベク
トル1000から「離れて」いる。そのため、上記の如
く形成されたような平均特徴値ベクトルを利用する従来
の技術は、入力文字を正しいモデル文字として認識する
ことが難しい。
【0016】本発明の目的は上記従来技術の問題点を解
決することである。
【0017】
【課題を解決するための手段】上記及び他の目的は、改
良された文字認識の方法及び装置を提供する本発明によ
って達成される。本発明の一実施例によれば、文字認識
データベースは以下の如く作成される。モデル文字の見
本は、例えば、スタイラス及びライティングタブレッ
ト、又は、光学スキャナのような文字入力装置を介して
文字認識装置に入力される。文字認識装置のプロセッサ
を使用して、各モデル文字の見本は多数のクラスに分類
される。
【0018】プロセッサは、例えば、以下のように各モ
デル文字の見本を分類する。最初に、文字認識装置のプ
ロセッサを使用して、所定のモデル文字の入力文字の見
本は区分され、区分されたモデル文字から特徴値が抽出
される。初期条件として、プロセッサは、未分類、即
ち、未だ何れのクラスにも構造化(即ち分類)されてい
ない見本の個数pが第1の閾値P1 以上であるかどうか
を判定する。もし、pが閾値以上である場合、プロセッ
サは、例えば、未だ何れのクラスにも構造化されていな
い残りの見本の平均を定めることにより新しいクラスの
中心を定める。次いで、プロセッサは、新しいクラスの
中心に関して半径Hを定める。例えば、半径Hは、残り
の見本の標準偏差の関数である。例えば、各見本に対し
全部でL個の特徴があると仮定するならば、Hを計算す
るため以下の式を使用し得る:
【0019】
【数7】
【0020】式中、Vl はl番目の特徴の標準偏差であ
る。従って、プロセッサは新しいクラス内の新しい中心
に関して半径Hの範囲内にある残りの見本を全て集め
る。例えば、プロセッサは新しいクラスに集められた見
本の数uを第2の閾値P2 と比較する。見本の数uがP
2 よりも小さい場合、新しいクラスは非常に小さい。こ
のような場合、プロセッサは、半径Hを調整、即ち、拡
大し、残りの特徴値をそのクラスにもう一度集める。プ
ロセッサは、(未だ何れのクラスにも構造化されていな
い残りの見本を分類するため)未だ何れのクラスにも構
造化されていない残りの見本の数pが第1の閾値P1
りも小さくなるまで上記の分類処理を繰り返す。従っ
て、プロセッサは残りの分類されていない見本を最も近
いクラスに集める。
【0021】クラスの作成後、プロセッサは各クラスの
平均を定める。即ち、各クラスに対し、プロセッサは、
そのクラス内の全ての見本に亘り平均特徴値ベクトルを
定める。かかる方法により、プロセッサは各モデル文字
に対し多数の平均特徴値ベクトルを生成する。次いで、
プロセッサは、例えば、認識用の分類を安定させるため
クラスの境界の近くにある見本を再分類することにより
分類を調整する周知のK 平均化処理を実行する。デビ
ジバー(DEVIJVER)とキトラー(KITTKER) 著の「パターン
認識:統計的アプローチ(PATTERN RECOGNITION: A STAT
ISTICAL APPROACH) 」、409 ページ、1982年発行を参照
のこと。
【0022】本発明の他の実施例によれば、文字は以下
の如く認識される。少なくとも一文字が、例えば、スタ
イラス及びタブレット、又は、光学スキャナのような文
字入力装置を使用して文字認識装置に入力される。プロ
セッサは、各入力文字の画像を表わすデータを受け、受
けられた文字を区分する。次いで、プロセッサは、例え
ば、区分された文字データから特徴値を抽出する。プロ
セッサは、入力文字を、文字認識データベースに構造化
されている各モデル文字の各クラスと比較する。即ち、
プロセッサは、例えば、入力文字の特徴値ベクトルを文
字認識データベース内のモデル文字の各クラスの平均特
徴値ベクトルと比較する。上記の如く、文字認識データ
ベースは各モデル文字に対する多数のクラスを含む。上
記比較に基づいて、プロセッサは入力文字に最も良く一
致するモデル文字を定める。このため、プロセッサは、
例えば、入力文字の特徴値ベクトルに最も良く一致する
平均特徴値ベクトルを有するクラスを定める。例えば、
プロセッサは、入力文字の特徴値ベクトルをデータベー
スに記憶されたモデル文字の平均特徴値ベクトルと比較
する際に以下の判別関数:
【0023】
【数8】
【0024】を評価し、式中: qは入力された文字を識別するインデックスを表わし、 r及びcは特定のクラスを示す独立したインデックスで
あり、1乃至Cの範囲で定義され、 lは特定の特徴を示すインデックスであり、1乃至Lの
範囲で定義され、 Lは特徴の総数を表わし、 Cはモデル文字のデータベース全体に亘るクラスの総数
を表わし、 Aqlはq番目の入力文字のl番目の特徴値を表わし、 Brlはr番目のクラスのl番目の平均特徴値を表わし、 Aq は、1乃至L番目の各特徴に対する一つの特徴値
(Aq1,Aq2,...,AqL)を含むq番目の入力文字
の特徴値ベクトルを表わし、 Br は、1乃至L番目の各特徴に対する一つの平均特徴
値(Br1,Br2,...,BrL)を含むr番目のクラス
の平均特徴値ベクトルを表わし、 Vlcは所定のc番目のクラスのl番目の特徴の標準偏差
を表わし、 Sl はC個のクラス全体のl番目の特徴の平均標準偏差
を表わしている。次いで、プロセッサはq番目に入力さ
れた文字を、上記判別関数Dis(Aq ,Br )の出力
を最小化する平均特徴値ベクトルBr を有するr番目の
クラスのモデル文字として認識する。
【0025】即ち、文字認識データベースのモデル文字
の見本を多数のクラスに分類する装置及び方法が提供さ
れる。その結果として、文字認識データベースは、モデ
ル文字の見本の実際の不均一な分布をより良く表わす。
これにより、入力文字の認識の際、入力文字とモデル文
字との間の不一致の数が低減される。
【0026】
【発明の実施の形態】図6には、特定のモデル文字に対
するP個の見本のサンプル空間が示されている。同図に
示す如く、見本はサンプル空間の全体にかなり不均一に
分布している。従って、全部の見本の特徴の単に平均と
して定められた生の平均特徴値ベクトルは、見本を表わ
すには不十分である。
【0027】本発明によれば、モデル文字のサンプル空
間は、図7に示す如く、多数のクラスに分類される。同
図において、各円は見本が分類される別個のクラスを表
わしている。平均特徴値ベクトルが各クラスに定められ
る。見本の分類と、各クラスの平均特徴値ベクトルの判
定は、以下に詳しく説明される。図8には、本発明の一
実施例の文字認識装置100が示されている。例えば、
文字認識装置100は手書き文字のオンライン認識に適
用される。「オンライン」とは、「文字が書かれるのに
つれて」という意味である。文字認識装置100は、手
書きの形式で入力された文字を受けるスタイラス及びタ
ブレット112を有する。スタイラス及びライティング
タブレットは、各入力手書き文字を、入力手書き文字を
グラフィック的に表わす画素の矩形状の配列の形式でデ
ィジタル画像に変換する。このディジタル画像には、入
力文字データとしての役割がある。入力文字データはイ
ンタフェース114に送られる。インタフェース114
はシステムバス116上に入力文字データを送出する。
システムバス116には、主記憶装置118と、ディス
ク記憶装置120と、CPU又はプロセッサ122と、
オーディオ/ビデオ出力装置124が接続されている。
例えば、入力文字は処理中の一時記憶用の主記憶装置1
18で受けられる。CPU122は、主記憶装置118
内の入力文字データに文字認識処理を実行する。文字認
識処理の実行中に、CPU122は、主記憶装置118
又はディスク記憶装置120に記憶されたモデル文字を
有する文字認識データベースをアクセスする。
【0028】装置100によって実行される文字認識処
理は、文字認識データベースが最初に構築されることを
必要とする。図9には、かかるデータベースを構築する
処理が概略的に示されている。ステップ202におい
て、入力モデル文字の見本が受けられる。例えば、この
ステップにおいて、ユーザがスタイラス及びタブレット
112(図8)を用いて文字を書くことに応じてモデル
文字を表わす文字データがスタイラス及びタブレット1
12によって生成される。入力文字データは、インタフ
ェース114とシステムバス116を介して主記憶装置
118に送られる。ステップ204において、CPU1
22は入力文字データを前処理する。例えば、CPU1
22は入力文字データからノイズを除去する。その上、
CPU122は文字の画像の線を平滑化する。例えば、
手書き文字の「8」のノイズ除去と平滑化がなされた文
字の画像が図10に示されている。
【0029】図10に示す如く、文字の線の画像は不連
続の場合がある。即ち、連続的な線を形成する隣接して
書き込まれた画素だけを含む画像の一部250に、書き
込まれた画素(例えば、書き込まれた画素252及び2
53)を分離する黒の画素(例えば、画素251)が含
まれる場合がある。この不連続性は前処理ステップ20
4により生じる。この問題を改善するため、ステップ2
06において、CPU122は、図10の画像を図11
に示されているようなスケルトン画像に変換する。例え
ば、CPU122は近くに書き込まれた画素の間を内挿
することにより上記変換を行う。
【0030】更に、CPU122は、図12に示されて
いるようにスケルトン画像を拡張された輪郭画像に変換
する。例えば、拡張された輪郭画像は、図11のスケル
トン画像の画素を単に3倍に拡幅した画像である。次の
ステップ208において、拡張された輪郭画像は区分さ
れる。例えば、CPU122は画像を可変的な寸法を定
められたゾーンに区分される。上記ゾーンの寸法が図1
2の画像内の画素の分布に依存する利点が得られる。か
かる可変的なセグメンテーション処理は図13に示され
ている。k番目の各画素が、図13に示されたような画
像の左上隅にある原点に対し測定された水平方向の座標
kと垂直方向の座標yK を有する場合を想定する。k
番目の各画素は値f(xk ,yK )を有し、黒色画素の
場合、f(xk ,yk )=0であり、書き込まれた画素
の場合、f(xk ,yk )=1である。水平方向の重心
の関数Gx と垂直方向の重心の関数Gy を:
【0031】
【数9】
【0032】のように定義し、式中、kは文字の画像内
の画素の総数を表わしている。CPU122は以下のよ
うに文字の画像を区分する。CPU122は垂直方向又
は水平方向に分割するかどうかを判定する。例えば、予
め選択された計画に従って判定してもよい。CPU12
2は、画像を水平方向に分割するため、水平方向の分割
線が垂直方向の軸と交差する位置を定める垂直方向の重
心の関数Gy を評価する。同様に、画像を垂直方向に分
割するため、CPUは、垂直方向の分割線が水平方向の
軸と交差する位置を定める水平方向の重心の関数Gy
評価する。次いで、CPU122は画像を上記の形で存
在する分割線で二つのゾーンに区分する。例えば、図1
3に示すように、文字の画像は二つのゾーン320及び
340に水平方向に分割される。CPUは、区分された
ゾーン320と340の各々に対しセグメンテーション
処理を繰り返す。このセグメンテーションは、水平方向
及び垂直方向に分割するかどうか、及び、何れのゾーン
に分割するかについて予め定められた計画に従って行っ
てもよい。例えば、図14に示す如く、ゾーン320
は、垂直方向にゾーン324と348に分割され、ゾー
ン340は、垂直方向にゾーン344と348に分割さ
れる等の如くである。ステップ208において、CPU
が図14、15及び16に示す如く、三つの区分された
画像300、302及び304を生成することに利点が
ある。
【0033】次のステップ210において、CPU12
2は区分された文字の画像300及び302から特徴値
を抽出する。多数の特徴の値が抽出される。以下に説明
する特定の特徴に対し抽出された値(及び、以下に説明
する認識処理において入力文字に対し抽出された値)を
文字認識データベースを構築するため利用することが有
利である。
【0034】図17には、ストロークの密度関数(SD
F)の特徴値の抽出が示されている。SDFを評価する
場合、CPU122は、SDFを評価する各ゾーンに多
数の検査ラインを投影する。次いで、CPU122は、
文字のグラフィック的な画像がゾーンの範囲内の検査ラ
インと交差する回数を計数する。SDF関数の結果(S
DFの特徴値)を得るため、交差の総数は検査ラインの
総数によって除算される。例えば、CPU122は全て
のゾーンのSDFを評価する訳ではない。逆に、CPU
122は、例えば、12個の特徴値を得るため8個の垂
直方向のゾーン321、322、326、327、34
1、342、346及び347と、4個の水平方向のゾ
ーン332、334、336及び338のSDFを評価
する。
【0035】図18には周辺の背景領域(PBA)の特
徴値の抽出が記載されている。PBAを判定する場合、
CPU122は次の関数:
【0036】
【数10】
【0037】を評価する。式中、nは、1からその軸に
関する文字の画像の矩形の最大の次数Nまでの値を連続
的にとる水平方向(x)又は垂直方向(y)の何れかの
軸上の点のインデックスを表わす。λn は、n番目の位
置から文字の画像の書き込まれた画素までの画素間距離
である。図18に示す如く、CPU122は、対応する
軸から垂直方向にλn を測定する。変数mはPBA関数
が評価される特定の領域を示す値をとる。Xm はm番目
のゾーンの水平方向の幅を表わし、Ym はm番目のゾー
ンの垂直方向の高さを表わす。
【0038】CPU122は、ゾーン321、322、
326、327、341、342、346及び347の
各々の垂直方向にPBAを評価する。PBAは、ゾーン
352、354、356、358、372、374、3
76及び378の水平方向に評価される。かくして、1
6個の特徴値が抽出される。図19には、輪郭線の長さ
(CLL)の特徴値の抽出が記載されている。CLL特
徴値を定める場合、CPUは以下の式:
【0039】
【数11】
【0040】を評価する。変数m、n、Xm 、Ym 及び
λn は、上記の通りである。CPU122は、垂直方向
及び水平方向の両方のゾーン324、328、344及
び348に対し二つのCLL特徴値、即ち、CLL1
CLL2 を得る。これにより、16個の特徴値が得られ
る。
【0041】図20において勾配特徴値が抽出される。
最初に、CPU122は方向コードDiri,j を文字の
画像のi番目の列とj番目の行の文字の画像の各画素に
割り当てる。変数i及びjは、夫々水平(x)及び垂直
(y)方向のインデックスを表わす。方向コードは、画
素の接線に垂直な方向に対応する。図20に示す如く、
各々が45°の角度の方向に対応する8個の方向コー
ド、即ち、337.5°から22.5°に対する「0」
と、22.5°から67.5°に対する「1」と、6
7.5°から112.5°に対する「2」と、112.
5°から157.5°に対する「3」と、157.5°
から202.5°に対する「4」と、202.5°から
247.5°に対する「5」と、247.5°から29
2.5°に対する「6」と、292.5°から337.
5°に対する「7」を割り当てることが可能である。次
いで,CPU122は、以下の式を使用して各ゾーンに
対し長さのベクトルLen(Diri,j )を生成する:
【0042】
【数12】
【0043】式中、Bddm (Diri,j )は、方向が
(Diri,j )に垂直であるm番目のゾーンの境界の幅
を表わし、X及びYは以下のカーネル:
【0044】
【表2】
【0045】を使用して作成される。CPU122は、
適当な方向Diri,j 内の長さLenを定める前に文字
の画像の各画素にカーネルを適用する。次いで、長さL
enは、8個の方向Diri,j の各々に対し一つの値を
生成するため式(7c)に従って結合される。かくし
て、CPU122は、各ゾーンに対し8個の勾配の特徴
値を生成する。例えば、勾配の特徴値は8個のゾーン3
52、354、356、358、372、374、37
6及び378の各々から抽出され、これにより、64個
の特徴値が作成される。
【0046】例えば、CPU122は、装置100に入
力された各見本のモデル文字に対し全部で108個の特
徴値を抽出する。もう一度図9を参照するに、入力され
た見本のモデル文字を抽出した後、CPU122は、ス
テップ212において各モデル文字の見本のモデル文字
を分類する。この分類段階は、各モデル文字に対し個別
に行われる。例えば、英数字のモデルの各々に対しP個
の見本が入力された場合を想定する。CPUはモデル文
字“A”の見本を分類し、次に、モデル文字“B”等の
見本を分類する。
【0047】図21にはCPU122によって実行され
る分類処理が概略的に示されている。例えば、CPU1
22は、モデル文字毎に基づいて見本に対し図21の分
類処理を実行する。ステップ402において、CPUは
処理すべき別のモデル文字zがあるかどうか(即ち、モ
デル文字zのインデックスがモデル文字の総数Zよりも
小さいかどうか)を判定する。もしz≧Zならば、分類
段階の実行は終了する。z<Zならば、処理はステップ
404に進み、CPU122はクラスのインデックスr
を1つずつ増加させ、変数pを分類されていない見本の
数、即ち、モデル文字zに対し入力された見本の総数P
と同一に設定する。
【0048】次いで、ステップ406において、CPU
122は、未だ分類されずに残されている見本の数が多
すぎるかどうかを判定する。CPU122は、未だ分類
されていない残りの見本の数pを第1の閾値P1 と比較
するだけでよいことが利点である。もしp<P1 なら
ば、モデル文字zに対し入力された見本は、既に十分な
数が分類されているので、処理はステップ418に分岐
する。ステップ418については以下に詳細に説明す
る。p≧P1 の場合、非常に多数の見本が未分類のまま
の状態にあり、処理の実行はステップ408に分岐す
る。ステップ408において、CPU122は形成され
るべき新しいクラスの中心の位置を定める。例えば、新
しいクラスの中心を何れのクラスにも未だ構造化されて
いない残りの見本p個の全ての平均特徴値ベクトルと同
じに設定することにより行われる。例えば、半径Hは新
しいクラスの標準偏差の関数を使用することにより以下
の式:
【0049】
【数13】
【0050】のように定められ、式中: lは特定の特徴を示すインデックスであり1乃至Lの範
囲に亘り定義され、 Lは特徴の総数であり、 Vl はl番目の特徴の標準偏差である。
【0051】次のステップ412において、CPU12
2は、何れのクラスにも未だ構造化されることなく、新
しいクラスの中心から半径Hに等しい距離の範囲内にあ
る残りの全ての見本を新しいクラスに集める。新しいク
ラスに集められる見本の数uも定められる。次いで、ス
テップ414において、CPU122は、新しいクラス
が値の最低限の個数の閾値P2 を含むかどうかを判定す
る。u≧P2 の場合、新しいクラスは値の最低限の個数
を越えているので、処理はステップ406に進む。u<
2 の場合、クラスは未だ小さすぎる。この場合、CP
U122はステップ416を実行する。ステップ416
において、半径Hを調整、即ち、拡大する。次いで、処
理はステップ412に戻り、CPU122は、未分類の
ままの見本を新しいクラスにもう一度集める。従って、
ステップ412乃至416は、新しいクラスに集められ
た見本の数uが第2の閾値P2 を越えるまで繰り返し実
行される。
【0052】ステップ406に処理が戻ると、CPU1
22は、未分類のままの見本の数が大きすぎるかどう
か、即ち、p≧P1 であるかどうかをもう一度判定す
る。大きすぎる場合には、未分類のままの見本が集めら
れる別のクラスを作成するためステップ408乃至41
6が繰り返される。かくして、CPU122は、何れの
クラスにも構造化されないままの文字zの見本の数がP
1 よりも小さくなるまでステップ406乃至416を十
分な回数繰り返す。次いで、処理はステップ418に進
む。ステップ418において、CPU122は未だ何れ
のクラスにも入っていないままの状態の見本を最も近い
クラスに集める。全ての見本がクラスに構造化された
後、CPU122は各クラスの平均、即ち、各クラス内
の見本の特徴値の平均特徴値ベクトルを計算する。これ
により、各クラスに対し一つの平均特徴値を含むモデル
文字zに対し多数の平均特徴値ベクトルが得られる。
【0053】例えば、CPU122はステップ420を
実行する。ステップ420において、CPU122は周
知のK 平均化処理が行われる。上記デビジバーとキト
ラー著の「パターン認識:統計的アプローチ」、409 ペ
ージ、1982年発行を参照のこと。ステップ406乃至4
16の実行中に、CPU122は、モデル文字zに対す
るP個の見本の任意の“クラスタリング”を生成する。
しかし、見本の中にはクラスの境界の近くに存在するも
のがある。K 平均化処理は、認識のために分類が確定
するよう再分類、即ち、クラスの境界の近くにある見本
を別のクラスに移動させることにより分類を調整する。
平均化処理を以下に説明する。CPU122は同時
に各見本を選択し、選択された見本を最も近いクラス
(平均特徴値ベクトルが選択された見本の特徴ベクトル
に最も近いクラス)に割り当てる。最も近いクラスが見
本が分類された最初のクラスとは異なる場合、分類が変
更された旨を示すセマフォーが送出される。次いで、C
PU122は各クラスの平均特徴値ベクトルを再計算す
る。CPU122は、セマフォーが通知されない反復が
行われるまで見本の全体に亘り上記反復を連続的に繰り
返す。
【0054】ステップ420の実行後、処理はステップ
420に戻る。このように、CPU122は、各モデル
文字zに対しステップ402乃至420を繰り返す。Z
個のモデル文字の全ての見本を分類した後、CPU12
2は、次の式:
【0055】
【数14】
【0056】に従って、データベース内の全てのクラス
C(即ち、Z個のモデル文字の全て)の各特徴値に対し
平均標準偏差Sl を定める利点が得られる。式中、Vlc
は所定のc番目のクラスのl番目の特徴の標準偏差を表
わす。図9を再度参照するに、全ての見本のモデル文字
が分類され、全ての平均特徴値ベクトル(及び平均標準
偏差)が定められた後、CPU122は文字認識データ
ベースを構築し、その文字認識データベースを例えばデ
ィスク記憶装置120に格納する。例えば、CPU12
2はフラットな文字認識データベースを構築する。
【0057】図22には、例えば、手書き文字のオンラ
イン認識のための文字認識処理が概略的に示されてい
る。ステップ502において、文字データは、例えば、
スタイラス及びタブレット112と、インタフェース1
14と、バス116と、主記憶装置118を用いて受け
取られる。次いで、CPU122はステップ504にお
いて文字データを前処理する。次のステップ506にお
いて、CPU122は、スケルトン文字の画像を形成
し、スケルトン文字の画像から輪郭が拡張された文字の
画像を形成する。ステップ508において、CPU12
2は輪郭が拡張された文字の画像を区分する。例えば、
CPU122は、上記文字認識データベースを作成する
際に使用されたセグメンテーション処理と同一の処理を
実行する。上記セグメンテーション処理は、区分された
ゾーンの寸法は輪郭の拡張された文字の画像に書き込ま
れた画素の実際の分布に依存する点で可変的なセグメン
テーション処理であることに注意が必要である。しか
し、文字の画像が垂直方向及び水平方向に区分されるオ
ーダーは予め定められており、データベース構築と文字
認識の両方に関し同一である。CPU122は、ステッ
プ510において、区分された文字の画像から特徴値を
抽出する。CPU122は、例えば、上記特徴値と同一
の特徴値を抽出する。
【0058】ステップ512において、CPU122は
入力された文字に最も良く一致するモデル文字を判定す
る。このため、CPU122は、例えば、入力文字の抽
出された特徴値ベクトルを文字認識データベースに格納
された各モデル文字の各クラスの各平均特徴値ベクトル
と比較する。例えば、最も良く一致するモデル文字を判
定する際、CPU122は以下の判別関数Dis
(Aq ,Br ):
【0059】
【数15】
【0060】を評価し、式中: qは入力された文字を識別するインデックスを表わし、 r及びcは特定のクラスを示す独立したインデックスで
あり、1乃至Cの範囲で定義され、 lは特定の特徴を示すインデックスであり、1乃至Lの
範囲で定義され、 Lは特徴の総数を表わし、 Cはモデル文字のデータベース全体に亘るクラスの総数
を表わし、Aqlはq番目の入力文字のl番目の特徴値を
表わし、 Brlはr番目のクラスのl番目の平均特徴値を表わし、 Aq は、1乃至L番目の各特徴に対する一つの特徴値
(Aq1,Aq2,...,AqL)を含むq番目の入力文字
の特徴値ベクトルを表わし、 Br は、1乃至L番目の各特徴に対する一つの平均特徴
値(Br1,Br2,...,BrL)を含むr番目のクラス
の平均特徴値ベクトルを表わし、 Vlcは所定のc番目のクラスのl番目の特徴の標準偏差
を表わし、 Sl はC個のクラス全体のl番目の特徴の平均標準偏差
を表わしている。
【0061】各l番目の特徴に対する平均標準偏差Sl
は予め定められ、データベースの構築中に記憶されるこ
とに利点がある。上記比較の結果として、CPU122
はq番目の入力文字を、上記判別関数Dis(Aq ,B
r )の出力を最小化する平均特徴値ベクトルBr を有す
るr番目のクラスのモデル文字zとして認識する。ステ
ップ514において、CPU122は、q番目の入力文
字に最も良く一致するモデル文字の表示を出力する。例
えば、CPU122は、入力文字に最も良く一致するモ
デル文字のASCIIコード、機械的に作成されたモデ
ル文字の画像、或いは、それらの両方を出力する。
【0062】図23には、本発明の文字認識装置10
0’の他の一実施例が示されている。装置100’は、
光学スキャナ113がスタイラス及びタブレット112
の代わりに文字入力装置として用いられている点を除い
て、図10の装置100と同一である。装置100’
は、図9、20及び21に示された処理と同様の処理を
用いて手書き文字のオフライン認識と、機械印刷された
文字の認識を実行することが可能である。機械印刷され
た文字の認識に装置100’を使用する場合、文字認識
データベースは機械印刷されたモデル文字の見本を入力
することにより構築される。例えば、上記セグメンテー
ション及び特徴抽出の処理は、手書き文字の場合に典型
的であり、機械印刷された文字の場合には典型的ではな
い右上から左下への文字の傾きを想定している。しか
し、上記分類処理は同一である。
【0063】上記文字認識処理は、英語のアルファベッ
トとアラビア数字のような英数字に使用することができ
る。或いは、上記文字認識装置は、中国語の音標文字の
ような別の種類の文字にも使用し得る。上記文字の処理
により文字認識に著しい改良が得られる。例えば、実験
的な解析によると、分類のない典型的な文字認識処理の
精度は約92.54%である。一方、分類を伴う上記文
字認識処理の精度は約96.62%である。従って、誤
認識の数は約半分に削減される。
【0064】要約すると、本発明によれば、各モデル文
字の見本が複数のクラスに分類される文字認識方法及び
装置が提供される。その結果として、見本の不均一な分
布に良い影響を与える複数の平均特徴値ベクトルが各モ
デル文字に与えられる。従って、認識処理中に不適当な
マッチングは著しく減少する。最後に、上記の説明は本
発明の実施例を説明することだけを意図している。当業
者は、特許請求の範囲の記載の精神と目的を逸脱するこ
となく、本発明の多数の他の実施例を考え得る。
【図面の簡単な説明】
【図1】スタイラス及びタブレット形の文字入力装置を
有する従来の文字認識装置を示す図である。
【図2】光学スキャナ形の文字入力装置を有する従来の
文字認識装置を示す図である。
【図3】図1の装置によって実行される手書き文字認識
処理を概略的に示すフローチャートである。
【図4】従来の入力文字の画素化された画像を示す図で
ある。
【図5】図4の画素化された画像の可変的なゾーンのセ
グメンテーションを示す図である。
【図6】典型的な従来の見本のモデル文字の特徴値の分
布を示す図である。
【図7】本発明による図6の見本のモデル文字の特徴値
の分類を示す図である。
【図8】本発明の一実施例の文字認識装置を示す図であ
る。
【図9】本発明の一実施例のデータベース作成処理を概
略的に示すフローチャートである。
【図10】平滑化されノイズ除去された文字画像を示す
図である。
【図11】スケルトン文字の画像を示す図である。
【図12】輪郭の拡張されたスケルトン文字の画像を示
す図である。
【図13】文字画像のゾーンへの区分を示す図である。
【図14】文字画像のゾーンへの区分を示す図である。
【図15】文字画像のゾーンへの区分を示す図である。
【図16】文字画像のゾーンへの区分を示す図である。
【図17】ストロークの密度関数の特徴値の抽出の説明
図である。
【図18】輪郭線の長さの特徴値の抽出の説明図であ
る。
【図19】周辺の背景領域の特徴値の抽出の説明図であ
る。
【図20】勾配の特徴値の抽出の説明図である。
【図21】本発明の一実施例の分類処理を概略的に示す
フローチャートである。
【図22】本発明の一実施例の文字認識処理を概略的に
示すフローチャートである。
【図23】本発明の他の実施例の文字認識装置を示すフ
ローチャートである。
【符号の説明】
10,10’,100,100’ 文字認識装置 12,112 スタイラス及びタブレット 13’,113 光学スキャナ 14,14’,114,114’ インタフェース 16,16’,116,116’ システムバス 18,18’,118,118’ 主記憶装置 20,20’,120,120’ ディスク記憶装置 22,22’,122,122’ CPU 24,24’,124,124’ オーディオ/ビデ
オ出力装置 50 矩形状の画素配列 51,...,66 ゾーン 250 画像の一部 251 画素 1000 平均特徴値ベクトル 1010 特徴値ベクトル

Claims (27)

    (57)【特許請求の範囲】
  1. 【請求項1】 文字認識データベースを用いて認識され
    るべき文字を認識する方法において、 認識されるべき各モデル文字に対する複数の文字見本を
    入力する段階と、 入力された各モデル文字に対し、いずれかのクラスに分類されるべき残りの文字見本の個
    数が第1の閾値未満であるか否かを判定し、 上記各文字見本について複数の特徴値を格納する特徴値
    ベクトルを生成するため、上記入力された各文字見本に
    ついて複数の特徴を格納する特徴ベクトルの値を抽出
    し、 上記個数が上記第1の閾値未満になるまで、上記残りの
    文字見本の上記特徴値ベクトルから新しいクラスの中心
    を決定し、上記新しいクラスの標準偏差に基づいて上記
    新しいクラスの上記中心の周りの半径を決定し、上記新
    しいクラスの上記中心から上記半径の範囲内に収まる特
    徴値ベクトルを有する上記残りの各文字見本を集めるこ
    とにより、 上記見本を少なくとも一つのクラスに分類し、少なくと
    も1個のモデル文字の上記文字見本を多数のクラスに分
    類する段階と、 上記各クラスに対し、平均特徴値ベクトルが特徴値ベク
    トルと一致しなくても構わないように、上記夫々のクラ
    スの上記文字見本の上記特徴値ベクトルの単純平均とし
    て、多数の平均特徴値を格納する平均特徴値ベクトルを
    形成する段階と、 認識されるべき文字の抽出された特徴値ベクトルに最も
    良く一致する平均特徴値ベクトルを上記記憶された平均
    特徴値ベクトルの中から選択することにより上記認識さ
    れるべき文字を夫々の文字として認識するため、上記少
    なくとも1個のモデル文字に対する多数の平均特徴値ベ
    クトルを含む上記多数の平均特徴値ベクトルを上記文字
    認識データベースとして記憶する段階と、 少なくとも1個のモデル文字に対し、文字認識用の上記
    クラスを安定化させる ため、1個以上の文字見本を上記
    夫々のモデル文字の異なるクラスに再割当てすることに
    より上記文字見本の上記クラスを調整し、上記調整され
    たクラスの上記平均特徴値ベクトルを形成する段階を繰
    り返すクラス調整段階とを実行することにより、上記
    字認識データベースを構築する段階からなる方法。
  2. 【請求項2】 同じ特徴ベクトルを用いて上記認識され
    るべき文字について特徴ベクトルの値を抽出し、 最も良く一致する特徴値ベクトルを決定するため、上記
    認識されるべき文字の特徴値ベクトルを上記文字認識デ
    ータベースの上記平均特徴値ベクトルの少なくとも一部
    と比較し、 上記認識されるべき文字を上記最も良く一致する特徴値
    ベクトルを有するクラスに対応するモデル文字として認
    識することにより、上記認識されるべき文字を上記モデ
    ル文字の中の一つとして認識す る段階を更に有する請求
    項1記載の方法。
  3. 【請求項3】 上記クラス調整段階は、K 平均化処理
    を実行する段階を更に有する請求項記載の方法。
  4. 【請求項4】 該見本分類する段階は 該新しいクラスに集められた該残りの見本の数を第2の
    閾値と比較する段階と、の結果に依存して、該半径を調整し、該新しいクラ
    スの該中心から該調整された半径の範囲内にある該残り
    の見本の各々を該新しいクラスに集める段階とを更に有
    する請求項記載の方法。
  5. 【請求項5】 該新しいクラスの該中心は、該残りの
    見本の該特徴値ベクトルの平均を定めることにより定
    められる請求項記載の方法。
  6. 【請求項6】 該半径を定める段階において定められた
    該半径は、該残りの文字見本の該特徴の標準偏差の関数
    である請求項記載の方法。
  7. 【請求項7】 該入力された文字見本の各々の画像を複
    数のゾーンに区分する段階を更に有する請求項1記載の
    方法。
  8. 【請求項8】 該区分する段階は、該入力された文字見
    毎に複数の区分された文字画像を作成する請求項
    載の方法。
  9. 【請求項9】 上記特徴ベクトルの値の抽出は、 予め定められた計画に従って該文字見本の各々の該区分
    された特定の文字画像の中の特定のゾーンから該特徴値
    を得ることにより行われる請求項記載の方法。
  10. 【請求項10】 該画像は可変的な寸法が定められるゾ
    ーンに区分される請求項記載の方法。
  11. 【請求項11】 該特徴値ベクトルは文字見本の上記一つのゾーンを横切る複数の検査ライン
    を射影し、 上記検査ラインが上記ゾーンと交差する総回数をカウン
    トし、 上記検査ラインが上記ゾーンと交差する総回数を上記射
    影された検査ラインの本数により除算することにより
    トロークの密度関数の特徴値を得る段階によって生成さ
    る請求項記載の方法。
  12. 【請求項12】 該特徴値ベクトルはmが上記文字見本の上記画像が区分された上記ゾーンの
    インデックスを表し、 nが1からNまでの値をとり、上記ゾーンの中のm番目
    のゾーンに対する軸上の点のインデックスを表し、 Nが上記軸上の最大の次数を表し、 λ n が上記軸上のn番目の点から上記m番目のゾーンの
    画像の書き込まれた画素までの画素単位の距離を表し、 m が上記m番目のゾーンの水平方向の幅を表わし、 m が上記m番目のゾーンの垂直方向の高さを表わすと
    き、 【数1】 を評価することにより周辺の背景領域の特徴値を得る段
    によって生成される請求項記載の方法。
  13. 【請求項13】 該特徴値ベクトルはmが上記文字見本の上記画像が区分された上記ゾーンの
    インデックスを表し、 nが1からNまでの値を連続的にとり、上記ゾーンの中
    のm番目のゾーンに対する軸上の点のインデックスを表
    し、 Nが上記軸上の最大の次数を表し、 λ n が上記軸上のn番目の点から上記m番目のゾーンの
    画像の書き込まれた画素までの画素単位の距離を表し、 m が上記m番目のゾーンの水平方向の幅を表わし、 m が上記m番目のゾーンの垂直方向の高さを表わすと
    き、 【数2】 を評価することにより輪郭線の長さの特徴値を得る段階
    によって生成される請求項記載の方法。
  14. 【請求項14】 該特徴値ベクトルはmが上記文字見本の画像が分割されるゾーンのインデッ
    クスを表し、 iが上記ゾーンの中のm番目のゾーンの列インデックス
    を表し、 jが上記m番目のゾーンの行インデックスを表し、 Len ij が上記m番目のゾーンのi番目の行及びj番目
    の列の画素に対し、以下の式(7a)を用いて生成され
    た各方向コード(Dir i,j )毎に1個の値を含む値L
    enのベクトルを表し、 (Dir i,j )が上記m番目のゾーンのi番目の行及び
    j番目の列の画素の方向コードを表し、 Bdd m (Dir i,j )は(Dir i,j )によって指定
    された方向と直交した 方向についての上記m番目のゾー
    ンの境界の幅を表し、 X及びYが以下のカーネル 【表1】 を用いて生成された値である場合に、 【数3】 を評価することにより勾配の特徴値を得る段階によって
    生成される請求項記載の方法。
  15. 【請求項15】 上記認識されるべき文字の特徴値ベク
    トルを上記文字認識データベースの上記平均特徴値ベク
    トルの少なくとも一部と比較する段階は、【数4】 の場合に、判別関数:【数5】 を評価する段階からなり、式中 qは入力された文字を識別するインデックスを表わし、 r及びcは特定のクラスを示す独立したインデックスで
    あり、1乃至Cの範囲で定義され、 lは特定の特徴を示すインデックスであり、1乃至Lの
    範囲で定義され、 Lは特徴の総数を表わし、 Cはモデル文字のデータベース全体に亘るクラスの総数
    を表わし、 Aqlはq番目の入力文字のl番目の特徴値を表わし、 Brlはr番目のクラスのl番目の平均特徴値を表わし、 Aq は、1乃至L番目の各特徴の一つの特徴値(Aq1
    q2,...,AqL)を含むq番目の入力文字の特徴値
    ベクトルを表わし、 Br は、1乃至L番目の各特徴の一つの平均特徴値(B
    r1,Br2,...,BrL)を含むr番目のクラスの平均
    特徴値ベクトルを表わし、 Vlcは所定のc番目のクラスのl番目の特徴の標準偏差
    を表わし、 Sl はC個のクラス全体のl番目の特徴の平均標準偏差
    を表わす、請求項記載の方法。
  16. 【請求項16】 該q番目に入力された文字は、Dis
    (Aq ,Br )を最小化するq及びrの特定の値に対し
    r番目のクラスに対応するモデル文字として認識される
    請求項15記載の方法。
  17. 【請求項17】 該文字認識データベースはモデル音標
    シンボルを含む請求項記載の方法。
  18. 【請求項18】 該文字認識データベースは英数字を含
    む請求項2記載の方法。
  19. 【請求項19】 該入力された文字はオンライン入力さ
    れる請求項記載の方法。
  20. 【請求項20】 該入力された文字はオフライン入力さ
    れる請求項記載の方法。
  21. 【請求項21】 該入力された文字は手書き文字である
    請求項記載の方法。
  22. 【請求項22】 該入力された文字は機械印刷文字であ
    る請求項記載の方法。
  23. 【請求項23】 文字認識データベースを用いて認識さ
    れるべき文字を認識するシステムにおいて、 データベースを構築する際に認識されるべき各モデル文
    字に対し入力された複数の文字見本を電気的に受ける
    字入力装置と、上記 文字入力装置に接続され、上記文字見本を複数のク
    ラスに電気的に分類することにより、少なくとも1個の
    モデル文字の上記文字見本が多数のクラスに分類されて
    いるデータベースを電気的に構築するプロセッサとによ
    り構成され、 上記プロセッサは、 いずれかのクラスに分類されるべき残りの文字見本の個
    数が第1の閾値未満であるか否かを判定し、上記文字見
    本毎に多数の特徴値を含む特徴値ベクトルを生成するた
    め、上記入力された文字見本毎に複数の特徴を含む特徴
    ベクトルの値を電気的に抽出し、上記残りの文字見本の
    個数が上記第1の閾値未満になるまで、上記残りの文字
    見本の上記特徴値ベクトルから新しいクラスの中心を決
    定し、上記新しいクラスの標準偏差に基づいて上記新し
    いクラスの上記中心の周りの半径を決定し、上記新しい
    クラスの上記中心から上記半径の範囲内に収まる特徴値
    ベクトルを有する各文字見本を上記残りの文字見本の中
    から集め、 上記各クラスに対し、平均特徴値が特徴値ベクトルと一
    致しなくても構わないように、上記各クラスの上記文字
    見本の上記特徴値ベクトルの単純平均として、 多数の平
    均特徴値を含む平均特徴値ベクトルを形成し、 上記認識されるべき文字の抽出された特徴値ベクトルに
    最も良く一致する平均特徴値ベクトルを上記記憶された
    平均特徴値ベクトルの中から選択することにより上記認
    識されるべき文字を夫々の文字として認識するため、上
    記少なくとも1個のモデル文字に対する多数の平均特徴
    値ベクトルを含む上記多数の平均特徴値ベクトルを上記
    文字認識データベースとして記憶し、 少なくとも1個のモデル文字に対し、文字認識用の上記
    クラスを安定化させるため、1個以上の文字見本を上記
    夫々のモデル文字の異なるクラスに再割当てすることに
    より上記文字見本の上記クラスを調整し、上記調整され
    たクラスの上記平均特徴値ベクトルを繰り返し形成す
    文字認識システム
  24. 【請求項24】 上記文字入力装置は認識されるべき文
    字を電気的に受け、 上記プロセッサは、 上記認識されるべき文字に対し特徴値ベクトルを生成す
    るため、同じ特徴ベクトルを用いて上記認識されるべき
    文字について特徴ベクトルの値を抽出し、 最も良く一致する特徴値ベクトルを決定するため、上記
    認識されるべき文字の特徴値ベクトルを上記文字認識デ
    ータベースの上記平均特徴値ベクトルの少なくとも一部
    と比較し、 上記認識されるべき文字を上記最も良く一致する特徴値
    ベクトルを有するクラスに対応するモデル文字として認
    識する請求項23記載の文字認識システム
  25. 【請求項25】 該文字認識データベースを電気的に記
    憶するメモリを更に有する請求項23記載の文字認識シ
    ステム
  26. 【請求項26】 該文字入力装置はスタイラス及びタブ
    レットである請求項23記載の文字認識システム
  27. 【請求項27】 該文字入力装置は光学スキャナである
    請求項23記載の文字認識システム
JP7249837A 1994-09-27 1995-09-27 拘束のない手書き英数字のオンライン認識の方法及び装置 Expired - Fee Related JP3027321B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US313686 1989-02-21
US31368694A 1994-09-27 1994-09-27

Publications (2)

Publication Number Publication Date
JPH08180139A JPH08180139A (ja) 1996-07-12
JP3027321B2 true JP3027321B2 (ja) 2000-04-04

Family

ID=23216702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7249837A Expired - Fee Related JP3027321B2 (ja) 1994-09-27 1995-09-27 拘束のない手書き英数字のオンライン認識の方法及び装置

Country Status (2)

Country Link
US (1) US5841902A (ja)
JP (1) JP3027321B2 (ja)

Families Citing this family (134)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08194780A (ja) * 1994-11-18 1996-07-30 Ricoh Co Ltd 特徴抽出方法
US5999647A (en) * 1995-04-21 1999-12-07 Matsushita Electric Industrial Co., Ltd. Character extraction apparatus for extracting character data from a text image
JP3823379B2 (ja) * 1996-07-10 2006-09-20 松下電工株式会社 画像処理方法
US5940535A (en) * 1996-10-31 1999-08-17 Industrial Technology Research Institute Method and apparatus for designing a highly reliable pattern recognition system
US6519046B1 (en) * 1997-03-17 2003-02-11 Fuji Photo Film Co., Ltd. Printing method and system for making a print from a photo picture frame and a graphic image written by a user
AUPP579098A0 (en) * 1998-09-09 1998-10-01 Canon Kabushiki Kaisha A method and apparatus for parametric variation of text
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US6721452B2 (en) 2001-09-12 2004-04-13 Auburn University System and method of handwritten character recognition
AUPR824501A0 (en) * 2001-10-15 2001-11-08 Silverbrook Research Pty. Ltd. Methods and systems (npw003)
US7620246B2 (en) * 2002-07-30 2009-11-17 Fujifilm Corporation Method and apparatus for image processing
US7388990B2 (en) * 2003-09-22 2008-06-17 Matrox Electronics Systems, Ltd. Local mass distribution partitioning for object recognition
US20050207653A1 (en) * 2004-03-16 2005-09-22 Nikitin Alexei V Method for analysis of line objects
CN100343864C (zh) * 2004-07-22 2007-10-17 摩托罗拉公司 利用背景像素的手写识别方法和系统
CN100369049C (zh) * 2005-02-18 2008-02-13 富士通株式会社 灰度字符的精确分割装置及方法
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US7660483B2 (en) * 2005-11-30 2010-02-09 Adobe Systems, Incorporated Method and apparatus for removing noise from a digital image
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8014603B2 (en) * 2007-08-30 2011-09-06 Xerox Corporation System and method for characterizing handwritten or typed words in a document
US8045798B2 (en) * 2007-08-30 2011-10-25 Xerox Corporation Features generation and spotting methods and systems using same
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8340428B2 (en) 2008-04-02 2012-12-25 Xerox Corporation Unsupervised writer style adaptation for handwritten word spotting
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8224092B2 (en) 2008-07-08 2012-07-17 Xerox Corporation Word detection method and system
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8335381B2 (en) * 2008-09-18 2012-12-18 Xerox Corporation Handwritten word spotter using synthesized typed queries
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
WO2011089450A2 (en) 2010-01-25 2011-07-28 Andrew Peter Nelson Jerram Apparatuses, methods and systems for a digital conversation management platform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US8509537B2 (en) 2010-08-05 2013-08-13 Xerox Corporation Learning weights of fonts for typed samples in handwritten keyword spotting
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8977059B2 (en) * 2011-06-03 2015-03-10 Apple Inc. Integrating feature extraction via local sequential embedding for automatic handwriting recognition
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US8774504B1 (en) * 2011-10-26 2014-07-08 Hrl Laboratories, Llc System for three-dimensional object recognition and foreground extraction
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
EP3809407A1 (en) 2013-02-07 2021-04-21 Apple Inc. Voice trigger for a digital assistant
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
AU2014233517B2 (en) 2013-03-15 2017-05-25 Apple Inc. Training an at least partial voice command system
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
KR101922663B1 (ko) 2013-06-09 2018-11-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
JP2016521948A (ja) 2013-06-13 2016-07-25 アップル インコーポレイテッド 音声コマンドによって開始される緊急電話のためのシステム及び方法
AU2014306221B2 (en) 2013-08-06 2017-04-06 Apple Inc. Auto-activating smart responses based on activities from remote devices
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9940511B2 (en) * 2014-05-30 2018-04-10 Kofax, Inc. Machine print, hand print, and signature discrimination
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US11501548B2 (en) * 2019-04-02 2022-11-15 Edgeverve Systems Limited Method and system for determining one or more target objects in an image
JP7379876B2 (ja) * 2019-06-17 2023-11-15 株式会社リコー 文字認識装置、文書ファイル生成方法、文書ファイル生成プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3979722A (en) * 1974-05-31 1976-09-07 Nippon Electric Company, Ltd. Automatic character recognition device employing dynamic programming
JPS5580183A (en) * 1978-12-12 1980-06-17 Nippon Telegr & Teleph Corp <Ntt> On-line recognition processing system of hand-written character
US4658429A (en) * 1983-12-29 1987-04-14 Hitachi, Ltd. System and method for preparing a recognition dictionary
JPS60217477A (ja) * 1984-04-12 1985-10-31 Toshiba Corp 手書き文字認識装置
US4731857A (en) * 1984-06-29 1988-03-15 International Business Machines Corporation Recognition system for run-on handwritten characters
JPS6282486A (ja) * 1985-10-08 1987-04-15 Hitachi Ltd オンライン手書き図形認識装置
US4773099A (en) * 1985-10-10 1988-09-20 The Palantir Corporation Pattern classification means for use in a pattern recognition system
DE3716787A1 (de) * 1986-05-19 1987-11-26 Ricoh Kk Zeichenerkennungsverfahren
FR2604004B1 (fr) * 1986-09-11 1990-05-11 Anatex Procede de reconnaissance d'ecriture manuscrite
US5034989A (en) * 1987-12-11 1991-07-23 Loh Shiu Chang On-line handwritten character recognition apparatus with non-ambiguity algorithm
US5151950A (en) * 1990-10-31 1992-09-29 Go Corporation Method for recognizing handwritten characters using shape and context analysis
JPH0658695A (ja) * 1992-08-11 1994-03-04 Sadayuki Amiya 玩具スプリングガス銃
JP3022696B2 (ja) * 1992-11-27 2000-03-21 財団法人工業技術研究院 文字認識におけるグループデータベース確立の方法
JPH06332710A (ja) * 1993-05-21 1994-12-02 Fujitsu Ltd オブジェクト指向データ処理システム

Also Published As

Publication number Publication date
US5841902A (en) 1998-11-24
JPH08180139A (ja) 1996-07-12

Similar Documents

Publication Publication Date Title
JP3027321B2 (ja) 拘束のない手書き英数字のオンライン認識の方法及び装置
US6011865A (en) Hybrid on-line handwriting recognition and optical character recognition system
JP4350109B2 (ja) 走査された及びリアルタイムの手書き文字の識別を行う文字認識システム
Perwej et al. Neural networks for handwritten English alphabet recognition
Singh et al. Offline script identification from multilingual indic-script documents: a state-of-the-art
US20100189316A1 (en) Systems and methods for graph-based pattern recognition technology applied to the automated identification of fingerprints
Davis et al. Recognition of handwritten characters—a review
JPH05189617A (ja) 手書き文字認識に於けるアークのセグメント化の方法と装置
Fazilov et al. State of the art of writer identification
Dargan et al. Writer identification system for indic and non-indic scripts: State-of-the-art survey
Kaur et al. A comprehensive survey on word recognition for non-Indic and Indic scripts
Malakar et al. A holistic approach for handwritten Hindi word recognition
Sahare et al. Script identification algorithms: a survey
Dhanikonda et al. An efficient deep learning model with interrelated tagging prototype with segmentation for telugu optical character recognition
Wang Character and handwriting recognition: Expanding frontiers
Al-wajih et al. Improving the accuracy for offline arabic digit recognition using sliding window approach
JPH11203415A (ja) 類似パターンカテゴリ識別辞書作成装置および方法
Kumar et al. A novel framework for writer identification based on pre-segmented Gurmukhi characters
Sathya Narayanan et al. RETRACTED ARTICLE: An efficient recognition system for preserving ancient historical documents of English characters
JP2015099566A (ja) 特徴算出装置、方法及びプログラム
Rajnoha et al. Handwriting comenia script recognition with convolutional neural network
Singh et al. Online handwritten Gurmukhi words recognition: An inclusive study
Vellingiriraj et al. Recognition of ancient tamil handwritten characters in palm manuscripts using genetic algorithm
Lee et al. Combining macro and micro features for writer identification
Tou et al. Automatic recognition of handwritten characters via feature extraction and multi-level decision

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090128

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090128

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100128

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100128

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110128

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120128

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees