JPH0772905B2 - 記号列の認識方法 - Google Patents

記号列の認識方法

Info

Publication number
JPH0772905B2
JPH0772905B2 JP4325994A JP32599492A JPH0772905B2 JP H0772905 B2 JPH0772905 B2 JP H0772905B2 JP 4325994 A JP4325994 A JP 4325994A JP 32599492 A JP32599492 A JP 32599492A JP H0772905 B2 JPH0772905 B2 JP H0772905B2
Authority
JP
Japan
Prior art keywords
image
word
contour
text
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP4325994A
Other languages
English (en)
Other versions
JPH05242298A (ja
Inventor
ピー.ハッテンロッカー ダニエル
ジェイ.ホプクロフト マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xerox Corp
Original Assignee
Xerox Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xerox Corp filed Critical Xerox Corp
Publication of JPH05242298A publication Critical patent/JPH05242298A/ja
Publication of JPH0772905B2 publication Critical patent/JPH0772905B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/1475Inclination or skew detection or correction of characters or of image to be recognised
    • G06V30/1478Inclination or skew detection or correction of characters or of image to be recognised of characters or characters lines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/182Extraction of features or characteristics of the image by coding the contour of the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • G06V30/2253Recognition of characters printed with magnetic ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/226Character recognition characterised by the type of writing of cursive writing
    • G06V30/2264Character recognition characterised by the type of writing of cursive writing using word shape
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、文字列を構成する1個
又は複数個の文字の個別の切出し(検出)および/また
は識別を必要とすることなく、画像データの配列で表現
されたテキストまたは文字列を形状によって認識する方
法に関する。
【0002】
【従来の技術】電子的に符号化された文書(電子文書)
のテキストは、相互に全く異なる2種類の形式(フォー
マット)のどちらかで存在する傾向にある。第1の形式
として、テキストはビットマップ形式とすることができ
る。この場合、テキストは画像データつまり画素の配列
でのみ定義され、この形式で同じように表現される隣接
画像とは本質的に区別することができない。この形式で
は、テキストは一般に、テキストの内容だけに基づくコ
ンピュータによる処理を受けさせることができない。以
下で文字符号形式と呼ぶ第2の形式では、テキストは文
字符号(例:ASCII符号)の列として表わされる。
文字符号形式では、テキストの画像またはビットマップ
は得られない。
【0003】光学的文字認識(OCR)処理を利用して
ビットマップ形式から文字符号形式へ変換するには、時
間および処理作業にかなりの負担がかかる。1つの文字
の各ビットマップを隣接ビットマップから区別し、その
外形を分析し、決定プロセスで所定の文字集合内の明確
な1つの文字として識別しなければならない。
【0004】
【発明が解決しようとする課題】しかし、原始文書(原
稿)を走査することによって電子文書を導出した場合、
その再生時の画像品質および雑音がビットマップの実際
の外形の不確実性の原因となる。ビットマップの外形の
劣化は、低品質の原文書、走査誤り、または画像のディ
ジタル化表現に影響を及ぼす同様の要因によって生じ
る。したがって、文字の識別に使用される決定プロセス
は、それに関する固有の不確実性を有する。これに関し
て特に問題になるのは、テキストの文字がぼやけたり併
合される傾向である。大半の文字認識処理は、文字が独
立した連続画素の集合であることを前提としている。こ
の前提が入力画像の品質のためにくずれると、文字識別
もできなくなる。文字切出しを改善するために、さまざ
まな試みが行われてきた。
【0005】OCR法は、辞書単語確認法を使用するこ
とによって信頼性を向上しようとしてきた。
【0006】また、単語または文字列を形成する文字の
集合をそのまま丸ごと識別する方法が望ましいかもしれ
ない。
【0007】文字を個別のアイデンティティを持つもの
として維持しようとしない署名認識では、語全体を認識
の基本単位として選択することも検討されてきた。
【0008】単語を比較的単純に表現できれば、既知の
信号を未知の信号と比較する特定の信号処理技法も利用
可能である。
【0009】
【課題を解決するための手段】本発明では、文字又は文
字列を構成する文字の切出し(検出)および/または識
別を必要とすることなく、画像データで表現された語、
文字列、または記号列を形状によって認識する方法を提
供する。
【0010】画像を定義するデータ内の記号列を形成す
る記号の列を認識する1つの方法は、a)画像内の離散
記号列を符号化する画像データを検出する段階と、b)
そうした1つの記号列の画像データを少なくとも1つの
1次元信号として表現する段階と、c)記号列の前記表
現信号を第2記号列の表現信号と比較する段階とを含
む。
【0011】本発明の1つの態様では、記号列の画像デ
ータを少なくとも1つの1次元信号として表現する段階
は、その画像を1つ以上の1次元信号に還元するプロセ
スを含む。文字列をこの形式で表現することができれ
ば、特定の処理技術を利用して、導出された信号を他の
記号文字列を表わす信号と比較することができるように
なる。これらの他の信号は、認識プロセスでは既知の信
号を、語の等価性を決定するプロセスでは未知の信号を
表わすことができる。
【0012】本発明の別の態様では、ビットマップ形式
の画像を1つ以上の1次元信号に還元するプロセスは、
記号列に関する測定に使用する基準を設定する段階と、
基準に対する多数または1組の測定値を1次元信号とし
て導出する段階とから成る。
【0013】本発明のさらに別の態様では、文字列の形
状の少なくとも一部分を表わす信号を導出する段階は、
その文字列の形状信号または関数を導出するための基準
を識別する段階と、文字列の形状信号または関数を曲線
として表現する段階と、曲線の選択された一部分につい
て、その部分をその信号に関して導出された1次元信号
f(t)として表現する段階とを含む。
【0014】本発明のさらに別の態様では、文字の形状
を表わす信号の導出を表現する別の方法は、画像信号i
(x,y)で表現される選択された文字列に関し、画像
信号に含まれるその文字列を囲う境界を定義する段階
と、画像信号i(x,y)から閉じた境界内で検出され
る文字列のエッジを表わすエッジ信号e(x,y)を導
出する段階と、画像信号i(x,y)に追加信号を増補
することによって、エッジ信号e(x,y)が閉じた境
界内の独立変数に関してそのドメイン(領域)全体に対
して定義されるようにし、新しいエッジ信号をe´
(x,y)で表現する段階と、f(t)を選択文字列の
形状の少なくとも一部分の1次元表現として、e´
(x,y)の一部分を信号f(t)として表現する段階
とを含む。
【0015】本発明は、OCR法に特有の問題を回避す
ることを目的とする。特に、画像導出つまりイメージン
グ(画像形成)プロセスに特有の信号対雑音比は、1つ
の文字では比較的小さいが、より大きい文字列に対して
は比較的大きい。さらに、語間の間隔は文字間の間隔よ
り大きい傾向があるので分離を改善しやすく、したがっ
て、文字列の識別は文字の識別に比べて改善しやすい。
OCR法はまた、正しく識別するための準備として、ア
センダ、ディセンダ、カーブなど誤りやすい文字の部分
の識別をはじめ、文字に関して幾つかの正しい識別を行
う必要がある。本発明に基づく語形状による識別は、最
初に語形状の信号表現を導出し、導出された信号を既知
の語形状信号と比較する必要がある。比較が行われるま
で語に関する仮説は立てられず、それによって、その後
の比較および識別に誤った影響を及ぼす無効な仮説の影
響が排除される。さらに、本発明では、導出された信号
が一般に情報の内容の実質的な損失を伴うことなく、反
転可能であるという利点が追加される。
【0016】コンピュータ処理したテキストの潜在的使
用の調査において、少なくとも特定のケースでは、語の
各文字を導出することが処理要件として要求されないこ
とが分かった。したがって、例えば、テキスト画像のキ
ーワード探索の場合、OCR法により各語の各文字を変
換し、その後で誤りの可能性のある文字符号化から1つ
以上のキーワードが存在しているか否かを決定するので
はなく、コンピュータが語の形状を生成し、それをキー
ワードの語形状と比較し、キーワードが存在するか否か
を語形状によって評価すればよい。さらに、この方法は
処理速度の点でもOCR法より優れていると考えられ
る。
【0017】OCR法による文字の不正確な識別の確率
は比較的低いが、確率は語全体にわたり乗法累積され
る。したがって、語の探索または認識の前に、OCRを
用いて語を文字符号列に変換すると、かなりの誤りが生
じる可能性がある。本発明は、人間がテキストの文章を
読みながら、あるいは目を通しながら用いるのと同様の
方法による語認識を実現することを課題とする。さら
に、OCRを用いると、文字のビットマップ画像は文字
符号に変換され、ビットマップは利用者が検討のために
検索することができなくなる。しかし、上述の語形状処
理は、幾つかの点でOCR法より優れている。第1に、
ビットマップが検索不能になるまで失われず、ビットマ
ップの適当な表現が残るので、必要ならば、利用者は再
構築されたビットマップを検討して語識別を行うことが
できる。第2に、完全な語を利用することにより、各文
字が語の文脈を持ち、語を他の語の形状と比較する上で
役立つ。語内にきちんととした形を成さない文字が存在
しても、比較される2つ信号間の相違値を少し高くする
ことによって、語形状信号の全体的識別可能性への影響
はごくわずかである。第3に、誤って認識される確率が
最も高い小さい語の場合、そうした語の持つ情報の内容
は比較的少ないことが認められる。これが、キーワード
探索など幾つかの指標構造(indexing scheme )が、テ
キストの文章の意味に関して、言語で最も一般的な語を
雑音として無視する理由である。したがって、誤りが最
もよく発生しそうな語は、情報の内容という意味では最
も重要性の低い語である。それとは対照的に、OCRで
は、誤りが語の長さに対して累積するので、誤り検出の
確率が最も高いのは長い語、つまり最も多くの情報内容
を含む語である。
【0018】OCR法はビットマップを表現文字符号へ
変換し、それによってビットマップの情報内容を喪失す
る。一般に、このプロセスは非可逆的であり、文字符号
から元のビットマップを得ることはできない。しかし、
本発明に従って説明する形状に基づく語の識別は、ビッ
トマップ情報を維持するのに役立ち、それにより1次元
信号からビットマップを妥当な範囲で再構築することが
できる。したがって、ビットマップ情報のかなりの部分
が、選択されたテキストまたは文字列の形状を表わすの
に使用される1次元信号によって保持される。
【0019】
【実施例】次に、図面に基づいて本発明を説明する。図
面は、本発明の好適実施例を説明するために示すのであ
って、本発明を限定するものではない。図1は、本発明
を有利に使用することのできる多くの状況をカバーする
一般画像処理システムを示す。原始(原稿)画像は通
常、スキャナ、ファクシミリ装置、または記憶装置など
の原始画像導出システム2から導出される。原始画像は
コンピュータ処理装置4へ転送される。この処理装置
は、ここで記述する新規装置をはじめ、幾つかの既知の
装置のどれかを使用することができる。処理装置4は、
ユーザインタフェース6に入力されるコマンドに応答し
て、プリンタ、ディスプレイ、ファクシミリ装置、また
はその他の記憶装置などの出力装置8への出力を生成す
る。基本的に、図1の上部に示すように、入力文書はシ
ステムへ送られ、出力文書はシステムから検索される。
【0020】以下の説明では、画像を一般に画像ビット
マップとして説明し、画像を多数の画像信号として表現
する。これらの信号を一般に画素と呼び、信号が生成さ
れる元となった文書の対応するマークまたは活動位置を
表わす場合は、一般に黒で表示する。しかし、このよう
な構成体は、本発明の説明を可能にするために使用した
ものであって、そうしたドメインを白黒またはバイナリ
画像だけに限定する意図は全くない。
【0021】図2は、本発明を実施し、語を形状によっ
て導出し、定義し、比較するシステムを示す。いうまで
もないが、システムの各要素は多くの装置でもよく、ま
た単独の装置内で作動するプログラムとしてもよい。シ
ステムは入力ビットマップ10で始まるが、そのソース
は明確にされておらず、本発明の一部でもない。画像の
ビットマップは最初、セグメンテーションシステム12
へ送られ、ここで語、文字列、またはその他の複数文字
の理解単位が導出される。最初に画像ビットマップはス
キュー検出器14を通過し、ここで画像におけるテキス
トの配向角度が決定される。テキストベースラインプロ
セッサ16では、画像の配向に関する情報および画像そ
れ自体を用いて、テキストのトップ(頂)ラインとベー
ス(底)ラインが決定され、画像内のテキストの行の上
限と下限が識別される。メジアンフィルタでは、「ブロ
ブ化(blobify )(塊化、ぼかし)」と呼ばれる機能が
実行され、これが画像に作用して、1行の各語群が単独
の単位として取り扱えるようになる。ここでいう
「語」、「記号列」、または「文字列」とは、1組の連
続した英数字または句読点要素のことであり、あるいは
もっと広義的には、ひとまとめにして単独の構文理解単
位を構成する符号または記号のことである。このような
単独の理解単位は、単位を構成する要素、符号または記
号を分離する空間より大きい空間で分離された1つの画
像として特徴付けられる。次に、テキストの隣接する行
を相互に明確に分離するために、ブロブ化した画像にブ
ロック20で1組の白線を付加する。白線は、プロセッ
サ16によって行われるベースライン決定に基づくもの
である。この情報、つまり隣接する語および隣接する行
の語から明確に分離されたブロブ化された語を用いて、
ブロック22で語の周囲に境界ボックスが定義され、こ
れによって語が識別され、周囲を囲われる。
【0022】その後、語形状信号コンピュータ24が、
元の画像および境界ボックスの決定に基づいて、画像内
の個々の語を表わす語形状信号を導出する。次に、この
情報は語形状比較器26において、まだ識別されていな
い語形状信号と語形状辞書28の中にある既知の語を表
わす語形状信号を比較するために使用される。別の実施
例では、画像10から得られた2つ以上の語の形状を比
較するために、語形状比較器26を使用することができ
る。さらに重要なことは、語形状比較器26が、既知の
語形状と未認識文字列の語形状との比較だけに限定され
ないことである。単純化した文脈では、比較器26は1
つの語形状を別の語形状と比較して、2つの語形状の間
の類似性の程度の相対的表示を提供する装置にすぎな
い。
【0023】一般に本発明を達成する方法は、以下の段
階を含む。画像の配向を設定し、行間隔および語群間隔
を設定した後、各語を境界ボックスで取り囲むことがで
きる。次に、文字列画像を貫通して伸長する基準線を作
成する。基準線は、xの高さの3分の2からxの高さの
3分の1までの範囲の有限厚さを有するブロックとする
ことができ、また実際には幅がゼロでもよい。次に、画
像の分解能で、基準線からテキストの輪郭線または境界
ボックスの上縁までの距離を、基準線の直交方向に測定
する。同様に、基準線から境界ボックスの下縁まで、ま
たは語の下部に沿ったテキストの輪郭線までのどちらか
小さい方を測定する。計算によって導出した値の組は、
水平軸に沿った位置対長さとして表現することができる
ので、信号は単独の独立変数信号とみなすことができ
る。これらの値の組のどちらか一方または両方を使用し
て、語形状を記述することができる。また、おそらくそ
れほど望ましくないかもしれないが、必要に応じて、境
界ボックスの頂部または底部から語または基準線との最
初の接触位置まで引いた垂直線の距離を測定すること
も、本発明の範囲内に含まれる。
【0024】語形状誘導のシステムおよびプロセスを用
いて、信号を数学的に考慮することもできる。一般的な
ケースとしてビットマップの形の画像データの配列とす
ることのできる画像データi(x,y)を考慮すると、
文字集合は、画像データの配列の部分集合内の選択記号
列を取り囲む境界を定義する、おそらく上述のような多
くの方法の1つにより識別される。i(x,y)から、
閉境界内で検出されたi(x,y)のエッジを表わすエ
ッジ信号e(x,y)を導出する。i(x,y)に追加
データを付加することによってエッジ信号を増補し、e
(x,y)が閉境界内の独立変数に関してそのドメイン
全体に対して定義される信号e´(x,y)となるよう
にする。e´(x,y)から各々が単独の独立変数信号
g´(t)である1つ、2つ、またはそれ以上の信号を
導出することができる。ここで、gは基準フレーム従属
パラメータである独立変数tの信号である。
【0025】重要なことは、1次元信号の導出に使用さ
れる数学的プロセスが基本的に可逆的であることを認識
することである。基準が有限厚さを持ち、したがって画
像から取り除かれる場合には、画像のその部分は識別不
能になるが、幅がゼロならば情報は維持されることが分
かる。
【0026】上述のプロセスを利用して、語形状の認識
辞書または参照用テーブルを明瞭に作成することができ
る。このプロセスは、情報源としてスキャナ入力した
語、または実際に、より「完全」な辞書のためにコンピ
ュータで生成された語に対して、実行することができ
る。
【0027】本発明のプロセスを実証するために、図3
に、公知のソースから取った、数行のテキストを含む試
料画像を示す。図3は、テキストの頁の画像がどのよう
に見えるかを大まかに示している。一方、図4はスキャ
ナ入力した頁の画像を示しており、既知のOCR法で問
題になるビットマップの画像の拡大状態を実証する。例
えば、テキスト画像の1行目の語50“practitioner”
の画像を見ると、文字の幾つかが一つにつながっている
ことが分かる。また、画像の左下の符号52の円で囲ん
だ部分にはノイズが存在する。符号54の円で囲んだ語
“practitioner's”を見ると、さらに句読点と文字がひ
とつにつながっている状態に気付く。
【0028】再び図2を参照すると、本発明の1つの可
能な実施例では、スキュー検出器14を実現することが
できる。画像のテキスト行の配向を決定する一般的な方
法は、無作為に選択した少数のエッジ画素(少なくとも
1つの白画素に隣接する1つの黒信号画素と定義され
る)に注目し、各エッジ画素に対し、図5で、特定の角
範囲にわたり均等の増分角間隔で引いた多数の線(例え
ば56a、56b、56c)を検討する方法である。図
5(線56a,56b,56c参照)、図6(線58
a、58b、58c参照)、および図7(線60a、6
0b、60c参照)は、画像内のテキストの配向角度を
正確に決定するために、前記の方法を例示のエッジ画素
に適用する角範囲をどんどん狭めていく一連の説明図で
ある。エッジ画素を見つけ、線を定義した後、スキュー
検出器14は各線の経路を追跡し、線と交差する連続黒
画素列の長さを画素単位で決定する。画像の境界に到達
した後、個々の画素列の長さの総和を計算し、見つけた
明確な画素列の総数で総和を割算することによって、黒
画素列の平均長さを計算する。この演算を全ての線に対
して実行し、それによって、選択エッジ画素から引いた
各線に対する黒画素列の平均長さを求める。これらの長
さを図8に曲線Aとして表示する。約0ラジアンおよび
3.14ラジアンが最小である。曲線Aは、エッジ画素
から引いた一連の斜線のそれぞれに対する総和/平均関
数のグラフ表現である。第1最小位置を突き止めた後、
第1最小位置から約πラジアンの位置に第2最小位置が
存在するか否かを決定することによって、最小位置(例
では、約0つまり0ラジアン)の確認を達成する。第2
最小位置(例では、約3.14つまりπラジアン)の存
在を確認すると、大まかな粗スキュー角度が識別され
る。その後、テキストのスキュー角度をさらに綿密に決
定する必要がある。これは、無作為に選択されたエッジ
画素から引いた線の本数を利用することによって達成さ
れ、線数は増分角の減少によって変化し、角範囲は粗ス
キュー角度を中心とする。しかし、精密スキュー角度
は、所定の長さの線に沿って含まれる黒画素の総数を分
析することによって決定することができる。さらに詳し
く述べると、単位距離における画素数は図4Dに曲線B
として表示されており、細密スキュー角度は、曲線の最
大位置を識別することによって決定される。つまり、単
位線長当りの黒画素の密度が最大である曲線位置が、画
像のテキスト行の角度をより正確に表わす。その結果、
曲線Bで示すように、0ラジアンが精密スキュー角度と
いうことになり、この位置の線がその長さに沿って最も
多数の黒画素と交差し、したがって決定しなければなら
ない最も厳密な配向角度を表わす。
【0029】別の方法として、スキュー角度はNewFin
e() 関数によって示される通り、細密角度の決定に関し
て述べた手順を何回も反復することによって決定するこ
とができる。図5、図6、および図7に示すように、反
復の場合も、所望の精度のスキュー角度に到達するまで
角度範囲をだんだん小さくしながら、その角範囲をカバ
ーする線を使用する。図5、図6、および図7によって
示される実現例では、毎回、選択したエッジ画素を中心
として一連の180個の角度を使用し、3回の反復によ
って所望の精度を達成した。
【0030】次のプロセス段階では、図9および図10
のグラフで示すように、テキストベースラインプロセッ
サ16で、テキストの各行の特性線つまり上部のトップ
ラインと下部のベースラインを識別する。テキストベー
スプロセッサ16によって実行されるこのプロセスの各
段階を、図11および図12に詳しく示す。図9の左側
に画像に沿って示すヒストグラムは、画像の分解能で行
を検査することによって導出され、先に決定したスキュ
ー角度で定義される画像のスキュー方位に平行に配向さ
れる。画像全体に及ぶこれらの平行な行は、各行ごとに
交差する黒画素の数を決定するために用いられる。テキ
ストの行間の空間を走る線に沿っては、黒画素は傍受さ
れないはずであり、テキストを貫通する行に沿っては、
多数の黒画素が傍受されるはずである。
【0031】さらに詳しく述べると、BaseLine()関数は
まず、ブロック140で示す関数に渡されるスキュー角
度によって決定されるテキスト行に直交し、かつ画像の
中心を通る「主」線の座標を決定する(ブロック14
2)。次に、ラインエンジンプロシージャ144を実行
し、主線に沿って一端から他端まで一連の位置で処理を
進めていくことによって、主線から外側へ一定の距離だ
け伸長する直交支線を構築する(ブロック146)。支
線に沿って黒の垂直エッジ画素の個数を計数し(ブロッ
ク148)、線と交差する黒画素数を計数し(ブロック
150)、両側の対の線に対する総和を取る(ブロック
152)。ブロック148で計数した黒の垂直エッジ画
素は、上隣または下隣の画素位置のどちらかに白の隣接
画素を持つ黒画素と定義される。Line Engine()procedu
re144は、主線に沿って全ての位置およびその対応支
線が処理されるまで、判定ブロック154の決定によっ
て反復される。
【0032】その後、全ての支線の計数を分析し、黒垂
直エッジ画素対黒画素比が最も高い支線対を決定する。
一般に、最高百分率を持つこれらの線は、テキスト行を
形成する文字の上縁および下縁に沿って走る線に対応す
る。図10の拡大図に示すように、垂直エッジ画素比の
高い支線(位置82)と低い支線(位置84)の間に
は、明確な違いが存在する。フィルタマスクを適用し、
マスク内の最大ピークを比較すると、テキストのトップ
ラインとベースライン(例えば線82)を表わすこれら
の線の識別が可能になる。段階150のヒストグラム演
算には、別の試験を追加することもできる。この追加試
験つまりブール試験(boolean test)は、線の分析中に
黒画素の最小数が検出されたことを確認するために使用
することができる。例えば、連続して5個の黒画素が線
に沿って検出された場合はフラグをセットし、セットさ
れたフラグは各支線分析の開始時に解除する。この試験
は、垂直エッジ画素比が高いので、小さいノイズや画像
のアーチファクトがベースラインとして認識されないこ
とを保証する。
【0033】別の方法として、支線に沿って存在する黒
画素の総数を利用して、ベースラインの位置を決定する
ことができる。支線に沿って計数される黒画素の数を表
わすヒストグラム曲線BLを用いて、黒画素の交差が最
も多い支線を決定することができる。最大しきい値を適
用することにより、各テキスト行の上下の特徴的対を決
定することができる。したがって、ヒストグラム曲線B
Lの立上り部および立下り部はテキストの特性線を構成
し、またしきい値は特に中間に挟まれた最小値の周囲の
局所的最大値を識別するために使用され、これによっ
て、その後の処理で使用するベースライン位置の識別が
可能になる。さらに重要なことは、段階162で示され
るこの代替的方法を使用して、BLヒストグラム曲線の
勾配に基づき、ベースライン対の上下のベースライン対
を識別することができる点である。ヒストグラム情報は
段階150ですでに収集されているので、識別の段階に
対応付けられる追加処理はほとんど無いことに注目する
ことが重要である。予備的特性線あるいはベースライン
対が識別された後(ブロック162)、確認段階(ブロ
ック164)を実行して、ベースライン対が、画像の全
ての線対に対する平均線対距離の計算によって設定され
る最小距離以上に離れていることを確認する。確認の
後、後で白線の追加やセグメンテーションのブロック
(20および22)等に使用するために、出力ブロック
155で有効なベースライン情報を格納する。
【0034】これらのベースライン決定法の重要な利点
は、行間の空白位置におけるノイズや異質のマークの影
響を極めて受けにくいことである。図13は、試料テキ
ストの画像例におけるベースライン決定の結果を示し、
ベースライン対つまりベースラインおよびトップライン
BnおよびBn´がそれぞれ画像上に配置され、テキス
トの主要部分が表われる画像部分を示す。文字のアセン
ダストロークの一部分はベースラインから外にはみ出し
ているが、プロセスの他の部分に対する損失は無い。い
うまでもなく、しきい値がより小さければ、システムは
アセンダストロークをもっと多く捕獲できるであろう。
【0035】次に、図15および図16に関連して、図
2を再度参照しながら説明する。次のプロセスの段階
は、語群の分離段階である。フィルタ18を画像のコピ
ーに適用すると、語を相互に区別可能なブロブ状態にし
た画像が得られる。フィルタは小ウィンドウを用いて各
領域に適用され、部分的に黒い領域が黒とみなされるよ
うになる。図14に示すように、ブロブ化関数はまず、
マスクの大きさと角度を設定するマスク変数を初期化し
(ブロック180)、次に上部走査線を処理してデータ
配列を初期化する(ブロック182)。メジアン(中
間)フィルタリングは、画像上でマスクウィンドウを順
次移動することによって達成され(ブロック184およ
び186)、ウィンドウに表われる黒画素数がしきい値
を越える場合には、ウィンドウの配置の中心位置に当た
るターゲット画素を黒にセットする。フィルタプロセス
の例を幾つか示す図15は、マスクウィンドウ200を
画像の一部分の上に置いている。例えば、しきい値が2
0%で21の画素を持つほぼ矩形のマスクを、テキスト
に対し決定されたスキューにほぼ等しい角度に配置した
場合、ウィンドウ206におけるフィルタリングの結果
は、画素204が黒にセットされる。同様に、主として
文字“r”と“o”の画素表現の間の文字間空間内にあ
るウィンドウ206は、画素208を黒にセットする。
一方、語群の間の領域にあるウィンドウ210の場合
は、画素212を黒にセットするのに充分な個数の黒画
素がウィンドウ内に存在していない。マスクウィンドウ
200の大きさ、形状、および配向は、単独の語に共通
の文字間の充填(fill)を最大にしながら、テキスト行
間の充填を削減するように最適化されている。
【0036】図16に示すように、メジアンフィルタリ
ングの結果は、語の文字間の比較的小さい空間が一般に
重要でなくなり、黒画素で充填される。語は、単独の結
合された画素集合となる。つまり、単独の語中の文字を
完全に分離する白空間は無くなる。しかし、記号列間ま
たは語間の比較的大きい空間は、黒に変化するフィルタ
の能力の範囲外でより大きい空間となり、したがって、
隣接する記号列を相互に区分するのに役立つ。ここで、
図13および図16を参照すると、試料テキストの最初
の2つの語“A”および“practitioner”が「ブロブ化
(このプロセスのことをこのように呼ぶ)」され、従っ
て“practitioner”の“p”はもはやこの語の“r”か
ら分離されていないことが分かる(図4と比較のこ
と)。また繰り返しになるが、文字のブロブ化または曖
昧化にもかかわらず、“A”と“practitioner”は、そ
れぞれが結合された記号または語として相互に区別でき
る状態が維持される。
【0037】この段階(白線追加20)に関連して、再
び図2を参照すると、図16のブロブ化された画像に一
連の白画素線を重ねることによって、テキストの行が隣
接する行から分離した状態で維持されることが保証され
る(つまり、フィルタ後のテキスト行が重なり合わな
い)。図16および図17を参照し、円で囲んだ領域2
58および258´に注目すると、アセンダとディセン
ダの組み合わせが、2つの語の行間併合を生じている。
図16の領域258に示すテキスト行の重なり合いこ
そ、まさしくブロブ化あるいはフィルタリング後の画像
に白線を重ねることによって除去されるものである。
【0038】図17に示すような結果が得られるこの白
線を重ねる作業は、図18に示すプロセスによって実行
される。一般に、白線WLは、テキスト行と重なってブ
ロブ化を生じないように、画像の隣接するベースライン
とトップラインの対の間の空間の約半分に付加される。
再び繰り返すが、図17は、図16のブロブ化した画像
に白線を追加した結果を示している。
【0039】次に、図18について説明する。白線追加
ブロック20は、段階280の変数を初期化することに
よって始まり、その後、第1テキスト行のベースライン
情報からトップラインの位置を読み出す。トップライン
情報は廃棄され(ブロック282)、次のベースライン
とトップラインの位置が記憶装置またはリストから引き
出される(ブロック284および286)。画像ではこ
のベースライン−トップライン対はそれぞれ、隣接する
テキスト行の底部と頂部を表わす。次に段階288でこ
の対の中心にある位置を突き止め、画像の中心から外側
の方向へ引く白線の始点とする。白線の終点は段階29
0で、図2のスキュー検出器14によって決定されたス
キュー角度を用いて計算する。段階292で、ブロブ化
した画像に白線を重ねて引く。テストブロック294の
制御により全てのテキスト行が効果的に分離するまで、
このプロセスが続けられる。
【0040】再び図2を参照すると、ブロブ化またはメ
ジアンフィルタリングの結果、ブルブ化の段階で各結合
画素集合の周囲に形成された境界ボックスの位置を決定
することができる。境界ボックスは、テキスト行にある
語の追加白線の間に位置する結合された構成部分の周囲
にのみ配置される。境界ボックスは、画像の座標系では
なく、テキスト行の方向およびテキスト行の直交方向の
各結合画素群の端点を識別することによって、テキスト
行の方向に配置される。一般にFindBorders 関数は、画
像内の全ての画素を対象として連続的に実行され、結合
文字の境界ボックス(Paint Component )を見つけ、各
ボックスの左上角の座標およびボックスの幅を決定す
る。
【0041】次に、FindBorders() 手続きを詳細に示し
た図19および図20について説明する。セグメンテー
ション段階22は、フィルタリング後の画像の周囲に完
全に白境界を配置する(段階300)ことによって始ま
る。これは、画像の画素の配列がエッジより外にはみ出
るのを回避するために行われる。次に、画素と線の計数
xおよびyはそれぞれ、境界内の最初の画素位置に初期
化される。ReadPixel手続きが呼ばれ(ブロック30
6)、画素の色(黒または白)を返し、ブロック306
で試験する。画素が白ならば、それ以上の処理は不要で
あり、ブロック322から処理が続く。そうでなけれ
ば、PaintComponent()手続きが呼ばれ、待ち行列の黒画
素の位置を格納することから処理が始まる(ブロック3
08)。次に、画像のコピーで、画素が白にセットさ
れ、結合した画素または構成要素の周囲を囲むボックス
の境界が更新される(ブロック310および312)。
次に、隣接する黒画素が白にセットされ(ブロック31
4)、黒画素の位置が待ち行列の最後に付加される(ブ
ロック316)。ブロック318で、待ち行列のポイン
タをテストして、待ち行列が空か否かを決定する。空で
なければ、待ち行列の次の画素が検索され(ブロック3
20)、ブロック312から処理が続く。待ち行列が空
ならば、結合された黒画素は全て白にセットされ、ボッ
クスの境界は、結合された構成要素の周囲を囲むボック
スを反映する。次に、語セグメントを取り囲むボックス
の境界が確認され、テキスト行のスキューに関連して配
向された直交座標系に調整される(ブロック322)。
【0042】ループ化プロセスはブロック324から続
き、ここで画素計数xを検査して、走査線の終りに達し
たか否かを決定し、ブロック326で計数を増分した
後、ブロック304のプロセスに続く。走査線の終りに
達すると、画素計数xはリセットされ、走査線計数yは
ブロック328で増分される。次にブロック330で走
査線計数yの値を検査し、画像全体が処理されたか否か
を決定する。全部処理されたならば、処理は完了する。
そうでなければ、処理はブロック304で次の走査線の
最初の画素に続く。
【0043】こうして、語“practitioner”について、
図21に示すように、連続した文字画像の端が境界ボッ
クスを定義する。境界ボックスが設定されると、この段
階でその後の処理からノイズマークを除去することがで
きる。ノイズマークが識別されるのは、次のような場合
である。1)境界ボックスの角部が画像画素の配列より
外にある場合。2)ボックスが配列内の複数のテキスト
行をまたぐ場合、または完全にテキスト行の外に出てい
る場合。3)ボックスが基準εに比べて、横または縦の
方向に小さすぎるために、廃棄された場合。ノイズマー
ク70および72等は、語とはみなされない。
【0044】再び図2を参照する。今や隣接する語から
分離された語の画像または少なくともその一部分を表わ
す信号が、語形状コンピュータ24から導出される。導
出された信号を語形状輪郭と呼ぶ。各語の形状輪郭は、
MakeShell() 関数を用いて決定される。図22(A)に
示すように、この関数は最初、ボックスの頂部に沿った
各画素位置から頁の方位に対して下向きに、黒画素また
はボックスの底部に達するまで走査しながら、各境界ボ
ックスの頂部に沿って移動する。ボックスの頂部と黒画
素またはボックス底部との間の距離dの集合の記録が維
持される。ボックスの長さ全体に対し累積される距離d
の集合は、語形の頂部の生輪郭で構成される。その後、
図22(A)と同じ語に対し、図22(B)に示すよう
に同様の方法で、ボックスの底部に沿って順次移動し、
最初の黒画素または境界ボックスの頂部に達するまで上
向きに走査することによって、底部の生輪郭が生成され
る。ほとんどの部分がその輪郭だけで文章内の語を比較
的容易に認識できる、図23の情報の内容に留意するこ
とが重要である。
【0045】次に、図24について説明する。ブロック
100では、フィルタリング後の画像を使用できないわ
けではないが、これではなく、実際の画像に実行するこ
とが望ましく、この段階で各語を貫通する1つ以上の基
準線が設定される。1つの実施例では、語を貫通して走
る有限の厚さまたは厚さがゼロのブラックアウトバーを
構築し、できればエックスハイトの約3分の2の位置に
上限または基準線を持ち、エックスハイトの約3分の1
の位置に下限を持つことが望ましい。輪郭線の計算10
2では、上部または下部の境界ボックスから語まで、ま
たは近い方の基準線までの距離dに対し、1組の測定値
が導出される。計算は画像の分解能で実施される。この
計算を図で説明する図25(A)を参照すると、基準線
を使用することによって、最終的にこの段階から導出さ
れる信号が、語の長さ全体における全てのサンプリング
位置で定義できるようになることが分かる。好適実施例
では、計算値は実際に先に収集した輪郭データから生成
し、図に示すように上限または下限のブラックアウトバ
ーにより距離dを制限するように調整する。図示した実
施例では、必ずしも必要なわけではないが、境界ボック
スの上部線から上部基準線までの測定を行う。こうし
て、例えば、基準線から上部境界線または下部境界線ま
たは文字までの測定を交互に行うことができる。図25
(B)は測定値の集合を用いてブロック104から信号
出力を形成する方法をよく示している。輪郭線は、基準
線に対する距離dとして表現される。基準線に対する距
離を計算することにより、共通のエックスハイトに対す
る語形状の輪郭線のスケーリングが可能になり、これに
よって、その後の形状の比較が容易になる。図25
(C)および図25(D)は、d´値の集合をグラフに
描画して、1次元の信号を形成できることを示す。
【0046】英語の語の外形によって伝達される情報の
研究では、大半の場合に、語はそのイメージの上部のほ
ぼ3分の1を見るだけで識別できることが分かってい
る。つまり、語の識別に必要な情報の多くは、語の上部
に含まれる。それ以外の場合でも、語のイメージの上部
3分の1だけでは識別できない語のほとんどは、語の下
部3分の1の情報を識別作業に含めることによって、識
別可能となる。比較的小さい分類の語を識別できるよう
にするには、語の真中の3分の1に関する情報が必要で
ある。このように段階的なプロセスを使用し、必要に応
じて優先順位付きの語形検査において、最初に上部の語
形信号または輪郭線を導出し、次に下部の語形信号また
は輪郭線を導出し、3番目に語形状信号中心輪郭線(基
準線から語または境界ボックスまで)を導出する。図2
5(A)、図25(B)、および図25(C)の例で
は、語“from”をその上部だけでかなり一意に識別可能
である。図26(A)、図26(B)、図26(C)、
および図26(D)の場合、語“red ”は語“rod ”や
語“rad ”などと混同しやすいので、その上部だけで一
意に識別することは少し難しい。文字“a”の下部で
“red ”と“rad ”を区別できるが、文字“o”で語
“red ”と“rod ”を区別できるかどうかは疑わしい。
しかし、“red ”、“rad ”、および“rod ”の中心部
分は相互に全く異なる。
【0047】再び図2を参照する。次に実行する段階
は、語形状比較器26における比較である。1つの実施
例における比較は実際には幾つかの小段階から成り、以
下にそれぞれの小段階について説明する。図27に関連
して、一般に、1つは既知の語、もう1つは未知の文字
列という2つの語形状信号を比較し、両者が相似してい
るか否かを調べる。しかし、この場合、信号Rは語“re
d ”の上部輪郭線であり、信号Fは語“from”の下部輪
郭線である。実際には、文字フォント、再生法、および
スキャナ入力画像の品質の間に違いがあるが一般的であ
るので、全く同一となることが期待される信号は比較的
少ない。しかし、比較される語形状信号はスケーリング
によって、エックスハイトが同一となるように調整する
ことができる。これは、比較される1対の語形状の輪郭
線のエックスハイトを決定することによって達成され
る。これが決定された後、エックスハイトの比を用い
て、一方の輪郭線に適用すべき倍率が決定される。エッ
クスハイトはフォントの特性的測定値であるので、水平
方向および垂直方向の両方の倍率を決定するのに用いら
れる。また、別の方法として、正規化を行うことなく形
状信号を比較し、長さの不均等による差が測定された部
分に、重み付けを課す。また、信号の振幅または高さを
正規化して、語の形状の比較に対するフォントサイズの
影響をさらに減少する。
【0048】次に、図28(A)ないし図28(C)に
ついて説明する。これらはアセンダ/ディセンダの正規
化演算を詳細に示しており、それぞれの形状信号は、テ
キスト文字のアセンダおよびディセンダの高さとエック
スハイトの間の一般的関係に基づいて正規化される。図
に示すように、相似したフォントサイズのつもりで印刷
した文字でも、あるいは現在適切にスケーリングしたフ
ォントサイズであっても、実際のアセンダの高さはわず
かに異なることがある。これは、タイプフェースやフォ
ントのボディの大きさに差があるために生じるのであ
り、フォントのサイズが同一の、例えば24ポイントの
相似した文字でも、フォントの高さが異なることを暗に
示す。図28(A)の距離d1は、2種類の文字“h”
のアセンダの高さの差を示す。同様に、図28(B)の
距離d2 は、文字“f”の高さにおける同様の差を示
す。図28(C)に示すように、一般的な文字はアセン
ダ部390、エックスハイト部392、およびディセン
ダ部394の3つの部分に分割することができる。ま
た、これらの部分の相対的高さをそれぞれa、c、およ
びbで示す。前記の演算を適用し、エックスハイトより
上に来る輪郭線の部分を次のようにスケーリングする。
【数1】
【0049】同様に、ディセンダは次式によってスケー
リングする。
【数2】 ただし、どちらの場合も、分子の値(1.5)は、アセ
ンダまたはディセンダの高さとエックスハイトの関係の
観察結果に基づいて到達した値である。また、StoreOut
linePair()関数には、テキスト文字列の部分を表わして
いない輪郭線の部分を除去する演算も含まれている。こ
のような部分は、図21に示す境界ボックスの端部にあ
る。例えば、図21で語“practioner”を取り囲むボッ
クスは、実際の語の画像を越える部分に伸長しているこ
とが分かる。さらに、図25(A)ないし図25(D)
で語“from”の端部に示すように、この部分の輪郭線は
有用な情報を含んでいない。これらの部分を輪郭形状か
ら除去することによって、比較演算に導入される誤りが
少なくなる。
【0050】正規化演算の後は、標準信号処理段階によ
り、比較される2つの信号の相似性または非相似性を決
定することができる。または別の方法として、次の方程
式を使用することもできる。
【数3】 ここで、Δstringは、2つの信号間の差分値、 f(x)は既知の信号、 g´(x)は未知の信号 である。簡単な計算により差分を検討することができ、
それがゼロに近ければ、2つの信号の間にほとんど差が
ないということになる。しかし、差分の量が大きいほ
ど、その語と比較対照の語とが同一でない可能性が高く
なる。
【0051】ここに記述する実施例は、各語の上下の輪
郭線を相互に連結して利用して、語の形状輪郭を比較す
るという点に注目することが重要である。これは実現を
特徴付ける決定であり、本発明を上下の輪郭線を相互に
連結して使用することにのみ限定する意図はない。実
際、上部輪郭線だけの中に充分な情報が含まれることも
あるので、下部輪郭線の比較の必要性がかなり軽減さ
れ、それによってかなりの処理作業が削減される。
【0052】この単純化された比較方法の段階の第1考
案例を、図29に示す。まず段階410で、第1語形状
の輪郭を記憶装置から検索し、その後、第2語形状の輪
郭を段階412で検索する。次に、上下の輪郭によって
定義される語形状の重心を決定し、その位置を合わせる
(段階414)。この段階の目的は、語の輪郭の中心を
整列することによって、比較される2組の輪郭相互間の
相対的ずれの原因となるだけである輪郭の差分を減少す
ることである。重心は、曲線より下の面積(質量)と輪
郭間の距離(モーメント)を合計し、次にこれを割算し
て上下の輪郭対の重心の標識を求める。両組の輪郭対の
重心を計算した後に、輪郭対の間の相対的ずれを計算し
(段階416)、輪郭相互の差分を計算する前に輪郭線
の位置をずらす。輪郭線の位置ずらしは、図2のブロッ
ク24における語形状境界の設定および語形状の計算に
伴う誤差を軽減するために必要である。段階418は、
位置をずらした輪郭対の重複範囲からはみ出る部分を取
り扱い、非重複部分のゼロ振幅信号に対する差を計算す
る。これは、輪郭線の非重複端における上下輪郭の平方
値を合計することによって達成される。次に、輪郭の重
複部分を比較する(段階420)。この部分の差を、上
部曲線と下部曲線の間の差の二乗の和として計算する。
次に、段階418と段階420から返された値を合計し
て、位置をずらした輪郭によって定義される範囲全体に
おける差の総和を求める。その後、この値は、比較され
る2つの語形の輪郭対相互間の相似性の相対的標識とし
て使用することができる。
【0053】重心比較法とは別の方法として、タイムワ
ーピングとして知られる信号処理関数を利用する方法が
ある。これについては、「音響、スピーチ、および信号
処理に関するIEE会報」(1980年12月、第AS
SP−28巻6号)に掲載されたマイヤーズ、ラビナ
ー、およびローゼンバーグによる論文「単離語認識のた
めの動的タイムワーピングアルゴリズムにおける性能の
妥協」("Performance Tradeoffs in Dynamic Time War
ping Algorithms for isolated Word Recognition" by
Myers, Rabiner, and Rosenberg, IEEE Transactions o
n Acoustics, Speech, and Signal Processing, Vol. A
SSP-28, No. 6, December 1980)、ならびにサンコフお
よびクルスカルの著書「タイムワープと文字列編集と高
分子:順序比較の理論と実際」の1章と4章("Time Wa
rps, String Edits, and Macromolecules: The theory
and Practice of Sequence Comparison" by Sankoff an
d Kruskal, ADDISON-Wesley Publishing Company, In
c., Reading, Massachusetts,1983, Chapters 1 and
4)に説明されている。この方法を用いて、最良の整合
が得られるまで輪郭に沿って点の伸縮を行うことができ
る。次に、比較される輪郭間の差の量および輪郭の整合
を行うために必要な伸縮に基づいて、スコアを導出す
る。ここでもまた、このスコアが、比較される2つの信
号間の整合の相対的標識となる。
【0054】次に、図30について説明する。これは、
ダイナミックワーピング法の一般的段階を示している。
この方法は、差分配列またはマトリックスを使用して、
第1輪郭の各点と比較対照の輪郭の点との距離を記録す
る。図で分かるように、このプロセスは、比較に適用す
ることのできる全ての手段に類似している。
【0055】第1に、データ構造を利用して様々な比較
関数の演算を動的に制御するように、符号の編成を行な
う。データ構造は、輪郭に適用される方法を定義する変
数、および比較を制御するために使用されるその他の要
素を含む。これらの要素として、比較前の輪郭線長の正
規化、上部輪郭および下部輪郭の分離比較、ワープパス
を指示するcenterWeight係数、ワープパスを抑制する帯
域幅、下部輪郭の比較に関連して上部輪郭の比較への多
少の重み付けを可能にするtopToBottom 比、および既知
またはモデル語形状に対して未知の輪郭を比較する場合
に輪郭の差分への重み付けを選択的に制御するhillToVa
lley比などがある。
【0056】一般に、各方法は比較技術を実現するが、
例えば1以外のcenterweightおよび1より高いtopToBot
tom 重みを持つ勾配有限動的ワープなど、それぞれが特
定の種類の動的比較に最適化されている。第1レベルの
選択により、勾配制限付きワープ関数を比較、非制約ワ
ープ比較、または単純な非ワープ比較に使用することが
可能になる。両方のワープ比較法に、分離比較関数と並
列比較関数の両方が含まれる。前者では上部輪郭と下部
輪郭がそれぞれ個別にワープされ、後者の場合、ワープ
が上部輪郭と下部輪郭に同時に適用される。
【0057】一般的な実施例では、動的ワーピングプロ
セスは、パス/距離配列の空間を割り当てることから始
まる(段階450)。この配列は、1つの語形状輪郭に
対する別の語形状輪郭の比較およびワープ動作中に生成
される距離値を保持する。全てのワープ法で使用される
プロセスは、輪郭間の累積差を計算するために、以前に
配列に格納されたデータを使用する反復プロセスである
ので、空間の割当後に、配列の境界部を初期化しなけれ
ばならない。段階452で、配列境界を初期化する。配
列の第1列の初期化は、第1輪郭の第1点と第2輪郭の
各点の間の差の二乗を計算を必然的に伴う。境界初期化
の後、行および列の指標値L1およびL2がそれぞれ1
にリセットされ、輪郭に沿って個々の非境界点の処理が
開始される。
【0058】輪郭の処理は段階458から段階464ま
で続き、ここで第1輪郭の1点に対する第2輪郭に沿っ
た各点間の距離の差分が計算される。さらに、この差分
または距離が計算された後、以前に計算された差分値と
合計される。さらに、以前に計算された差分値の幾つか
に対する重み付けを変更することができる。例えば1つ
の実施例で、配列の対角線に沿った差分値の重みを、ce
nterWeight重み係数によって変更することができる。説
明として、距離(残余)は、上部輪郭と部下輪郭におけ
る第1輪郭の1点と第2輪郭の1点の間の差分の二乗値
の総和として計算され、最高輪郭差分値はtopToBottom
変数によって重み付けされる。この距離(残余)はその
後、103頁の線137から始まるループで反復法によ
り垂直、水平、および対角差分値を決定するために使用
することができる。これらの各値を計算するために、残
余で表現される現在の距離値を、下、左、および左下の
配列位置の前の値に加算する。左下位置値は、先に述べ
たように、centerWeight係数によって重み付けられる対
角位置である。次に、図31(A)について説明する。
これは、位置502の以前の計算値Xとその後の配列位
置との位置関係を示している。配列位置504の差分値
を計算するときは、下の値として位置502の値を使用
する。同様に、位置506の値を計算するときは、中心
重みを付けた左下または対角の値として位置502の値
を使用する。3つの差分値を計算した後(段階458、
460、および462)、3つの値の最小値を選択し
(段階464)、現在の配列位置に挿入する(段階46
6)ことによって、プロセスが続行する。
【0059】その後、L1で表現される第1輪郭上の点
から、L2で表現される第2輪郭上の点までの差分を計
算することによって、図30に示すプロセスが続行す
る。判定段階468は、輪郭の端かどうか、つまり刈り
幅(swath )を検査することによって、第2輪郭に沿っ
た点の反復処理を制御する。指標変数iおよびjは、差
分計算ループを制御するために、L1およびL2の代わ
りに使用される。刈り幅は帯域幅と呼ばれ、輪郭線長に
よって定義される勾配が得られるように調整される所望
の帯域幅によって決定される。限界に達していなけれ
ば、段階470でL2の値が増分された後、段階458
で次の点の処理が続行される。同様に、判定段階472
は増分段階474と共に、第1輪郭に沿った各点の処理
を制御する。全ての点の相互に対する処理が終了したこ
とが、段階472の肯定応答によって確認されると、相
対的差分の最良のスコアが、配列(L1,L2)の最も
遠い対角位置に含まれる。その後、段階476で決定さ
れた値が、比較された輪郭間の動的ワープ差分の指標と
して返される。
【0060】さらに別の実施例では、前記の動的タイム
ワーピングプロセスを変化することによって、差分配列
に含まれる差分値を定期的にしきい値と比較することが
できる。比較後、比較される輪郭が他の輪郭と整合しな
いと判断するのに充分な差分が存在すると判定されたと
きに、プロセスは中断し、貴重な処理時間を節約するこ
とができる。さらに、語形状比較器26の順序作動は、
語形状コンピュータ24の順序出力と協働して実行する
ことができ、これによって、キーワードのサーチを実行
しながら、テキスト画像の並列処理を行うことが可能に
なる。
【0061】動的ワーピング比較方法の基本的実現につ
いて説明してきたが、ここで、本発明の多くの可能な実
施例を説明するために、前記の制御要素の適用に含まれ
るその他の動的ワープ比較法の特徴を簡単に説明する。
まず、前記の方法は、ワープパスが配列を横切って移動
するときに、ワープパスの勾配を抑制した状態で実現す
ることもできる。この方法を、図31(A)で図によっ
てさらに詳しく説明する。ここで配列位置512の値X
は、図に示すその後の3つの配列位置にしか加算するこ
とができない。例えば、Xは配列位置514に加算する
ことができ、位置514の値はd2l1とみなされる。
変数名に使用され、図で適用されている命名法は次の通
りである。d2l1とは、現在の配列位置を起点にし
て、2列下で1行左の配列位置を指し、d1l1とは左
斜め下の配列位置を指し、d1l2とは1行下で2列左
の配列位置を指す。同様の方法で、Xは配列位置516
の累積差分値の計算のために、d1l2値として加算す
ることができる。
【0062】図31(A)と図31(B)の比較から明
白であるように、勾配抑制ワープ法は、累積差分値の生
成時に追跡できるワープパスが制限される。このような
制約を実現する理由は、ワーピングプロセスで比較され
る2つの輪郭の一方の大部分が除去されたり圧縮される
のを、そうした圧縮にかなりの「負担」を掛けることな
く、防止するためである。
【0063】次に、並列ワーピングプロセスに関連して
先に説明した方法もまた、1対だけの輪郭、例えば2つ
の語形状の上部輪郭に同時に実現することができる。一
般に、これらの方法は1対の語形状の上下輪郭の間の差
分を別個に計算する。コードに示されるこの方法の一般
的な実現は、これらの方法が一般的に、最初は上部輪郭
のワープ差分を計算し、次にそれを下部輪郭の比較から
得たワープ差分に加算し、その結果語形の差分合計が得
られるというやり方で、順次使用されることを示してい
る。
【0064】前記の比較法を「それぞれの部分ごと」の
カスケード方式で実行することによって、さらに別の処
理上の利点を得ることもできる。さらに詳しく説明する
と、カスケード方式による比較は、まず、比較される語
の上部輪郭を利用して語を識別するか、少なくとも考え
られる別の語の集合を狭めておき、次に、下部輪郭の比
較により完全な識別を行なうことが必要がある。このよ
うな方法による語形状比較演算26は、図2に示すよう
に、既知の語形状の辞書28との対比によって未知の語
形を識別するのに要する処理時間がかなり節約される。
カスケード方式の比較で重要なことは、輪郭に適用され
る上部および下部のワープを比較的等価的にしなければ
ならないという制限である。この要求事項は、上部と下
部の曲線が共通の語に対して関係を持つということに起
因しており、この関係がワープ分析中に維持されなけれ
ば、比較の精度が低下する。
【0065】また別の実施例として、前記の動的ワープ
技術は、最良の整合を達成するために上下曲線に適用さ
れる相対的ワープを累積するのに適した関数を付加して
使用することができる。例えば、既知の非イタリック体
の語形状を未知の語形状と比較する場合、下部曲線に相
対して上部曲線に適用されるワープのずれは、語がイタ
リック体であることを示す可能性がある、ワープ部分の
長さは上部と下部のワープで同一のままである。重要語
は強調のためにしばしばイタリック体で表記されるの
で、このような技術は、比較的長いテキスト本文におけ
る重要語の識別に有用であることを証明するかもしれな
い。
【0066】これまでに述べなかった制御要素の1つ
に、bandWidth (バンド幅)係数がある。bandWidth 係
数を実現すると、これはワープ信号が制約を受ける信号
帯域の相対幅を制御する。さらに詳しく説明すると、帯
域幅の制限は、配列を横切るワープパスが制約されてい
る配列の対角線周辺部を定義することによって実現され
る。制限は、パスが制限を越えることがほとんど起こら
ないように、帯域幅外の領域に大きい値を割り当てるこ
とによって実現される。
【0067】先に簡単に述べた別の要素は、topToBotto
m 係数である。これが適用された場合、この変数の値
は、上部輪郭ワーピングプロセスに対し計算された差分
値に重みを課すために使用される。したがって、1より
大きい値を使用すると、上部輪郭の差分が下部輪郭の差
分より大きく重み付けられる。非常に大きい数字を使用
すると、下部輪郭の差分は完全に有効に除去され、同様
に、値がゼロの場合は、上部輪郭の差分が完全に除去さ
れる。上部輪郭は一般に語に関する情報を下部輪郭より
多く含んでいるので、この係数は一般に、上部輪郭にそ
の情報内容に比例する重みを付けることができるため
に、重要と考えられる。
【0068】hillToValley比は通常、既知またはモデル
の語形状輪郭の組を未知の画像からの取った語形状輪郭
の組に対して比較する状況で適用される。このオプショ
ンの実行時に、モデル組の輪郭は比較手段関数として渡
される。輪郭線上の点間の差分を決定するときに、この
比較関数は差分の二乗の総和を計算する。SquareDiffer
ence()比較関数は、モデル輪郭の値が比較対照の輪郭よ
り小さいと決定されたときに必ず、hillToValley比を差
分の二乗に適用させる。hillToValleyを1より大きくす
ると、モデル輪郭が目標輪郭より小さい場合の差分の相
対的「負担」が、モデル輪郭が目標輪郭より大きい場合
の差より小さくなる。このタイプの重み付けの基礎は、
モデル輪郭を比較対照とする場合に、スキャンニングま
たは同様のディジタル化作業中に「充填」される目標輪
郭の部分の重みを、モデル輪郭より低い輪郭位置で明示
される、充填されそうにない部分の重みより小さくし
て、比較処理を行わなければならないということであ
る。例えば、アセンダとディセンダが文字のボディと結
合する部分は、スキャンニング中に充填される傾向が高
く、これによって、目標輪郭がこれらの部分でなだらか
な輪郭となる。一方モデル輪郭はこれらの部分にはっき
りした凹凸を持つ傾向が強いようである。したがって、
モデルの輪郭値は、たとえ文字が同じであっても、目標
の輪郭値より低くなる。したがって、hillToValley変数
は、これらの部分に対する差分計算値への影響を最小に
する。
【0069】前記の方法および制御要素により、比較方
法を様々なやり方で実行することが可能になる点に注目
することが重要である。しかし、これらの方法で得られ
る柔軟性は、比較プロセスの適用可能性を向上するの
で、特定の語形状輪郭、例えばコンピュータ生成された
文字フォントによって得たモデル輪郭に関する情報が分
かっている場合、その情報を利用することによって、比
較はさらに確実なものになる。
【0070】語形状の導出プロセスの数学的説明は、語
形状信号を導出する別の方法が存在することを示唆して
いる。幾つかの可能な代替方法として、代替座標系、例
えば極座標を用いて1次元信号を設定することが考えら
れる。別の可能性として、信号g(t)の生成がある。
ここで、g(t)は各輪郭点からその次の輪郭点の方向
を表わし、tは点番号を表わす。
【0071】本発明を好適実施例つまりソフトウェア実
現に関連して説明してきたが、本発明は、専用ハードウ
ェアを利用して実現することもできる。さらに、本発明
をテキスト画像に関連して説明してきたが、本発明は、
非テキスト画像部分をも含む画像にも適用することがで
きる。図面を参照しながら本書を読み、理解すれば、他
の者が実施例を変化させることが容易であることは明ら
かである。実施例は1つの例であるが、当業者は請求の
範囲に含まれる開示内容から様々な別の態様や変化例や
改良を実現することができる。
【図面の簡単な説明】
【図1】本発明を利用する画像処理システムの一般的系
統図である。
【図2】本発明の語形状認識システムの実施例を構成す
るシステムコンポーネントの配列のブロック系統図であ
る。
【図3】本発明のプロセスを実証するテキスト例の画像
試料である。
【図4】図3のテキスト例の走査画像のコピーである。
【図5】後の処理を進める前に、テキスト例の画像試料
における配向角度を決定するために用いるプロセスを図
形的に示す。
【図6】後の処理を進める前に、テキスト例の画像試料
における配向角度を決定するために用いるプロセスを図
形的に示す。
【図7】後の処理を進める前に、テキスト例の画像試料
における配向角度を決定するために用いるプロセスを図
形的に示す。
【図8】テキスト例から得た応答のグラフである。これ
は、その後の処理を進める前に、テキスト例の画像処理
における配向角度を決定するために使用する。
【図9】テキスト例の試料画像を検討して、画像におけ
るテキストのベースラインを決定するためのグラフの導
出を示す。
【図10】テキスト例の試料画像を検討して、画像にお
けるテキストのベースラインを決定するためのグラフの
利用を示す。
【図11】図9に示すベースラインを決定するために実
行される手続きを示す流れ図である。
【図12】図9に示すベースラインを決定するために実
行される手続きを示す流れ図である。
【図13】図9および図10で示すデータからベースラ
インを導出した後、ベースラインを表示したテキスト例
の走査画像を示す。
【図14】メジアンフィルタを図3の画像に適用すると
きに用いられる段階を示す流れ図である。
【図15】メジアンフィルタの適用を説明する、図3の
画像の一部分の拡大画像表現である。
【図16】ここでblobifyingとして知られるプロセスで
あるメジアンフィルタをテキスト例の走査画像に適用し
た結果得られる画像を示し、文字列が単独の接続した画
素の集合として提示される。
【図17】プロセスにおける次の段階で、ぼやけた画像
に白画素の線が追加され、文字列の行が隣接文字列行か
ら明確に分離された状態を示す。
【図18】図17の白線を追加するために必要な段階を
示す流れ図である。
【図19】図16の不鮮明画像による画像データをセグ
メント化するために行なわれる手順を示すフローチャー
トである。
【図20】図16の不鮮明画像による画像データをセグ
メント化するために行なわれる手順を示すフローチャー
トである。
【図21】バウンディングボックスが各文字列を含む画
像画素の部分集合をただ一つ識別するように各単語群の
周囲に配置された例文テキストを示す。
【図22】(A)及び(B)は例文テキストのサンプル
画像中に現れる例文単語「from」を用いて単独独立
数信号の導出を図示する。
【図23】図22に図示された導出工程により形成され
る輪郭の結果を図示する。
【図24】語形状信号の導出に関連する各段階を示す。
【図25】(A)、(B)、(C)及び(D)は、例文
単語「from」を用いて単一独立数信号の導出を示
す。
【図26】(A)、(B)、(C)及び(D)は、例文
テキストのサンプル画像中に現れない例文単語「re
d」を用いて単一独立変数信号の導出を示す。
【図27】信号正規化法を用いて単語「red」および
「from」に対して導出された信号の単純な比較を示
す。
【図28】(A)、(B)及び(C)は、フォント高さ
における矛盾を詳細に図示し、さらにこのような矛盾の
正規化方法を図示したものである。
【図29】単語形状輪郭の間の相対差を確定する一方法
に対して用いられる段階を詳細に示すフローチャートで
ある。
【図30】単語形状輪郭の間の相対差を確定する第二方
法の段階を詳細に示すフローチャートである。
【図31】(A)及び(B)は非勾配条件付き比較およ
び勾配条件付き比較の両方に対して計算されるとともに
一配列に格納される相対差値間の関係図である。
【符号の説明】
2 ソース画像導出システム 4 コンピュータ処理装置 6 ユーザインターフェース 8 出力装置 10 入力画像 14 スキュー検出器 16 テキスト底線プロセッサ 18 中央フィルタ 24 語形状信号コンピュータ 26 語形状コンパレータ

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 画像を定義するデータ内の記号列を認識
    する方法であって、 a)画像信号の集合としてのテキストまたは文字列画像
    集合から離散記号列としての単語をひとかたまりの図形
    パターンとして切り出すステップと、 b)切り出した単語単位の図形パターンの輪郭を1次信
    号として特徴抽出するステップと、 c)第2の記号列の表現信号としての辞書パターンと照
    合することにより単語単位の認識が行なわれるステップ
    と、 を含む、記号列の認識方法。
JP4325994A 1991-11-19 1992-11-11 記号列の認識方法 Expired - Lifetime JPH0772905B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US79611991A 1991-11-19 1991-11-19
US796119 1991-11-19

Publications (2)

Publication Number Publication Date
JPH05242298A JPH05242298A (ja) 1993-09-21
JPH0772905B2 true JPH0772905B2 (ja) 1995-08-02

Family

ID=25167350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4325994A Expired - Lifetime JPH0772905B2 (ja) 1991-11-19 1992-11-11 記号列の認識方法

Country Status (5)

Country Link
US (1) US5557689A (ja)
EP (1) EP0543592B1 (ja)
JP (1) JPH0772905B2 (ja)
CA (1) CA2077970C (ja)
DE (1) DE69230632T2 (ja)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5623681A (en) * 1993-11-19 1997-04-22 Waverley Holdings, Inc. Method and apparatus for synchronizing, displaying and manipulating text and image documents
JP3095623B2 (ja) * 1994-06-16 2000-10-10 松下電器産業株式会社 属性判定方法
JP3335009B2 (ja) * 1994-09-08 2002-10-15 キヤノン株式会社 画像処理方法及び画像処理装置
US5633957A (en) * 1994-09-16 1997-05-27 Compaq Computer Corporation Method and apparatus for determining positional guidelines of handwritten data
JPH08221576A (ja) * 1994-12-12 1996-08-30 Toshiba Corp 文字列における直線検出方式、直線除去方式および宛名領域判別装置
DE69600461T2 (de) * 1995-01-17 1999-03-11 Eastman Kodak Co System und Verfahren zur Bewertung der Abbildung eines Formulars
US5889884A (en) * 1995-05-23 1999-03-30 Minolta Co., Ltd. Image forming apparatus capable of recognizing top and bottom of document image
JP3006466B2 (ja) * 1995-09-28 2000-02-07 日本電気株式会社 文字入力装置
US6094484A (en) * 1996-10-16 2000-07-25 Convey Corporation Isomorphic pattern recognition
US6275610B1 (en) 1996-10-16 2001-08-14 Convey Corporation File structure for scanned documents
AU4915097A (en) * 1996-10-16 1998-05-11 Convey Corporation Isomorphic pattern recoginition
JP3405155B2 (ja) * 1997-11-07 2003-05-12 松下電器産業株式会社 文書検索装置
US6529643B1 (en) 1998-12-21 2003-03-04 Xerox Corporation System for electronic compensation of beam scan trajectory distortion
US6917708B2 (en) * 2000-01-19 2005-07-12 California Institute Of Technology Handwriting recognition by word separation into silhouette bar codes and other feature extraction
US7738706B2 (en) * 2000-09-22 2010-06-15 Sri International Method and apparatus for recognition of symbols in images of three-dimensional scenes
US7046851B2 (en) 2000-11-08 2006-05-16 California Institute Of Technology Image and video indexing scheme for content analysis
AU2002230766A1 (en) * 2000-11-08 2002-05-21 New York University System, process and software arrangement for recognizing handwritten characters
US8682077B1 (en) 2000-11-28 2014-03-25 Hand Held Products, Inc. Method for omnidirectional processing of 2D images including recognizable characters
US6735337B2 (en) * 2001-02-02 2004-05-11 Shih-Jong J. Lee Robust method for automatic reading of skewed, rotated or partially obscured characters
AUPR824501A0 (en) 2001-10-15 2001-11-08 Silverbrook Research Pty. Ltd. Methods and systems (npw003)
AUPR824601A0 (en) * 2001-10-15 2001-11-08 Silverbrook Research Pty. Ltd. Methods and system (npw004)
CA2375355A1 (en) * 2002-03-11 2003-09-11 Neo Systems Inc. Character recognition system and method
RU2251151C2 (ru) * 2002-12-17 2005-04-27 Аби Софтвер Лтд. Способ анализа растрового изображения
US8606015B2 (en) 2002-12-17 2013-12-10 Abbyy Development Llc Multilevel image analysis
US7298920B2 (en) * 2003-06-11 2007-11-20 Hewlett-Packard Development Company, L.P. Method and device for determining orientation of text
US7676110B2 (en) * 2003-09-30 2010-03-09 Fotonation Vision Limited Determination of need to service a camera based on detection of blemishes in digital images
US7369712B2 (en) * 2003-09-30 2008-05-06 Fotonation Vision Limited Automated statistical self-calibrating detection and removal of blemishes in digital images based on multiple occurrences of dust in images
US7340109B2 (en) * 2003-09-30 2008-03-04 Fotonation Vision Limited Automated statistical self-calibrating detection and removal of blemishes in digital images dependent upon changes in extracted parameter values
US7308156B2 (en) * 2003-09-30 2007-12-11 Fotonation Vision Limited Automated statistical self-calibrating detection and removal of blemishes in digital images based on a dust map developed from actual image data
US7424170B2 (en) 2003-09-30 2008-09-09 Fotonation Vision Limited Automated statistical self-calibrating detection and removal of blemishes in digital images based on determining probabilities based on image analysis of single images
US8369650B2 (en) 2003-09-30 2013-02-05 DigitalOptics Corporation Europe Limited Image defect map creation using batches of digital images
US7310450B2 (en) 2003-09-30 2007-12-18 Fotonation Vision Limited Method of detecting and correcting dust in digital images based on aura and shadow region analysis
US7590305B2 (en) 2003-09-30 2009-09-15 Fotonation Vision Limited Digital camera with built-in lens calibration table
US7295233B2 (en) * 2003-09-30 2007-11-13 Fotonation Vision Limited Detection and removal of blemishes in digital images utilizing original images of defocused scenes
US20080311551A1 (en) * 2005-08-23 2008-12-18 Mazer Corporation, The Testing Scoring System and Method
JP4305431B2 (ja) * 2005-09-06 2009-07-29 ソニー株式会社 画像処理装置、マスク作成方法及びプログラム
WO2007095556A2 (en) 2006-02-14 2007-08-23 Fotonation Vision Limited Digital image acquisition device with built in dust and sensor mapping capability
US8607151B2 (en) * 2006-08-01 2013-12-10 Nvidia Corporation Method and system for debugging a graphics pipeline subunit
JP4909216B2 (ja) * 2006-09-13 2012-04-04 株式会社キーエンス 文字切り出し装置、方法およびプログラム
US8098939B2 (en) * 2006-12-04 2012-01-17 Trend Micro Incorporated Adversarial approach for identifying inappropriate text content in images
US8244062B2 (en) * 2007-10-22 2012-08-14 Hewlett-Packard Development Company, L.P. Correction of distortion in captured images
US8405681B2 (en) * 2009-06-24 2013-03-26 Ariel Shamir Image comparison by asymmetric dynamic warping
US8400473B2 (en) * 2009-06-24 2013-03-19 Ariel Shamir Multi-operator media retargeting
TWI420403B (zh) * 2009-11-13 2013-12-21 Primax Electronics Ltd 影像處理方法及影像處理裝置
JP5672828B2 (ja) * 2010-08-03 2015-02-18 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
JP5577948B2 (ja) * 2010-08-24 2014-08-27 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
US8582886B2 (en) * 2011-05-19 2013-11-12 Microsoft Corporation Compression of text contents for display remoting
JP5948866B2 (ja) * 2011-12-27 2016-07-06 富士ゼロックス株式会社 画像処理装置及びプログラム
JP5884560B2 (ja) * 2012-03-05 2016-03-15 オムロン株式会社 文字認識のための画像処理方法、およびこの方法を用いた文字認識装置およびプログラム
US9245205B1 (en) 2013-10-16 2016-01-26 Xerox Corporation Supervised mid-level features for word image representation
JP6208094B2 (ja) * 2014-08-26 2017-10-04 株式会社東芝 情報処理装置、情報処理システム、情報処理方法及びそのプログラム
JP6548920B2 (ja) 2015-03-09 2019-07-24 株式会社東芝 情報処理装置、情報処理方法及びプログラム
JP2017021695A (ja) 2015-07-14 2017-01-26 株式会社東芝 情報処理装置および情報処理方法
US10235585B2 (en) * 2016-04-11 2019-03-19 The Nielsen Company (US) Methods and apparatus to determine the dimensions of a region of interest of a target object from an image using target object landmarks
US10402673B1 (en) 2018-10-04 2019-09-03 Capital One Services, Llc Systems and methods for digitized document image data spillage recovery
CN110653824B (zh) * 2019-07-26 2021-06-04 同济人工智能研究院(苏州)有限公司 基于概率模型的机器人离散型轨迹的表征与泛化方法
US11074473B1 (en) 2020-01-21 2021-07-27 Capital One Services, Llc Systems and methods for digitized document image text contouring

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2905927A (en) * 1956-11-14 1959-09-22 Stanley F Reed Method and apparatus for recognizing words
US3133266A (en) * 1960-06-14 1964-05-12 Bell Telephone Labor Inc Automatic recognition of handwriting
US3295105A (en) * 1964-08-27 1966-12-27 Sylvania Electric Prod Scan control and normalization for a character recognition system
US3755780A (en) * 1971-06-28 1973-08-28 Pattern Analysis & Recognition Method for recognizing characters
GB1401008A (en) * 1971-08-17 1975-07-16 Mullared Ltd Character recognition apparatus
JPS5729745B2 (ja) * 1974-09-25 1982-06-24
US4155072A (en) * 1976-12-17 1979-05-15 Ricoh Company, Ltd. Character recognition apparatus
US4326190A (en) * 1978-08-30 1982-04-20 Borland David L Boundary trace slope feature detection system
US4400828A (en) * 1981-03-27 1983-08-23 Bell Telephone Laboratories, Incorporated Word recognizer
US4495644A (en) * 1981-04-27 1985-01-22 Quest Automation Public Limited Company Apparatus for signature verification
JPS5947666A (ja) * 1982-09-13 1984-03-17 Dainippon Screen Mfg Co Ltd 2値画像のデ−タ圧縮方法
US4499499A (en) * 1982-12-29 1985-02-12 International Business Machines Corporation Method for identification and compression of facsimile symbols in text processing systems
US4558461A (en) * 1983-06-17 1985-12-10 Litton Systems, Inc. Text line bounding system
US4864628A (en) * 1983-08-26 1989-09-05 Texas Instruments Incorporated Method of optical character recognition
US4741045A (en) * 1983-09-23 1988-04-26 Dest Corporation Optical character isolation system, apparatus and method
US4701960A (en) * 1983-10-28 1987-10-20 Texas Instruments Incorporated Signature verification
GB2161006B (en) * 1984-04-27 1988-02-10 Canon Kk Character recognition apparatus
US4731857A (en) * 1984-06-29 1988-03-15 International Business Machines Corporation Recognition system for run-on handwritten characters
JPS61188681A (ja) * 1985-02-15 1986-08-22 Matsushita Electric Ind Co Ltd 文字認識装置
US4764972A (en) * 1985-05-23 1988-08-16 Nec Corporation Continuous characters recognition system
US4918740A (en) * 1985-10-01 1990-04-17 Palantir Corporation Processing means for use in an optical character recognition system
US5261009A (en) * 1985-10-15 1993-11-09 Palantir Corporation Means for resolving ambiguities in text passed upon character context
US4817166A (en) * 1986-05-05 1989-03-28 Perceptics Corporation Apparatus for reading a license plate
DE3716787A1 (de) * 1986-05-19 1987-11-26 Ricoh Kk Zeichenerkennungsverfahren
US5050218A (en) * 1986-08-26 1991-09-17 Nec Corporation Apparatus for recognizing address appearing on mail article
JP3014097B2 (ja) * 1987-02-20 2000-02-28 株式会社日立製作所 輪郭追跡方法及びシステム
JPS63268081A (ja) * 1987-04-17 1988-11-04 インタ−ナショナル・ビジネス・マシ−ンズ・コ−ポレ−ション 文書の文字を認識する方法及び装置
US4949281A (en) * 1987-04-23 1990-08-14 H. Berthold Ag Method and apparatus for generating and producing two-dimensional graphic object by polynominal parametric curves
JP2667435B2 (ja) * 1987-05-01 1997-10-27 株式会社リコー 領域抽出方法
US4809344A (en) * 1987-05-11 1989-02-28 Nippon Sheet Glass Co., Ltd. Apparatus for preprocessing of character recognition
JPH01112388A (ja) * 1987-10-26 1989-05-01 Ricoh Co Ltd 文字認識処理方法
JP2619429B2 (ja) * 1987-11-05 1997-06-11 グローリー工業株式会社 接触文字の分離方法
JPH01183793A (ja) * 1988-01-18 1989-07-21 Toshiba Corp 文字認識装置
US4998285A (en) * 1988-03-11 1991-03-05 Kabushiki Kaisha Toshiba Character recognition apparatus
JPH06101049B2 (ja) * 1988-03-25 1994-12-12 インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン 文字列検出方法
US5131053A (en) * 1988-08-10 1992-07-14 Caere Corporation Optical character recognition method and apparatus
JP2597006B2 (ja) * 1989-04-18 1997-04-02 シャープ株式会社 矩形座標抽出方法
JP2930612B2 (ja) * 1989-10-05 1999-08-03 株式会社リコー 画像形成装置
US5187753A (en) * 1989-12-08 1993-02-16 Xerox Corporation Method and apparatus for identification and correction of document skew
US5048109A (en) * 1989-12-08 1991-09-10 Xerox Corporation Detection of highlighted regions
US5129014A (en) * 1989-12-08 1992-07-07 Xerox Corporation Image registration
US5212739A (en) * 1990-10-17 1993-05-18 Hewlett-Packard Company Noise tolerant optical character recognition system
US5216725A (en) * 1990-10-31 1993-06-01 Environmental Research Institute Of Michigan Apparatus and method for separating handwritten characters by line and word

Also Published As

Publication number Publication date
US5557689A (en) 1996-09-17
EP0543592A3 (en) 1994-05-25
EP0543592B1 (en) 2000-02-02
CA2077970A1 (en) 1993-05-20
DE69230632T2 (de) 2000-07-20
EP0543592A2 (en) 1993-05-26
CA2077970C (en) 1999-02-23
DE69230632D1 (de) 2000-03-09
JPH05242298A (ja) 1993-09-21

Similar Documents

Publication Publication Date Title
JPH0772905B2 (ja) 記号列の認識方法
JP3343864B2 (ja) 語体の分離方法
JP3259993B2 (ja) 語形測定方法及び画像信号処理方法
JP3453134B2 (ja) 複数の記号ストリングの等価性を判定する方法
US5410611A (en) Method for identifying word bounding boxes in text
US5539841A (en) Method for comparing image sections to determine similarity therebetween
US5369714A (en) Method and apparatus for determining the frequency of phrases in a document without document image decoding
US5390259A (en) Methods and apparatus for selecting semantically significant images in a document image without decoding image content
KR100412317B1 (ko) 문자인식/수정방법및장치
JP2000285139A (ja) 文書マッチング方法、記述子生成方法、データ処理システム及び記憶媒体
US6351560B1 (en) Apparatus, method, and program for locating an objective on a form and a recording medium for recording the program for locating the objective on the form
US10878271B2 (en) Systems and methods for separating ligature characters in digitized document images
JP2902097B2 (ja) 情報処理装置及び文字認識装置
JP2993533B2 (ja) 情報処理装置及び文字認識装置
JPH1166230A (ja) 文書認識装置、文書認識方法及び媒体
KR910007032B1 (ko) 한글 문서 인식장치의 문자열과 개별문자 절출방법
JP2832035B2 (ja) 文字認識装置
JP2974167B2 (ja) 文字の大分類認識方法
JP2963474B2 (ja) 類似文字識別方法
JP2977244B2 (ja) 文字認識方法及び文字認識装置
JPH0353392A (ja) 文字認識装置
JPS62187988A (ja) 光学的文字認識方式において使用する処理手段
JPH05114047A (ja) 文字切り出し装置
JPH03219384A (ja) 文字認識装置
JPH01201789A (ja) 文字読取装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19960123

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees