JPH05507804A - 出力信頼性指標値を用いてバックプロパゲーションを制御するようにしたニューラル・ネットワーク - Google Patents

出力信頼性指標値を用いてバックプロパゲーションを制御するようにしたニューラル・ネットワーク

Info

Publication number
JPH05507804A
JPH05507804A JP91509233A JP50923391A JPH05507804A JP H05507804 A JPH05507804 A JP H05507804A JP 91509233 A JP91509233 A JP 91509233A JP 50923391 A JP50923391 A JP 50923391A JP H05507804 A JPH05507804 A JP H05507804A
Authority
JP
Japan
Prior art keywords
output
values
value
neuron
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP91509233A
Other languages
English (en)
Inventor
ガボースキ,ロジャー・スティーヴン
Original Assignee
イーストマン・コダック・カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by イーストマン・コダック・カンパニー filed Critical イーストマン・コダック・カンパニー
Publication of JPH05507804A publication Critical patent/JPH05507804A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。

Description

【発明の詳細な説明】 出力信頼性指標値を用いてバックプロパゲーションを制御するようにしたニュー ラル・ネットワーク魚服の技虫立野 本発明は、ニューラル・ネットワークのための装置、及びその装置に関連した方 法に関するものであり、特に、光学文字認識システム(OCRシステム)に用い るのに適した。その種の装置及び方法に関するものである。この装置ないし方法 は、バックプロパゲーションと、ニニーロン重み及びニューロン・バイアス値の 変更調節とを、出力信頼性指標値を用いて制御することによって、ニューラル・ ネットワークの応答性を、実際の変化している入力データに、滑らかに、迅速に 、且つ正確に適応させることができるようにし、更にそれによって、従来公知の ニューラル・ネットワークにおいて、これまで行なわれていた動作と比べて、よ り力強い動作を行なえるようにしたものである。
背量筺術 ワード・プロセッサ等をはじめとする、データを処理するコンピユータ化された オフィス用機器として、様々な機器が利用されるようになったため、現在使用さ れている種々雑多な、紙の上に作成する書類(特に、所定の用紙を使用する書類 )の量が、この数十年の間に爆発的に増大している。その種の書類の殆どは、そ の書類の情報を、何らかの時点でその書類から抽出し、その抽出した情報を何ら かの方法で処理する必要があるものである。
例を挙げるならば、その種の書類であって、しかも現在広範に使用されている書 類として、所定用紙上に作成する銀行小切手がある。通常の使用法では、振出人 が、手書きまたは機械印字によってその小切手の所定欄に金額を記入して、その 小切手を受取人に渡す。受取人はその小切手を彼自身の取引銀行に入金する。
その銀行がその小切手を処理して支払いをする際には、その銀行の従業員である オペレータが、その小切手に記入されている金額を読み取り、プリンタを操作し て、その小切手の下辺に設けた欄に、余韻に対応した数桁の数字を印字する。小 切手のその下辺の欄には更に、その数字と共に電子的に処理される符号である経 路選択符号(ルーチン・コード)も印字される。この後、それら数字と経路選択 符号とが、機械に読み取られることによって、電子的な振り替えの処理が開始i れ、この振り替え処理は、手形交換所を通して、振出人の取引銀行(即ち支払銀 行)に開設されている振出人の口座から、受取人の取引銀行(即ち呈示銀行)に 開設されている受取人の口座へ、預金を振り替える処理である。更に、その小切 手の現物が、手形交換所を通して呈示銀行から支払銀行へ受け渡されることによ って、交換決済が完了する。小切手の使用枚数は、過去数年の間に非常な勢いで 増加しており、また現在も増加し続けているため、紙の上に作成されている小切 手を処理するために銀行が負担するコストも、それにつれて増大の一途をたどっ ている。銀行としては、このコストの増大を抑えるために、或いはその増大の速 度を緩めるために、小切手の処理作業の機械による自動化を、更に高度なものと する努力を不断に続けている。具体的に述べるならば、銀行業務に携わっている 種々の方面の人々は、次のように考えている。即ち、人間のオペレータを適当な 光学文字認識システム(OCRシステム)で代替することによって、小切手へコ ードを打ち込む作業を自動化したならば、その打ち込み作業の作業能率と、その 打ち込みの正確度との両方を、格段に向上させることができ、しかもそれと同時 に、打ち込み作業に必要なコストの節約も達成できるであろうと、考えているの である。容易に想像できるように、その種のシステムを構成するとすれば、その システムは、1枚1枚の小切手に記入されている、手書きないし機械印字した文 字ないし数字をスキャンし、そのスキャンによって読み取った金額を、正確に、 ディジタル信号(例えば適当なアスキー・ワード等)に変換し、そして特に、プ リンタを操作して各小切手の下辺の欄に該当する数字を印字することによって。
小切手へのコード打ち込み作業を実行する、そういう構成のシステムになるであ ろう。
現代の社会で使用されている紙の上に作成する書類の量は、絶え間なく増え続け ているため(用紙上に作成する小切手はそのほんの一例に過ぎない)、その種の 書類を読み取って、その内容を機械読取りが可能な形態へ、ないしは直接コンピ ュータで扱えるデータへと変換するために必要な人的資源は、その確保が急速に 困難になりつつあり、また人件費自体も高騰している。そのため、多くの方面に おいて、OCRシステムを開発及び使用することによって、正確な動作が得られ るプロセスの自動化を達成しようとており、特にその初歩の段階としてば、機械 印字した英数字の文字を認識して変換するプロセスを自動化することが、そして 最終的には、手書きの文字を認識して、それを対応したディジタル・データへ変 換するプロセスを自動化することが目標とされている。
機械印字した文字を、OCRシステムが正確に認識できるようにするための、特 に有望な技法の1つに、ニューラル・ネットワークを使用するという技法がある 。数学的厳密さをもって動作する伝統的なシーケンシャル・プロセッサである「 フォノ・ノイマン型」のディジタル・プロセッサと比較するならば、ニューラル ・ネットワークはアナログ形式のものであり、また、一般的に、膨大な処理量を こなす、並列処理能力を発揮することができる。このようなニューラル・ネット ワークを使用すると、たとえその入力データが、ファジー(曖昧)で、不完全で 、及び/または、多くの場合矛盾を含んだデータであっても、重み付は判断処理 を実行することによって、そのような入力データに基づいて、正確な結果ではな いにせよ、とにかく高速で、しかも時として驚く程の良好な近似的出力が得られ る。
基本的には、ニューラル・ネットワークは、ニューロンと呼ばれる互いに同一構 造の複数の処理要素を、多層の階層構造に配列した構成体である。各々のニュー ロンは、1つまたは複数の入力を有するものとすることができるが、ただし、そ の出力は1つだけである。複数の入力の各々には、係数によって重み付けをして おく。ニューロンの出力は、通常、その複数の重み付は入力の合計に、更にバイ アス値を加えた関数として算出されるようにしている。この関数は、活動度関数 と呼ばれており、典型的な例では、シグモイド関数、即ち、S字形の単調増加関 数であって、その入力が正の無限大ないし負の無限大に近付くにつれて、夫々一 定の値に漸近する関数としており、この一定の値としては、典型的な例では、正 の無限大に近付くときにはr+1」、負の無限大に近付くときには「0」または 「−1」であるようにしている。このシグモイド関数と、個々のニューロン重み と、ニューロン・バイアス値とによって、1つのニューロンの、その全ての入力 に供給された信号に対する応答性、即ち「興奮度」が定まる。また、ある階層に 属する、ある1つニューロンの出力を、その上の階層に属する複数のニューロン の全てへ分配して、それら全てのニューロンの入力とするということが、しばし ば行なわれている。典型的なニューラル・ネットワークは、3種類の階層を含ん でいる。即ち、そのネットワークの最下位に位置する入力階層、そのネットワー クの最上位に位置する出力階層、それに、それら入力階層と出力階層との間の中 間に位置する中間階層(隠れ階層)の3種類である。具体的な例として、例えば 、英数字の文字に正規化処理を施して7個×5個のビクセルのアレイから成る文 字とした正規化処理済文字の認識に使用するためのニューラル・ネットワークの 場合について説明するならば、そのビクセル・アレイ中の1つ1つのビクセルに 対応した夫々のセンサ(このセンサは例えば、適当な電荷結合デバイス(CCD )の中の個々のセル等である)の出力が、入力階層中の、互いに異なったニュー ロンへ、その入力として供給される。従って、この入力階層には、各ビクセルに 対して1個ずつ、合計35個の個別のニューロンが配置されることになる。この 入力階層中のそれらニューロンは、各々がただ1つの出力を備えている。そして 、入力階層中のそれら35個の全てのニューロンの出力は、更に、隠れ階層とも 呼ばれる中間階層の中の、全てのニューロンへ分配されて、それらの入力となる 。中間階層中のそれら各ニューロンの出力は、出力階層中の全てのニューロンへ 分配されて、それらの入力となる。出力階層中のニューロンの個数は、そのニュ ーラル・ネットワークが識別すべき文字の種類数に、等しくするのが一般的であ る。そして、例えば、それら出力ニューロンのうちの1つを文字rA」に対応さ せ、別の1つの出力ニューロンを文字rBJに対応させ、3番目の出力ニューロ ンを文字「a」に対応させ、4番目の出力ニューロンを文字「b」に対応させる というようにし、以下同様に、英数字の文字の異なった種類の各々を、1つずつ の出力ニューロンを対応させるようにする。尚、ここで英数字の文字という中に は、文字、数字、句読点、及び/またはその他の必要な、ニューラル・ネットワ ークが認識すべき記号が含まれる。中間階層中のニューロンの個数を何個にする かを決定する要因の主なものには、以下のものがある。即ち、認識させるために ニューラル・ネットワークへ供給する文字のビットマツプの複雑度、ニューラル ・ネットワークの情報キャパシティとして望まれるキャパシティの大きさ、ニュ ーラル・ネットワークに学習させた後に、そのニューラル・ネットワークが獲得 する未知のバタンを取り扱うことのできる能力をどの程度に設定するか、そして 、後に説明するように、学習処理を施す際に、ニューラル・ネットワークの全て の重みとバイアス値とが適切に収束するまでに、そのニューラル・ネットワーク が経なければならない反復処理の回数等が、中間階層中のニューロンの個数を定 める主な要因である。尚、ニューラル・ネットワークの出力は、通常は、プロセ ッサ等の回路へ供給するようにしており、その回路によって、そのニューラル・ ネットワークの出力を、後続の処理に適した、適当なマルチビットのディジタル ・ワード(例えばアスキー・ワード等)へ変換するようにしている。
ニューラル・ネットワークの運用には、一般的に、2種類の異なった、続けて実 行する処理手順が含まれる。即ち、初期化及び学習処理手順(この学習は、バタ ンか既知で結果的に発生される出力も既知の、所定のバタンについて行なう)と 、その後に続けて実行する、実際の未知のバタンを対象とした認識処理手順との 2種類である。
先ず最初に、ニューラル・ネットワークの初期化を行ない、この初期化は、その ニューラル・ネットワークの中の全てのニューロンの、そのニューロン重みとニ ューロン・バイアス値とを、ランダム値にセットすることによって行なう。この 場合のランダム値としては、一般的に、ある一定の範囲内にある値を用いる。
この後、ニューラル・ネットワークの学習を実行する。更に詳しく説明すると、 ニューラル・ネットワークに対しては、予め定めである複数の所定の入力データ ・バタン(いわゆる学習用バタン)を連続して次々と供給する。そして、ニュー ロン重みとニューロン・バイアス値との、両方の値を同時に調節して、各々の学 習用バタンに関するそのニューラル・ネットワークの出力が、その学習バタンに 対応した、目標とするニューラル・ネットワーク出力(目標ベクトル)に、略々 一致するようにする。学習が完了したならば、全ての重み並びにバイアス値は、 そのときの現在値に固定する。これが済んだならば、このニューラル・ネットワ ークを使用して、未知のバタンの認識を実行することができる。このバタン認識 の実行中には、複数の未知のバタンを連続して次々と、ニューラル・ネットワー クの複数の入力へ並列的に供給し、それによって得られる、その入力に対応した ニューラル・ネットワークの応答を出力ノードから取り出す。理想を述べるなら ば、あるニューラル・ネットワークが、ある未知の入力バタンを、そのニューラ ル・ネットワークがそれについて学習したある所与の文字であると認識したとき には、出力階層中の、その文字に対応したニューロンが発生する信号が、出力階 層中のその他のニューロンが発生するいずれの信号よりも、際立って大きな信号 となっているべきである。
学習処理の実行中に、全てのニューロンの、その重み並びにバイアス値を迅速に 調節するための方法として、従来から広く用いられている技法の1つに、逆誤差 伝搬法C以下、単に[バックプロパゲーション(逆伝搬法)」と称する)という 技法がある。簡単に説明するならば、この技法では、ニューラル・ネットワーク へ所定の学習用入力バタン(人力ベクトル)を供給し、その学習用人カバタンを 、ニューラル・ネットワークの中を順方向へ伝搬させ、そして出カニニーロンに 、その学習用人カバタンに対応した出力バタン(出力ベクトル0)を発生させる 。続いて、この出力ベクトルに付随している誤差の大きさを判定し、その判定し た誤差を、そのニューラル・ネットワークの中を逆方向へ伝搬させて、そのニュ ーラル・ネットワークの中の個々のニューロンへその誤差を配分する。更にその 後、それら各ニューロンの重みとバイアス値とを調節し、このときの調節の方向 と量とは、その学習用人カバタンに関するニューラル・ネットワークの全体の誤 差の大きさが最小となる方向及び量とする。
ある1つの学習用バタンに関してそのニューラル・ネットワークの全ての重みの 調節を完了したならば、続く次の学習用バタンをそのニューラル・ネットワーク へ供給し、誤差の大きさの判定及び重みの調節のプロセスを反復して実行し。
以下同様にして、複数の学習用バタンの各々について、以上のプロセスを次々と 反復実行して行く。通常は、それら学習用バタンの各々に関して、ニューラル・ ネットワークの全体の誤差が所定の限界値に達したならば、以上の反復実行を停 止して、この学習処理を終了する。その時点で、ニューラル・ネットワークの全 ての重みとバイアス値とを、それらの現在値に固定する。これ以後、未知の入力 データについての文字認識作業を、比較的高速で実行することができる。尚、以 上に関しては、M・コーデル著「ニューラル・ネットワーク入門−一第3巻」( M、 Caudill、 ”Neural Networks Primer  −−Part III”、 犯」凶徂匹、 June−1988,pages  53−59)を参照されたい。
文字認識処理の実行中に、ニューラル・ネットワークが認識した特定の文字を同 定するための方式としては、通常、[勝者の全取り(Winner take  all ) J方式を採用している。この方式は、ある人力データのバタンに対 して、ニューラル・ネットワークが完全に反応を終了した時点で、他の出力ニュ ーロンが発生している出力値と比べて、最大の出力値を発生している1つの出カ ニニーロンを、そのニューラル・ネットワークの出力として選出するというもの であり、この選出は、そのニューラル・ネットワークに接続した処理回路に行な わせるようにしている。その処理回路は、該当する出力ニューロンを選出したな らば、それに続いて、簡単なテーブル・ルックアップ動作等を行なうことによっ て、ニューラル・ネットワークが同定したその特定の文字の、マルチビットのデ ィジタル表示を検索する。
以上に説明した種類の、バックプロパゲーション方式のニューラル・ネットワー クは、研究室の環境の中で、静的な試験データ母集団に基づいて、英数字の文字 の認識を実行する場合には、非常に正確な結果を出すことができる。しかしなが ら、この種のニューラル・ネットワークをOCRシステムに組み込んだ上で、実 地に(即ち「実世界環境」の中で)文字の認識を実行した場合には、その実行の 結果得られる認識正確度を著しく制約する、重大な問題が発生する。
更に詳しく説明すると、OCRシステムの製造工場には、一群の複数台のプリン タを用意してあり、それらプリンタを使用して、通常、広範な種々の異なったフ ォントの英数字の文字を打ち出すようにしている。そして、工場においては、O CRシステムに組み込んだニューラル・ネットワークに対して、そうして打ち出 した特定の文字を認識させるための学習処理を施している。しかしながら、残念 なことに、一旦、OCRシステムが工場を離れて、ユーザの使用現場において運 転されるようになったならば、そこでそのOCRシステムは、未だ学習をしてい ない、様々な見慣れない文字にも直面しなければならない。見慣れない文字に直 面することになる具体的な状況としては、例えば、ニューラル・ネットワークに 学習させたいずれのフォントとも異なったフォントを、ユーザが使用している場 合もあり、及び/または、学習に使用したフォントと、ユーザの使用現場にお− いてスキャンした書類上に印字されていたフォントとがたと久同−であっても、 そのフォントで形成されている、学習に使用した特定のタイプフェースとユーザ の書類上の実際のタイプフェースとの間に、事実上の相違が存在している場合も ある。このように同一のフォントを使用していても、別々のプリンタによって印 字したタイプフェースどうしの間には、事実上の相違が存在し得ることの原因と しては、例えば、それらプリンタの同じ文字の印字部材の間の摩耗度の相違(摩 耗度の相違は、それら印字部材によって印字媒体上に印字したときの印字状態、 即ち印影の相違を生じる可能性がある)や、同じ文字の印字部材に付着している ゴミないじ塵芥の付着程度の相違、同じ文字の印字部材から媒体上へ塗布される インクないしトナーの量の不均一、それに、目に見える僅かな相違、例えば、同 じフォントで形成された同じ文字でありながら、プリンタが互いに異なるために 生じている、アセンダ(字形の上方突出部)、デセンダ(同じく下方突出fHI )、ないしはセリフ(同じく端部の小突出部)の長さの違い等がある。従って、 主として、これら例示した要因によって、ユーザの使用現場に設置されたOCR システムは、取り扱う英数字の文字の母集団が、動的に変化するものとなる可能 性が高いのである。OCRシステムが見慣れない文字に出会うたびに、ニューラ ル・ネットワークがその文字を誤認してしまい、そのため認識誤り表示を発生す るというのは、良くあることである。
実地において使用中に発生する認識誤りの発生率を、許容可能な低いレベルに抑 えておくためには、そのOCRシステムのオペレータが、そのシステムに認識さ せようとしている具体的な文字についての学習処理を、そのシステムに周期的に 繰り返して施す必要がある。また、数件分の書類を連続して処理する場合に、そ れらの書類に使用されているフォントそれ自体が各書類ごとに異なることもあれ ば、たとえ同一のフォントであっても、そのタイプフェースが書類によって異な ることもある。そのため、それらの各書類ごとに、OCRシステムに学習をさせ なければならないということも、良くあることである。しかしながら、OCRシ ステムに常時学習させることは、また特に、認識処理すべき一運の書類のその各 々ごとに学習させることは、多くの時間を費やすことになるため、そのOCRシ ステムの全体としての作業能率を著しく低下させてしまう。
更には、ユーザの書類に記入されている文字がつぶれていることも、しばしば経 験されることである。この文字のつぶれの原因の主なものとしては、実地使用環 境において日常的に見かける印字ミスや、印刷媒体それ自体の汚れないし局部的 なキズ(例えば小さな黒い点に見える紙の夾雑物等)がある。ニューラル・ネッ トワークをそれについて学習させたはずの入力文字の上に、この種の文字のつぶ れが発生していると、ニューラル・ネットワークは、その文字を明確に認識する ことができなくなる。その結果、その文字についてニューラル・ネットワークが 発生する出力ベクトルにおいては、その中の最大の出力値と2番目に大きな出力 値との間の差が、比較的小さなものとなってしまう可能性が高い。この場合、そ のニューラル・ネットワークは、曖昧な認識結果を発生しているわけである。
即ち、その出力ベクトノ囚己よ、高度の不確定性が付随しており、その最大の出 力値の信頼性も、比較的低いものとなっている。この曖昧性があるために、最大 の出力値を発生している出力ニューロンに対応した文字ではなく、2番目に大き な出力値を発生している出力ニューロンに対応した文字の方が、実際には正確に 認識した文字であるという場合もあり得る。ところが、この曖昧性は、前述の「 勝者の全取り」方式による出力の選出のプロセスにおいては、全く考慮されない 。
従って、その場合には、ニューラル・ネットワークの複数の出力のうちから選出 される出力は、誤った出力となる。
そのため、もし、ニューラル・ネットワークの実地使用中に、つぶれた文字を含 んでいるユーザの書類を教材として、そのニューラル・ネットワークに学習をさ せたならば、その学習をさせたことによって、そのニューラル・ネットワークの 出力に不確定性が入り込み、そのため、そのニューラル・ネットワークは、つぶ れた文字を認識するように動作が偏向してしまう、そして、このような動作の偏 向と、前述の「勝者の全取り」方式の、出力の選出プロセスとが結びつくと、ユ ーザの書雇上の、つぶれていない健全な入力文字を認識する場合に、その認1誤 りの発生率が、減少するどころか、却って増大してしまうという不都合を招く可 能性が高くなり、そうなれば、全体としての認1誤りの発生率も上昇してしまう 。
実地使用中に、全体としての認識誤りの発生率が上昇することがないように、通 常は、ニューラル・ネットワークの重み並びにバイアス値は、工場の段階で、一 定の値に固定してしまい、それによって、実地使用中のニューラル・ネットワー クの重み並びにバイアス値の変更は、たとえ不可能でない場合であっても、限ら れた小さな範囲でしか行なえないようにしである。OCRシステムの、システム 全体としての認識誤り発生率は、工場において測定される発生率よりも、ユーザ の書類の認識処理を行なうようになってからの認識誤り発生率の方が高くなる傾 向があり、これは、ユーザの書類には、つぶれた文字が含まれているためである が、ただし、これによる認識誤り発生率の上昇は、そのつぶれた文字を教材とし てニューラル・ネットワークに学習させたときに生じる認識誤り発生率の上昇に 比べれば、小さなもので済む可能性が高いのである。従って、OCRシステムの 製造メーカーが、妥当と考えられる性能を提供しているという場合、実は製造メ ーカーは、OCRシステムの実地使用中にその認識誤りの発生率がある程度、高 くなることは甘受するように、ユーザに対して暗にめているのである。しかしな がら、機械印字した文字の自動認識を、正確に行なうことが、なにより重要視さ れる多くの用途においては、その認識誤り発生率のレベルは、尚、許容可能な程 度を超えた高いレベルにある。即ち、現在使用されている種々のOCRシステム は、その種の用途には全く不適当である。
確かに、OCRシステムが文字認識の作業をしている間、人間のオペレータをこ のOCRシステムに配置しておくというのも、この問題の1つの解決法ではある 。この方法では、OCRシステムが文字を誤認したか、或いは、文字を認識した ときの不確定性がある程度、高かった場合に、このOCRシステムがオペレータ へ合図を出すようにしておく。オペレータは、その合図を受けたならば、該当す る文字の1つ1つについて、そのビットマツプを調べて、OCRシステムへ正し い文字を打ち込むようにする。こうすれば、結果として得られる、このOCRシ ステムの全体としての正確度は上昇するが、認識システムに人間のオペレータが 関与することから、システムの作業能率が著しく低下する上に、その運転コスト も大幅に増大する。OCRシステムを使用する用途の殆どは、コストの増大に関 して非常に敏感な用途であるため、システムに人間のオペレータが関与するとい うことは、経済的な理由から全く実用的なものとは言えない。
従って従来より、特に、パックプロパゲーションを採用し、しかもOCRシステ ムに用いるの適したニューラル・ネットワークであって、動的に変化している「 実世界」のユーザの入力データに、その動作を正確に適応させることのできるニ ューラル・ネットワークが要望されていた。そのようなニューラル・ネットワー クであれば、特に、動的に変化している入力文字データに直面した場合に、従来 公知のニューラル・ネットワークを使用して、これまで行なわせていた動作と比 べて、より高い認識正確度をもって、より力強い動作を行なえるものとなる。
更には、その種のニューラル・ネットワークであれば、充分に高い認識正確度を 提供することができるため、OCRシステムに人間のオペレータを関与させる必 要を、多くの場合、完全に払拭することは無理であるにしても、少なくとも、大 幅に減少させることができるようになる。従って、その種のニューラル・ネット ワークをOCRシステムに用いるようにすれば、全体としての認識正確度を向上 させることができるのみならず、OCRシステムのコストを著しく増大させるこ となく、その作業能率を向上させることができるという利点も得られる。また更 に、これまではOCRシステムには適していなかった多くの用途に、OCRシス テムを利用することもできるようになる。
X咀の同量 従って、本発明の目的は、動的に変化している入力データに対して、その動作を 正確に適応させることのできるニューラル・ネットワークを提供することにある 。
また、具体的な目的の1つは、学習処理の実行中に、パックプロパゲーションを 利用して、そのニューラル・ネットワークの重みとバイアス値とを変更するよう にした、上述の種類のニューラル・ネットワークを提供することにある。
また、具体的な目的の1つは、そのニューラル・ネットワークを使用することに よって、OCRシステムのコストが大幅に増加することのない、上述の種類のニ ューラル・ネットワークを提供することにある。
以上の目的並びにその他の目的は、本発明の教示によれば、以下の構成によって 達成される。即ち、その構成は、「未知の入力データに応答して複数の出力値を 発生するようにしたネットワークであって、発生したそれら複数の出力値が集合 した全体によって、その未知の入力データの中に存在している複数のバタンのう ちの1つのバタンを同定するようにしてあり、更に、複数の重み値を付与しであ るネットワーク」と、「制御信号と、所定バタンに関する複数の出力値及びそれ ら複数の出力値に対応した複数の所定の出力目標値とに応答して、前記複数の重 み値の各々の値の変更量を決定し、更に、決定したその変更量に応答して、前記 未知の入力データがネットワークへ供給されている状態で前記複数の重み値の各 々の値を調節して、その未知の入力データに関して前記複数の出力値と前記複数 の出力目標値との間に生じる誤差を減少させるようにする決定/調節手段」と、 「前記複数の出力値に応答して、それら複数の出力値に関する信頼性指標値を判 定する手段Jと、「信頼性指標値に応答して前記制御信号を発生することによっ て、その信頼性指標値が充分な大きさの所定値であるときに、前記決定/調節手 段をイネーブルして前記変更量の決定と前記複数の重み値の調節とを行なわせる 、制御信号発生手段」とを備えたものである。この構成とすることにより、当該 バタンが所定バタンからのずれを生じているときには、ネットワークが、当該バ タンを認識するための学習を行なうようになる。
本発明によれば、ニューラル・ネットワークに学習を行なわせる際に利用可能な 基礎データを拡張して、実際の未知の入力文字を認識して得た文字のうち、その 文字を認識したときの出力信頼性が充分に高かった文字を、その基礎データに包 含させるようにしている。出力信頼性の指標値としては、例えば、ニューラル・ ネットワークの複数の出力ニューロンが発生する出力値のうちの、最大の出力値 と、2番目に大きな出力値との間の比の値とすることができる。文字認識作業の 実行中に、認識したときの出力信頼性指標値が所定の範囲内に位置していた文字 に対応したニューラル・ネットワークの出力に応答して、パックプロパゲージ3 ン並びにニューロン重み及び二ニーロン・バイアス値の調節の実行を許可するよ うにしている。ある文字を認識したときの出力信頼性がその範囲内にあったなら ば、(a)その文字を表すビットマツプが、ニューラル・ネットワークを初期学 習させたときに使用したその文字のビットマツプからある程度変化しており、且 つ、(blそのビットマツプがそのように変化しているにもかかわらず、ニュー ラル・ネットワークはその文字をおそらくは正しく認識していると推定される、 という2つの事実が成立している可能性が高い。そこで、この条件を満たす文字 に関してニューラル・ネットワークに再学習させることによって、そのニューラ ル・ネットワークが、実地使用中に直面している実際の変化している「実世界」 の文字の認識作業に、正確に、且つ自動的に適応することができるようになり、 従って、初期学習時に(例えば工場その他で)その学習に用いられた文字だけに しか適合しない状態に凍結されずに済むようになる。こうして、ニューラル・ネ ットワークの学習用データの基礎データの全体をこの方式で拡張して、動的に変 化している入力文字のうち、認識したときの出力信頼性が充分な値であった文字 をその基礎データに包含するようにしているため、本発明のニューラル・ネット ワークは、滑らかに、迅速に、且つ正確に、その応答を、「実世界の」文字に適 応させることができ、更にそれによって、従来公知のニューラル・ネットワーク において、これまで行なわれてきた動作と比べて、より力強い動作が可能となっ ている。また、本発明を使用することによって、認識正確度を大幅に向上させる ことができるため、多くの状況において、人間のオペレータを配置して、誤認し た文字の1つ1つについてそのビットマツプを調べて、その後に正しい文字をシ ステムへ打ち込むという作業に従事させる必要を、たとえ完全ではなくとも、殆 ど不要化することができるという利点が得られる。
本発明の好適実施例に係る教示によれば、入力文字を認識したときにその出力値 N性が但通ぎたり、或いは高過ぎた文字に関しては、その文字をニューラル・ネ ットワークが出力したことに応答して、パックプロパゲーションと、ニューロン 重み及びニューロン・バイアス値の調節とが行なわれることはないようにしであ る。出力信頼性指標値が余りに小さい場合には、それは、認識した文字に大きな 不確定性が付随していることを表わしており、一方、出力信頼性指標値が余りに 大きい場合には、それは、認識した文字のビットマツプが、たとえ皆無でないに してもそれ程には変化していないことを表わしており、従って、ニューラル・ネ ットワークに再学習を行なわせる程のこともなく、また、たとえ再学習を行なわ せたとしても、その結果として得られる、ニューラル・ネットワークが提供する 認識正確度の向上は、皆無でないにしても、目に見える程のものとなる可能性は 低い。
更に、本発明の1つの局面によれば、本発明のシステムが提供する認識正確度は 、そのままでも既に、従来公知のニューラル・ネットワークを使用した場合の正 確度より優れたものであるが、「2パス」動作を採用すれば、それによって更に その正確度を優れたものとすることができる。この「2パス」動作は、極めて高 い認識正確度を必要とする書類に対して用いるのに適したものである。その場合 、その種の書類の各ページに対し、本発明のニューラル・ネットワークを初めて 通過させる「第1バス」の処理を施す際に、そのページ上の文字を使用した、こ のニューラル・ネットワークの適応性再学習を、その文字を認識したときの信頼 性によって制御しつつ実行する。そして、そのページの全体を、本発明のニュー ラル・ネットワークを通過させ終ったならば、同じそのページを、本発明のニュ ーラル・ネットワークを再度通過させて、初回と同じ方法でもう一度処理し、そ れによって、ニューラル・ネットワークを2回目に通過させる「第2パス」の処 理を行なう。この方式とすれば、第1バスの処理においては誤認されたかも知れ ない様々な文字が第2パスにおいては適切に認識される可能性が高く、それによ って、そのページの認識正確度を向上させることができる。
2厘の墾里な思酉 本発明の教示は、添付図面に関連した、以下の詳細な説明を考察することによっ て、明瞭且つ容易に理解することができる。添付図面は、以下のとおりである。
図1は、本発明の教示を具体化したニューラル・ネットワークを組み込んだ、光 学文字認識システム(OCRシステム)の一実施例のブロック図である。
図2は、従来公知のニューラル・ネットワークの典型的な一例である、OCRシ ステムに用いるための、バックプロパゲーションを採用したニューラル・ネット ワークのブロック図である。
図3は、ニューラル・ネットワークの中に用いる典型的なニューロンの、ハイレ ベルのブロック図である。
図4は、本発明のニューラル・ネットワークの一実施例の、ハイレベルのブロッ ク図である。
図5は、出力信頼性指標値の複数の領域と、出力信頼性指標値がそれらの範囲の 中に位置しているときに、それに対応して本発明のニューラル・ネットワークが 実行する動作とを図解した図である。
図6は、図6A〜図6Dの、図面どうしの正しいつなぎ合せ方を示した図である 。
図6A〜図6Dは、それらをつなぎ合せた図によって「複パス文字認識及びパッ クプロパゲーション制御ルーチン」600の、ハイレベルのフローチャートを示 すようにした図であり、このルーチン600は、本発明の文字認識方法をソフト ウェアで構成したものであり、また、図4に示した本発明のニューラル・ネット ワークのソフトウェアによる実施例を利用するようにしたルーチンである。
尚、これら図面においては、その理解を容易にするために、異なった図に共通し て示されている同一の要素には、できる限り同一の引用符号を使用するようにし た。
日を 施するための形態 当業者であれば、以下の説明を読了した後には、容易に理解できることであるが 、本発明のニューラル・ネットワークは、パタン認識に関連した、広範な様々な 用途に利用可能なものである。それらの利用可能な用途のうちの具体的な一例を 挙げるならば、英数字の文字を認識するための、光学文字認識に関する用途を挙 げることができる。この用途について、更に具体的に説明すると、それらの文字 は、任意のプリント媒体(例えば紙やマイクロフィルム等)上に、プリントされ 、或いは手書きされた文字であることもあれば、場合によっては、ディジタル化 タブレット上に手書きされたものであったり、或いは、ブラウン管(CRT)デ ィスプレイ上にライトペンで手書きされたものであることもある0本発明の二二 −ラル・ネットワークは、紙の上に機械印字された文字を正規化処理したもの( 即ち、規定寸法に変換したもの)を認識するようにした光学文字認識システムに 使用するのに、特に適したものであるため、また、以下の説明を理解し易くする ためにも、本発明の詳細な説明においては、その種の光学文字認識システムに使 用する場合を例に取って、説明を進めて行くことにする。
図1に示したのは、機械印字した文字を認識するための光学文字認識システム( OCRシステム)であり、本発明の教示に従って具体的に構成したニューラル・ ネットワークを備えたシステムの一実施例のブロック図である。区示の如(、本 システムは、フロントエンド・プロセッサ110と、ニューラル・ネットワーク 400と、ネットワーク後置プロセッサ170とを備えており、また更にオプシ ョンとして、プロセッサ185と、端末190と、ハード・ディスク・ファイル 195とを備えている。
認識処理をしている画像書類から取り出す入力画像ビクセルは、適当なスキャナ によって発生させ、適当なインターフェース回路を介して供給する(これらはい ずれも公知のものであるため、図には示さない)ようにしてあり、それら入力画 像ビクセルは、リード50を介して、フロントエンド・プロセッサ110の入力 へ供給される。フロントエンド・プロセッサ110は、先ず、その書類上に存在 している幾つもの文字から1つ1つの文字を分離しく飾りひげのように字面の一 部が胴・軸からはみ出している場合にも分離することができる)、次に、分離し た各々の文字のビットマツプ・パタンに正規化処理を施して、その文字を一定の 寸法のものとしくこれによって、そのビットマツプ・パタンがニューラル・ネッ トワーク400の入力として使用可能になる)、次に、正規化しないままの文字 と正規化した文字との両方を、夫々、フレーム記憶メモリ120とフレーム記憶 メモリ130とに記憶させ、そして、フレーム記憶メモリ130からは、正規化 した画像ビクセルのシーケンスを、入出力スイッチ(I10スイッチ)140を 介してニューラル・ネットワーク400へ供給する。更に詳細に説明すると、リ ード50上の入力画像ビクセルのストリームは、フロントエンド・プロセッサ1 10の中に備えた、連結要素アナライザ115へ入力する。この連結要素アナラ イザ115は、連結要素解析を実行することによって、書類中の連続する複数の 文字の画像を個々に分離する。分離された個々の文字は、その各々が連結要素ア ナライザ115から、リード118を介して、フレーム記憶メモリ120と、文 字ノーマライザ125との双方へ入力として供給される。これらのうちフレーム 記憶メモリ120は、入力書類の現在ページ上に存在している文字を分離して得 た個々の文字の、正規化していないビットマツプ・パタンをそのまま記憶するも のである。こうして記憶した正規化していない文字は、後に詳述するように、ネ ットワーク後置プロセッサ170が利用する。即ち、文字のうち、その文字のケ ースが、アッパー・ケース(大文字類)であっても、またロアー・ケース(小文 字M)であっても、正規化処理を施した後にはその形状が同一となる文字につい ては、ネットワーク後置プロセッサ1γ0が、フレーム記憶メモリ120の中の 正規化していない文字を参照して、その文字のケースを判定するようにしている のである。文字ノーマライザ125は、分離した個々の文字のビットマツプの縦 と横の夫々の寸法を判定する。そして、個々の文字のうちに、その縦横の寸法が 、ニューラル・ネットワーク400で処理するために必要とされる一定の文字寸 法(例えば縦24ビクセル×横12ビクセル)より大きかったり、或いは小さか ったりするものがあった場合には、文字ノーマライザ125が、その文字のビッ トマツプの寸法を比例関係を保ちつつ変化させて、この一定の文字寸法に一致さ せる。また、こうして正規化処理を施した文字の各々は、リード127を介して 、I10スイッチ140の入力へ供給される。
本発明の好適実施例では、後に詳述するように、適応式動的学習方式によって高 い認識正確度を得るために、ニューラル・ネットワークを通過させる処理を2度 行なう、2バス方式を採用しており、そのためフレーム記憶メモリ130には書 類の現在ページ(認識処理を現在実行中のページ)の、まるまる1ペ一ジ分の全 ての正規化処理済み文字のビットマツプを記憶させることができるようにしてあ り、その記憶させたビットマツプを、ニューラル・ネットワークを2度目に通過 させる第2パスを実行する際に、利用するようにしている。このように、1ペ一 ジ分のビットマツプを記憶させているため、このフレーム記憶メモリ130を使 用することによって、書類の各々のページを2回ずつスキャンせずに済み、また 、スキャンして得た各々の文字ごとに、文字の分離処理ないし文字の正規化処理 を2回ずつ実行する必要もない。更に、フレーム記憶メモリ130は、2組の互 いに独立したフレーム記憶メモリ132と134とを含んでいる構成としである 。そして、これらメモリの各々に、まるまる1ペ一ジ分の、正規化したビットマ ツプ文字を記憶させることができるようにしである。これらメモリは、I10ス イッチ140の制御の下に、公知の「ビンボン」方式で動作するようにしてあり 、この「ビンボン」方式は、一方のフレーム記憶メモリに、即ちメモリ132と 134のうちの一方に、文字ノーマライザ125が送出する正規化処理済ビット マップ・データをリード137を介して次々と記憶させている間、他方のフレー ム記憶メモリからは、リード137とI10スイッチ140とを介して、データ を次々と読み出してニューラル・ネットワーク400の入力へ供給するようにし たものである。I10スイッチ140は、フロントエンド・プロセッサ110が その内部で発生する然るべき制御信号に従って、また、ネットワーク後置プロセ ッサ170からリード177を介して受け取る制御信号に応答して、フレーム記 憶メモリ130の中の個々のフレーム記憶メモリ、文字ノーマライザ125、及 び/または、ニューラル・ネットワーク400の入力の間に、必要なマルチビッ ト経路(図には詳細に示さない)を確立するものである。例えば、1ペ一ジ分の 正規化処理済ビットマツプ文字のデータに対して、ニューラル・ネットワークを 初めて通過させる第1パスの処理を施すときには、I10スイッチ140は、文 字ノーマライザ125の出力を、フレーム記憶メモリ132と134のうちで現 在、記憶の読出しを行なっている方のフレーム記憶メモリの入力と、ニューラル ・ネットワーク400の入力との、双方へ供給する。これによって、連続する複 数の正規化処理済ビットマツプ文字バタンの各々を、次々と、ニューラル・ネッ トワークを通過させて処理する一方で、同じ文字バタンを、フレーム記憶メモリ 130の中の2組のフレーム記憶メモリのうちの一方に、次のバス、即ち第2パ スにおいて使用できるように、記憶しておくようにしているのである。そしてそ の第2バスの実行中には、フレーム記憶メモリ130の中の2組のフレーム記憶 メモリのうち、今回文字バタンを記憶させた方のフレーム記憶メモリの内容を、 I10スイッチ140を介して、連続的に次々と読み出して、ニューラル・ネッ トワーク400の入力へ供給する。更に、それと同時に、入力書類のうちの、次 のページの正規化処理済ビットマツプ文字のデータを、文字ノーマライザ125 が、I10スイッチ140を介して、フレーム記憶メモリ130の中の他方のフ レーム記憶メモリへ供給し、以下、同様の動作を繰り返すようにしである。この ように、フレーム記憶メモリ130とI10スイッチ140とを協働させること によって、各ページを2回ずつスキャンする必要を無くし、また、スキャンした 場合にそれに付随して必要となる、文字の分離処理並びに文字の正規化処理も、 2回ずつ行なわずども良いようにしであるため、1ペ一ジ分の、ビットマツプの 正規化処理済の文字を、各ページ2回ずつ連続してニューラル・ネットワークを 通して処理するようにしても、それによってフロントエンド・プロセッサ110 の処理速度(この処理速度は、一般的にニューラル・ネットワーク400やネッ トワーク後置プロセッサ170の処理速度よりも遅い)が、悪影響を受けること がない。尚、本発明は、OCRシステム100の中に組み込んである、ニューラ ル・ネットワーク400に関するものであって、連結要素アナライザ115ない し文字ラーマライザ125自体の機能には、直接関係したものではないため、そ れらの要素の動作については、これ以上詳細には説明しない。ただし、それら要 素の動作についての説明は、本発明者による、本願の基礎米国出願の同時係属出 願である、発明の名称を「機械印字文字のための光学文字認識ニューラル・ネッ トワーク・システム」とした、 年−周一日付出願の、米国特許出願筒 号の中 に示されている。尚、同米国出願は、この言及をもって本開示に包含するものと する。
ニューラル・ネットワーク400は、リード210上に出力される正規化処理済 ビットマツプ文字の、その各々の文字のバタン認識を実行するものである。更に 詳細に説明すると、正規化処理済文字の複数のビットの各々を、このニューラル ・ネットワーク400の夫々異なった入力リードへ供給する。ニューラル・ネッ トワーク400については、すぐ後に詳細に説明するが、ここでその基本的な点 について述べてお(と、ニューラル・ネットワーク400は、互いに同様の構成 の複数の処理要素(いわゆるニューロン)から成る構成体であって、それら複数 のニューロンを、複数階層の階層構造を成すように配列することによって、入力 ニューロン階層、中間ニューロン階層、及び出力ニューロン階層を個別に設けた ものである。正規化処理済文字のビットマツプの各々は、24個×12個のビク セルから成る一定の大きさのアレイとして形成されるようにしである。従って合 計ビクセル個数は288個であるため、ニューラル・ネットワーク400は、2 88個の入力ニューロンを備えたものとしてあり、入力階層中のそれら288個 のニューロンの各々に、このビットマツプの中の、夫々に異なったビクセルを供 給するようにしである。このニューラル・ネットワーク400の中間処理要素( 即ち中間ニューロン)の個数は、例えば約75個とするが、ただし、この個数は 絶対的なものではない。ニューラル・ネットワーク400から発生される出力の 数は、後に詳述するように出力ニューロンの個数に等しく、また、それら出力ニ ューロンの個数は、出力リード480の中に含まれている、それら出力ニューロ ンに対応した夫々のリードの本数でもあるが、この数は、ニューラル・ネットワ ークによって認識しようとしている文字の種類の数に等しくする。このニューラ ル・ネットワーク400では、各々が出力値を発生する出力ニューロンを、約5 0個、含んでいるようにしている。そして、それら出力ニューロンのうちの1個 と、リード480のうちの、その1つの出力ニューロンに付随した1本のリード には、文字「A」を対応させてあり、また、別の1個の出力ニューロンとそれに 付随したリードには文字「B」を、更に別の第3のものには文字raJを、そし て第4のものには文字「b」を対応させ、以下同様にして、異なった英数字の各 々を対応させである。尚、ここでいう英数字とは、ニューラル・ネットワーク4 00が認識する必要のある、文字、数字、句読点、及び/または、その他の必要 な記号を含むものである(以後、本明細書においては、これら全てを含めて集合 的に「文字」と呼ぶことにする)。ニューラル・ネットワークが発生する出力値 の全ては、ネットワーク後置プロセッサ170へ供給され、ネットワーク後置プ ロセッサ170は、供給されたそれら出力値に応じた動作を行なうことによって 、このニューラル・ネットワークの出力を、それに対応したマルチビットのディ ジタル・ワード(例えばアスキー・ワード等)へ変換して、後続の処理において そのワードを使用できるようにする。ニューラル・ネットワーク400は、好ま しくは、集積回路として構成されたディジタル信号処理回路を使用してソフトウ ェアによって構成するのが良く、使用することのできる集積回路としては、例え ば、米国、イリノイ州、シャラムバーブに所在のモトローラ社の製造に係る、5 6000型ディジタル信号プロセッサ(DSP)等がある。この集積回路を使用 した場合、ニューラル・ネットワーク400は、200文字文字量上の処理能力 を持つものとすることができる。
ニューラル・ネットワーク400は、文字認識処理の実行中は、ネットワーク後 置プロセッサ170と協働し、「勝者の全取り」方式を用いて、ニューラル・ネ ットワークによって識別された特定の1つの文字を同定する。更に詳細に説明す ると、リード210へ出力された正規化処理済文字のビットマツプに対する、ニ ューラル・ネットワーク400の反応が完全に終了したならば、このニューラル ・ネットワークの出力にリード480を介して接続しているネットワーク後置プ ロセッサ170が、他の出力ニューロンが発生した出力値よりも大きい、最大の 出力値を発生した1つの出力ニューロンを選出する。即ち、ネットワーク後置プ ロセッサ170ば、ニューラル・ネットワーク400の中の全ての出力ニューロ ンが、複数本のリード480の上に発生した値を互いに比較して、それらの値の うちから、最大の値を1出するのである。ネットワーク後置プロセッサ170は 、その選出が完了したならば、続いて、例えば簡単なテーブル・ルックアップ動 作等を行なって、ニューラル・ネットワークと協働して同定した、即ち、最大の 出力を発生した特定の出力ニューロンに対応した、その特定の文字のマルチビッ トのディジタル表示(例えばアスキー表示等)を、検索して取り出す。また、あ る種の正規化処理済ビットマツプ文字は、例えば、文字r04のように、その文 字のケースにかかわらず、即ち、アッパー・ケース(大文字類)であると、ロア ー・ケース(小文字類)であるとによらず、同一の形状を呈するため、ネットワ ーク後置プロセッサ170は、ニューラル・ネットワークがその種の文字を認識 したと判定したならば、リード123をを介して、フレーム記憶メモリ120の 中の、その文字の、正規化していないビットマツプにアクセスする。ネットワー ク後置プロセッサ170は、アクセスしたその正規化していないビットマツプに 基づいて、その文字の、正規化していない状態での寸法を判定し、それによって その文字のケースを正しく判定することができるようにしである。その文字の正 規化していない状態での大きさが比較的大きかったならば、それは、アッパー・ ケースであることを表わしており、一方、その文字の正規化していない状態での 大きさが比較的小さかったならば、それは、ロアー・ケースであることを表わし ている。こうして、認識した文字のケースが判明したならば、ネットワーク後置 プロセッサ1アOは続いて、その文字に該当するディジタル表示(例えばアスキ ー表示等)をリード180上に送出する。ネットワーク後置プロセッサ170は 更に、リード175上に種々の制御信号を発生して、ニューラル・ネットワーク 400の動作を制御する。それら制御信号のうちの1つは、後に詳述するように 、ニューラル・ネットワークの学習を実行させるための制am号である。ネット ワーク後置プロセッサ170は更に、リード173を介して、フロントエンド・ プロセッサ110へ、場合に応じた種々の選択信号を送出する。それら選択信号 は、フロントエンド・プロセッサ110に対して、現在ページの正規化処理済入 力文字のビットマツプの、ニューラル・ネットワーク400への再度の供給を開 始して、このニューラル・ネットワークを通過させる第2パスの処理を実行させ ることと、入力書類中の、次のページの正規化処理済入力文字のビットマツプの 、ニューラル・ネットワークへの供給を開始して、このニューラル・ネットワー クを通過させる第1バスの処理を行なわせることとの、いずれか一方を命令する 信号である。更には、様々な公知の制御信号(例えば、特に「ページ処理完了」 信号等)が、フロントエンド・プロセッサ110の動作と、ネットワーク後置プ ロセッサ170の動作とを、適切に関連付けるために、リード177を介して、 それらの間でやり取りされる。
ネットワーク後置プロセッサ170が送出する出力は、リード180を介してプ ロセッサ185へ入力する。プロセッサ185は、ハード・ディスク・ファイル 195に記憶しである誘電データベースと協働して、ニューラル・ネットワーク 400によって認識された文字によって形成されている単語の各々に対して、ス ペルチェックを実行する。即ち、ネットワーク後置プロセッサ170が、1つの 単語を形成する一群の文字を送出完了するたびに、このプロセッサ185が、誘 電データベースを参照するルックアップ動作を行ない、それによって、その単語 のスペルが正しいか否かを判断する。ミススペルが発見された場合には、プロセ ッサ185は、リード123を介して、フレーム記憶メモリ!20の中の正規化 していない文字のビットマツプをアクセスして、その単語の中の各々の文字を取 り出し、そして、リード189を介して、それらの文字のビットマツプを端末1 90へ送出して、それらのビットマツプを視覚ディスプレイさせる。続いて、プ ロセッサ185は、端末190にプロンプト・メツセージを表示させることによ って、この端末190に配置されているオペレータに対して、その単語の綴りが 、そのままで正しいものであることを認めるか、さもなくば、正しい綴りを入力 するかの、いずれかを行なうよう指示をする。オペレータが、現在の綴りが正し いものであることを認めた場合には、プロセッサ185は:その単語を形成して いる一群の文字を、そのまま出力リード187上へ送出する。書類上に実際に記 されている単語の綴りそれ自体が誤っていて、それをニューラル・ネットワーク 400が、そのまま認識したという場合もあり得るため、たとえ、その単語中の 誤字に対する訂正がなされた場合であっても、プロセッサ185がその訂正内容 をニューラル・ネットワーク400へ差し戻して学習を実行させることはないよ うにしてあり、即ち、その種の訂正があった場合、プロセッサ185は、訂正さ れた正しい文字を、単に出力リード187上に送出する。以上のスペルチェック 動作を行なうタイミングとしては、認識処理を実行している現在ページ上の連続 した複数の単語の各々について、その1つ1つの単語がニューラル・ネットワー ク400を2度目に通過する第2パスを完了する都度、その単語に対してスペル チェック行なうようにしても良く、或いは、現在ページの全体が、ニューラル・ ネットワーク400を2度目に通過する第2パスを完了した時点で、それら単語 に対して一括してスペルチェックを行なうようにしてもよい。また、ハード・デ ィスク・ファイル195には、辞書(即ち諸量データベース)の替わりに、或い は、辞書に加えて更に、認識処理を実行している書類中の誤りの判別及び訂正を 助けるための、その他の種類のデータベースを記憶させてお(ようにしても良い 。更に、このOCRシステム100の構成を簡明にして、そのコストを低減する ために、プロセッサ185、端末190、それにハード・ディスク・ファイル1 95に関しては、それらを省略して、このOCRシステムには、データベースに 関連した機能(例えばスペルチェック等の機能〕は、持たせないようにしてもよ い。そうした場合には、ネットワーク後置プロセッサ170がリード180上に 送出する文字が、そのまま、このOCRシステムの出力になる。
ニューラル・ネットワーク400の学習は、後に詳述するように、公知の逆誤差 伝搬法(以下、単に「パックプロパゲーション(逆伝搬法)」と称する)を利用 して行なうようにしている。その要点を述べるならば、この技法では、ニューラ ル・ネットワークへ、複数の既知の文字(学習用文字)の入力ビツトマツプを連 続して次々と供給する。そして、供給したビットマツプの各々に関して、ニュー ロン重み及びニューロン・バイアス値(これらについても後に詳述する)の調節 を行なうことによって、それら学習用文字の各々につIJ)で、ニューラル・ネ ットワークが適切な出力を発生するようにする。
ただし残念なことに、従来公知の、パックプロパゲーションを採用した種々のニ ューラル・ネットワークには、幾つかの重大な欠点が付随しており、それらの欠 点が、それら公知のニューラル・ネットワークをOCRシステムに使用すること を困難にしている。その要点を述べると、それら公知のニューラル・ネットワー クは、研究室の環境で、静的な試験データの母集団に基づいて、英数字の文字の 認識を実行する際に正確な結果を出すことができるが、しかしながら、「実世界 」の文字データを使用する実地の環境においては、それらニューラル・ネットワ ークによって達成し得る認識正確度は、一般的に、太き(低下する。その原因は 、ニューラル・ネットワークが実地において直面する「実世界」の文字ないしフ ォントは、様々な理由から、製造工場においてそのニューラル・ネットワークに 学習させた文字ないしフォントとは、しばしば異なっていることがあるからであ る。更には、タイプフェースにも種々のものがあり、たとえ、それらのタイプフ ェースのいずれもが一般的なフォントのものであったとしても、認識処理を行な う書類ごとに、そのタイプフェースがある程度、異なっていることも、しばしば 経験される。
従来公知の種々のニューラル・ネットワークは、連続して書類を扱って行く際に も、その各書類ごとに学習をさせることができるようにしであるが、その学習を させるためには相当な時間を費やさねばならず、そのため、そのようにして学習 を行なわせると、システムの全体としての処理速度が著しく低下せざるを得ない 。更には、特に、印字動作の不備ないしは印字媒体の理疵等のために文字自体が つぶれている場合もある。もし、つぶれた文字に関してニューラル・ネットワー クに学習を行なわせたならば、そのニューラル・ネットワークの動作は、そのつ ぶれた文字を認識するように、偏向してしまうしまう。この動作の偏向に加えて 、ネットワーク後置プロセッサが実行する出力の選出方式が、一般的に「勝者の 全取り」方式とされているため、それらが相まって、ユーザの書類上の、つぶれ ていない健全な入力文字を認識する際に発生する認識誤りが減らずに却って増大 してしまい、従って、全体としての認識誤りの発生率上昇してしまうという不都 合が生じる可能性が高い。
本発明のニューラル・ネットワークは、従来公知の種々のニューラル・ネットワ ークに付随していたこれらの欠点を、大幅に改善したものである。特に、本発明 によれば、ニューラル・ネットワークに学習させる際に、その教材として使用す ることのできるデータである基礎データを拡張して、その基礎データに、充分な 出力信頼性をもって認識された実際の未知の入力文字データの、認識結果を包含 させるようにしている。この出力信頼性の指標値は、ニューラル・ネットワーク の複数の出カニニーロンが発生する出力値のうちの、最大の出力値と2番目に大 きな出力値との間の比の値としている。そして1文字認識処理の実行中に、ある 文字を認識したときの出力信頼性指標値が所定の範囲内の値であったならば、そ のときのときのニューラル・ネットワークの出力に応答して、パックプロパゲー ションと、ニューロン重み及びニューロン・バイアス値の変更調節とを行なわせ るようにしている。即ち、ある文字を認識したときに、出力信頼性指標値がその 所定範囲内にあったならば、その文字が認識されたということによって、おそら く、以下の事実があるものと考えられる。即ち、その事実とは、(at認識した その文字を表わすビットマツプは、ニューラル・ネットワークに初期学習を施し たときに使用したその文字のビットマツプから、ある程度変化していること、そ して、(b)そのビットマツプがそのように変化しているにもかかわらず、ニュ ーラル・ネットワークは、その文字をおそらくは正しく認識していると推定され ること、以上2点である。また、ある入力文字を認識したときに、出力信頼性指 標値が小さ過ぎるか、或いは、大き過ぎた場合には、そのときのニューラル・ネ ットワークの出力に応答して、パックプロパゲーションと、ニューロン重み及び ニューロン・バイアス値の変更調節とが行なわれることは、ないようにしている 。
即ち、出力信頼性指標値が不充分な、小さな値であった場合には、それは、認識 された文字に大きな不確定性が付随していることを示しているのであり、一方、 出力信頼性指標値が非電に大きな値であった場合には、それは、その認識した文 字のビットマツプが、たとえ多少は変化しているにしても、ニューラル・ネット ワークに再学習を行なわせる許可を与えることが妥当であるといえる程には、変 化していないことを示しているのである。この状態で、もし再学習を行なったと しても、ニューラル・ネットワークが提供する認識正確度の向上は、たとえ皆無 では無いにせよ、目に見える程の向上は得られない可能性が高い。それゆえ、こ の方式でニューラル・ネットワークの学習用データの基礎データの全体を拡張し て、動的に変化している入力文字であって、しかも尚、充分な出力信頼性を持っ て認識された入力文字を、その基礎データに包含するようにしており、これによ って本発明のニューラル・ネットワークは、滑らかに、迅速に、且つ、正確にそ の応答を、変化している入力文字に適応させることができ、更にそれによって、 従来公知の種々のニューラル・ネットワークにおいてこれまで行なわれていた動 作と比べて、より力強い動作を提供できるようになっているのである。
以上に説明した本発明の方式の理解の上に立って、更に説明を続けると、ニュー ラル・ネットワーク400は、出力信頼性指標値をリード490上へ発生してネ ットワーク後置プロセッサ170へ供給する。この出力信頼性指標値は、後に詳 述するように、それをニューラル・ネットワークの中で使用して、パックプロパ ゲーションと、ニューロン重み及びニューロン・バイアス値の変更調節とを制御 するものである。ネットワーク後置プロセッサ170は、この指標値に基づいて 、入力書類のうちのある1ページの中の認識した文字のうち、その文字を認識し たときに、その出力信頼性が低かった文字、即ち、ニューラル・ネットワーク4 00を再度通過させる第2バスの実行によって、識別の結果が異なる可能性のあ る文字にフラグを付けておく。
OCRシステム100に優れた認識正確度を発揮させるためには、既述の如く「 2パス」動作を行なわせるようにすることが好ましい。しかしながら、多少は認 識精度のレベルが低下することになっても(ただし、従来公知のニューラル・ネ ットワークの認識正確度と比較すれば、格段に優れたレベルへ低下するだけであ る)、システムの構成を簡明にして、そのコストを低減する方を望むならば、「 2パス」動作の替わりに「1パス」動作を採用するようにしても良い。この場合 、入力書類の各ページに対しては、ニューラル・ネットワーク400を通過させ る処理を1回だけ施すことになる。更に、そのようにしたニューラル・ネットワ ークは、各ページ上の実際の変化している入力文字のうち、認識したときの信頼 性が充分に高かったものについて、適応性のある再学習を実行するものとなるが 、ただし、そのニューラル・ネットワークは、当該ページ上の文字のうち、最初 に誤認された文字を、再度識別し直す機会を持つことはできない。しかしながら 、ニューラル・ネットワークの学習用データの基礎データの全体の拡張は行なわ れ、実際の変化している入力文字がその基礎データに包含されるようになるため 、この場合にも、同一の書類中の後続のページに記されている同じ文字を認識す る際の正確度は、従来公知のニューラル・ネットワークを使用した場合に得られ る正確度と比較して、格段に優れたものとなる。尚、「1パス」動作を行なわせ るのであれば、図1に示したシステム100から、フレーム記憶メモリ130と I10スイッチ140とを省略することができ、その場合、文字ノーマライザ1 25の出力を直接、ニューラル・ネットワーク400の入力へ供給するようにす れば良い。また、別の構成として、システムのオペレータが要求する認識正確度 、或いは、このシステムの更に下流に接続する画像処理装置、及び/または、ワ ードプロセッサ等(不図示)が必要とする認識正確度の程度に応じて、「1パス 」動作と「2パス」動作とのいずれか一方を、切り換えによって実行できるよう 、このシステム100を構成するようにしても良い。
本発明の教示を完全に、しかも容易に理解することができるように、以下の説明 においては、先ず最初に、図2及び図3を参照して、OCRシステムに使用する ことのできる、従来公知の典型的なパックプロパゲーション方式のニューラル・ ネットワークの動作について説明する。そしてその後に、図4に示した、本発明 を用いてそのニューラル・ネットワークに加える変更部分について、説明するこ とにする。
図2に示すブロック図は、OCRシステムに使用するための、パックプロパゲー ションを利用したニューラル・ネットワーク200であって、従来公知のニュー ラル・ネットワークのうちの、典型的な一例のニューラル・ネットワークを示し たものである。図示の如く、ニューラル・ネットワーク200は、複数の互いに 同一のニューロンを3層の階層を成すように編成して構成してあり、それら階層 は、ニューロン221.222、及び223を有する入力階層220、ニューロ ン231.232.233、及び234を有する中間階層230、それに、ニュ ーロン241.242.243、及び244を有する出力階層240である。
これらニューロンの1つ1つは、図3に示す機能構成を有しており、この機能構 成については後に詳述する。OCRという用途に使用するニューラル・ネットワ ークは、一般的に、これら複数の階層の各々に、比較的多数のニューロンを含ん でおり、また、場合によっては、2層以上の中間階層を含んでいる。しかしなが ら、図を見易くするためと、以下の説明を理解し易くするためとに、図2に示し たニューラル・ネットワーク200も、また、図4に示したニューラル・ネット ワーク400も、3層の階層の各々に、少数のニューロンしか備えていないもの を示しである。ニューラル・ネットワークの動作の方式は、そのニューラル・ネ ットワークの各階層に含まれているニューロンの個数にかかわらず、同じ方式で ある。
図2に示すように、各々のニューロンは、1つまたは複数の入力を備えているが 、その出力は1つだけである。ただし、この出力は、上位の階層へ向けて分配す ることができ、従って、すぐ上位の階層の中の1つまたは複数のニューロンの入 力とすることができる。ニューラル・ネットワーク200への入力は、リード2 11.212、及び213を介して供給され、これら3本のリードをまとめて集 合的に、入力210で表わしてあり、この入力210は、入力階層220の中に 位1している入力ニューロンへの入力である。これらの入力用のリードの各々は 、入力ビツトマツプ・バタンの中の個々のビクセルP1.P2.及びP3に対応 したビットを、ネットワーク200へ、より詳しくは入力ニューロン221.2 22、及び223の夫々へ供給している。具体的に、例えば24個X12個のビ クセルのアレイの中に形成される正規化処理済文字の認識を行なうためには、図 2に示した3個の入力ニューロンに替えて、288個の入力ニューロンを使用す るようにすれば良い。入力階層220の中の各ニューロンの出力は、中間階層2 30の中の各ニューロンへその入力として供給され、そして更に、この中間階層 230の中の各ニューロンの出力は、出力階層240の中の各ニューロンへ、そ の入力として供給される。階層220の中のニューロンから階層230の中のニ ューロンへの入力、並びに階層230の中のニューロンから階層240の中のニ ューロンへの入力に対しては、その各々に、係数Wによって重みを付与するよう にしている。中間階層230の中のニューロンへの夫々の入力に付与する重みは 、ニューロン重みwjiで表わしてあり、また、それらニューロン重みをまとめ て集合的に、重み225という引用符号で示しである。一方、出力階層240の 中のニューロンへの夫々の入力に付与する重みは、ニューロン重みwkjで表わ してあり、また、それらニューロン重みをまとめて集合的に、重み235という 引用符号で示しである。更に図2に示した各々の重みに実際に付しである、2つ の数字の添字は、その重みが関係している特定のニューロンのベアを明示したも のである。即ち、2つのうちの先の添字は、そのニューロンのベアのうちの受取 側のニューロンを、また後の添字は、送出側のニューロンを明示しており、その 重みによって、それらニューロンの間のに存在する比例結合を定義される。ニュ ーロンの各々が送出する出力値は連続値であり、この連続値はアナログ値であっ ても良く、或いは、好適実施例においてDSP回路によって実現しているように 、マルチビットのディジタル値であっても良い。全ての出カニニーロンが発生す る夫々の出力値をまとめて集合的にとらえたものが、このニューラル・ネットワ ーク200の出力であり、図中には、出力ニューロン241.242.243、 及び244の夫々から出力される各々の出力を、出力281.282.283、 及び284で示しである。出力階層の中のニューロンの個数は、一般的には、ニ ューラル・ネットワークが識別して認識する必要のある文字の種類数に等しくす るようにしている。そして、例えば、出力ニューロン241を文字「A」に対応 させ、出力ニューロン242を文字「a」に対応させ、出力ニューロン243を 文字rBJに対応させ、出力ニューロン244を文字「b」に対応させる、とい うようにする。機械印字した英数字を認識するためのOCRという用途では、図 2に示した4個の出力ニューロンに替えて、約50個の出力ニューロンを使用す るようにすれば良く、その各々の出力ニューロンを、識別して認識すべき、夫々 異なった英数字記号(例えば文字、数字、ないしは句読点等)に対応させるよう にする。中間階層の中の二ニーロンの個数を決定する要因の主なものは、認識さ せるためにニューラル・ネットワークへ供給する文字のビットマツプの複雑度、 ニューラル・ネットワークの情報キャパシティとして望まれるキャパシティの大 きさ、学習終了後にニューラル・ネットワークが獲得する未知のパタンを取扱う 能力の程度、それに、後に説明するように、ニューラル・ネットワークに学習さ せる際にそのニューラル・ネットワークの全ての重みを適切に収束させるまでに そのニューラル・ネットワークに繰り返させることになる反復動作の回数である 。
上述の英数字認識用のOCRという用途では、中間階層230は、図2に示した 4個の中間ニューロンに替えて、約75個のニューロンを含んでいるようにすれ ば良い。
このニューラル・ネットワークの中の、任意の1つのニューロンakへの合計人 力Iは、一般的には、そのニューロンへの重み付は入力値の合計に、更にそのニ ューロンのバイアス値θを加えた関数として算出することができ、これは、次の 式(1)及び式(2)で示すとおりである。
出力ニューロンakに関しては、 中間ニューロンajに関しては、 一方、ニューロンの出力Oは、その人力1 (a)の関数であり、次の式(3) で与えられる。
0 (a) =f [I (a) ] (3)ここで関数fは、いわゆる、活動 度関数であり、連続した閾値を与えるものである。この関数は、一般的にはシグ モイド関数としてあり、即ち、S字形の単調増加関数であって、入力が正の無限 大ないし負の無限大に近づくにつれて、夫々、一定の値に漸近し、一般的には、 正の無限大の場合には「+1」に漸近し、負の無限大の場合にはrQJないし「 −1」に漸近するように定めである。このシグモイド関数と、個々のニューロン 重み及びニューロン・バイアス値とによって、そのニューロンの全ての人力へ供 給される全ての信号に対する、そのニューロンの応答、即ち「興奮度」が定まる 。この活動度関数として使用する関数は、二ニーロン合計入力I (a)の値を 、入力値が負の無限大である場合の漸近値である「0」ないし「−1」と同じく 正の無限大である場合の漸近値である「+1」との間の連続した単調増加する値 域の中へ写像する関数でありさえすれば、実際にはどのような関数であっても大 差はない。これをシグモイド関数とした場合にはニューロンの出力、例えば0( ak)は、次の式(4)で与えられる。
既述の如く、ニューラル・ネットワークの動作の種類として、一般的に、2種類 の処理手順があり、それらを、続けて、相前後して実行するようにしている。
先に実行する処理手順は、初期化を行なった上で、既知の出力を持った、予め定 めである既知の文字のビットマツプ・パタンに関する、学習を行なうというもの であり、それに続いて実行する処理手順は、実際の未知の入力文字ビットマツプ のパタンを認識するという処理手順である。
先ず、ニューラル・ネットワーク200を初期化するには、このニューラル・ネ ットワーク200の中にある全てのニューロンの、重みとバイアス値とを、ラン ダム値にセットする。このランダム値は一般的に、ある一定の範囲内の値とする ようにしており、具体的には、例えば「±0.5」の範囲内の値としている。
続いて、ニューラル・ネットワーク200に学習をさせる。更に詳しく説明する と、どの文字に対応したものであるかが判っている、予め定めである既知の複数 の入力ビツトマツプ、即ち、いわゆる学習用パタンを、ニューラル・ネットワー ク200へ連続して次々と供給する。そして、それら学習用パタンの各々につい て、ニューラル・ネットワーク200の中の全ての重みWと全てのバイアス値θ とを変更調節して、その学習用パタンに含まれている各々のビットマツプに関し て、ニューラル・ネットワークの出力が、そのビットマツプのパタンに対応した ニューラル・ネットワーク出力目標値に、略々一致した出力値を発生するように する。こうして学習が終了したならば、全ての重みとバイアス値とを、その現在 値に固定する。以上が済んだならば、このニューラル・ネットワークを使用して 未知の入力文字パタンの認識作業を行なうことができる。バタン認識作業の実行 中は、複数の未知のビットマツプを、連続して次々と、ニューラル・ネットワー ク200の複数の入力210へ並列的に供給し、それによって得られる、それら ビットマツプに対応したニューラル・ネットワーク応答を、出力階層240の中 の出力ノード(出力ニューロン)から受け取るようにする。理想を言うならば、 ニューラル・ネットワーク200が、ある未知の入力ビツトマツプを認識した結 果、その入力ビツトマツプが、このニューラル・ネットワークがその文字につい て学習したところの所与の文字であることが判ったときには、出力階層240の 中にあって当該文字に対応させであるニューロンの発生する出力値が、出力階層 240の中のその地金てのニューロンが発生する出力値と比べて、際立って大き な値となっているべきである。
バックプロパゲーションを行なうには、予め定めである学習用入力バタン(入力 ベクトル)をニューラル・ネットワークへ供給し、その入力ベクトルを、ニュー ラル・ネットワークの中を順方向へ伝搬させて、その入力ベクトルに対応した出 力バタン(出力ベクトル0)を、出力ニューロンに出力させる。そして、この動 作に付随して生じた誤差の大きさを判定し、その判定した大きさの誤差を、ニュ ーラル・ネットワークの中を逆向きに伝搬(バックプロパゲーション)させるこ とによって、その誤差を、ニューラル・ネットワークの中の個々のニューロンへ 配分する。続いて、各々のニューロンの重みとバイアス値とを変更調節し、この 変更調節の方向及び量は、その学習用人カバタンに関する、ニューラル・ネット ワークの全体誤差を最小にする方向及び量とする。そして更に、以上の手順を、 続(次の学習用パタンに関しても反復して実行し、以下同様に、更にその他の学 習用パタンに関しても反復して実行する。
更に詳しく説明すると、所与の学習用入力バタンに関する、ニューラル・ネット ワークの中の各々のニューロンの誤差の大きさを判定するようにし、この判定に は、いわゆる「一般化デルタルール」を用いる。一般化デルタルールにおいては 、所与の学習用人カバタンpに関して、その任意のニューロン重み(例えば重み wkj)を原因とする誤差の大きさは、ニューラル・ネットワークの誤差の二乗 和(即ち、全てのニューロンによって発生される誤差Ep)の、偏導関数に比例 するものとなっている。これは次のとおりである。
先ず、入力バタンpに関する、ニューラル・ネットワーク全体誤差Eは、次の式 %式% この式において、tkは、第にニューロンの出力目標値である。この場合、任意 の重み(例えば重みwkj)に関係したネットワーク誤差の大きさは、その重み の変化に対するニューラル・ネットワーク全体誤差Epの偏導関数、即ち、aE p/awkj で与えられる。このことから、各々の出力ニューロンakそのも のに関する誤差の大きさδには、その出力ニューロンakにおける、実際の出力 値Okと、出力目標値tkと、それらの間の差分の値との関数としてめることが でき、これは次のとおりである。
δに=ok (1−Ok)(tk−Ok) (6)また、任意の中間ニューロン に関する誤差の大きさは、次のとおりである。
これらの、式(6)に示した各々の出カニニーロンの誤差の大きさと、式(7) に示した各々の中間ニューロンの誤差の大きさとを、バックプロパゲーション誤 差決定部260に算出させる。そして、この誤差の算出を、ニューラル・ネット ワークの中を逆向きに進めて行き、即ち、誤差を次々と低位の階層へ伝搬させて 行き、最終的には入力階層まで伝搬させる。またバックプロパゲーション誤差決 定部260へは、それらニューロン誤差の値を算出させるために、リード250 を介して現在出力ベクトルを供給し、リード267を介してニューロン重み並び にニューロン・バイアス値の夫々の現在値(wkj(nl 、 wjifn)  、及びθj (nl )を供給し、そして、リード263を介して出力ニューロ ンの出力目標値(tk )を供給している。尚、重みの値として、大きな値が発 生されるのを防止するために、個々の出力ニューロンの各々の出力目標値は、適 音、ro、IJか、或いはrO,9Jに設定するようにしている。
バックプロパゲーション誤差決定部260は、夫々のニューロン誤差の値を算出 したならば、それら算出したニューロン誤差の値を、リード265を介して、ニ ューロン重み/バイアス値決定部270へ出力する。そして、全てのニューロン 誤差の値が算出されたならば、ニューロン重み/バイアス値決定部270は、全 ての階層における、ニューロン重み及びニューロン−バイアス値の、その各々の 現在値に加える必要のある、変更量(即ち調節量)を決定する。その際に、ニュ ーロン重み/バイアス値決定部270は、全体誤差の部分のうちの、最大最の大 きさの幾つかの部分を、ニューラル・ネットワークの全体誤差の発生に、多(荷 担している重み及びバイアス値に割当てる。この手順は反復実行するものである が、その第(n+1)回目の反復実行である、現在実行に関する、重み及びバイ アス値の変更量は、以上のようにして算出したニューロン誤差に基づいて、次の 式に従って決定するようにしている。
先ず、出力ニューロンakの各々については、Δwkj fn+1) = 77  δj Ok +aΔwkj(nl (8)Δθj(n+ll =ηδj+αΔ θj [nl (9)また、中間ニューロンajの各々については、Δwji  (n+11 = nδjok+aΔwji(n) (10)Δθi(n+11  =ηδi+αΔθ1fnl (11)係数nは、ニューラル・ネットワークの学 習速度を表わすものである。即ち、この係数ηは、ニューラル・ネットワークの 学習動作の実行中に、ニューラル・ネットワークの重みとバイアス値とが、どれ 程遠やかに収束するかを定めるものである。この係数の値が大き過ぎると、重み 及びバイアス値はその適正値を超えてオーバーシュートするようになり、それに よって収束が妨げられるようになる。
また、係数αは、運動量の項に似た性質を持つものであり、重みの値の急激な変 化の影響を緩和しく周波数の高い変動をフィルタ除去する性質を持つ)、またそ れと共に、ニューラル・ネットワークが、重み空間における誤差曲面の表面に沿 って、絶対的な最短距離ではないものの、局部的な最短距離を通って変化して行 けるようにするものである。また、これら係数の値は、経験的に定められるもの である。こうして重み及びバイアス値の変更量の算出を完了したならば、ニュー ロン重み/バイアス値決定ff1270は、算出したそれら変更量を、夫々、リ ード272とリード274とを介して、ニューラル・ネットワークの中の個々の ニューロンの全てへ供給し、その変更量に従ってニューロン重み及びニューロン ・バイアス値を更新させる。目標出力ベクトルと実出力ベクトルとの間の誤差に 基づいて、ニューラル・ネットワークの重みとバイアス値とを、反復して調節す るようにしたこの処理手順は、上記式(5)に示した、このニューラル・ネット ワーク200の二乗和誤差を、効果的に減少させて行くことのできる、最急降下 法を構成するものである。ニューラル・ネットワークにおけるパックプロパゲー ションの、更に詳しい説明については、D−J・バー著「ニューラル・ネットワ ーク方式の数字認識装置J (D、 J、 Burr、 ”A Neural  Network Digit Recognizer”。
Proceedin s of the 1986 IEEE Tnterna tional Conference of S ste+≠刀@Man and Cbernetics Atranta、 Geor ia、 pag es 1621−1625 )や、D−E−ラメルハートらによる「誤差伝搬法 による内部表示の学習」の第8章(Chapter8、 ”Learning  Internal Representations by Error Pr opagation″of DA E。
Rumelhart et al、ハrallelユ1stributed P rocessin 、 (copyright/1986:@MIT Press; Ca+nbridge、 Massachusettsl)の特 に第322頁〜第330頁を参照されたい。更に、ニューロン並びにネットワー ク200等のニューラル・ネットワークの基礎を成す数学については、N−J・ エルシン著[学習機械の数学的基礎J (N、 J、 Ni1sson、 Th eハ肋:鮎且ゴ」回悪■山凹し虻±胆ユ扛り胆±訪朋(copyright/1 990: Morgan Kaufmann Publishers; San  Mateo、 にalifor獅奄≠戟@) の、特に、その第2.6童「スレショルド・ロジック・ユニット(TLU)J( The Threshold Logic Unit [TLUl″on pa ges 21−23 ) 、それに第6章「階層機械」 (Layered M achines’ on pages 95−114)を参照されたい。
1つの学習用文字ビットマツプに関して、ニューラル・ネットワークの全ての重 みの調節が終了したならば、続く次の学習用文字ビットマツプをニューラル・ネ ットワークへ供給し、そして誤差の決定及び重みの調節のプロセスを反復して実 行し、そして更に、一連の複数の学習用ビットマツプの各々について、その反復 プロセスを繰り返して実行して行(。一般的には、それら複数の学習用バタンの 各々に関して、ニューラル・ネットワーク全体誤差が、予め定めた限界値に到達 したならば、その学習用パタンに関する反復実行を中止して、学習を停止させる 。この時点で、ニューラル・ネットワーク200の、全ての重み及びバイアス値 を、そのときの現在値に固定する。これ以降は、このニューラル・ネットワーク 200を使用して、未知の入力データを対象とした文字認識作業を、比較的高速 で実行することができる。
図3に示したハイレベルのブロック図は、ニューラル・ネットワーク200に使 用した(また、本発明に係るニューラル・ネットワーク400にも使用した)一 般的な構成の、ニューロン300を示したブロック図である。既述の如(、各々 のニューロンは、そのニューロンの複数の重み付は人力の合計値とバイアス値と の和に対する、関数を発生するものであり、より具体的には、その和に対して、 一定の領域に制限された閾値を、関数として発生するものである。図3に詳しく 図示したように、ニューロン300へは、複数の個々の入力値INI、IN2、 IN3 、、、、、INnから成る入力310が供給される。これら入力値は、 それらの夫々に割当てられた個々のリード3101.3102.31031、、 、.310nを介して、それらの夫々に対応した乗算器3301.3302.3 303、、、、.330nへ入力しており、それら乗算器をまとめて集合的に乗 算器330として表わしている。これらの乗算器は、それらの入力値に、その乗 算器に付与しである重みwl 、w2 、w3 、、、、、wnを乗じる乗算を 行ない、そしてそれらの乗算によって得られた夫々の積(即ち重み付は値)を、 リード340を介して加算器350の夫々の入力へ供給している。加算器350 は、それら重み付は値の全てを、リード355を介して供給されているバイアス 値θに加え合せて1つの和の値を形成する。続いて、この和の値を、リード36 0を介して、閾値要素370へ供給する。閾値要素370は、予め定めである所 定の連続漸近関数(一般的にはシグモイド関数であり、また、シグモイド関数と するのが好ましい)としての機能を果たすものであり、この関数は、その入力を 、その入力に対応した、例えば「+l」から「0」までの間の、出力値へ写像す るものである。この閾値要素370の出力Oは、リード375を介して、ニュー ロン300の出力として送出される。尚、本発明の好適実施例においては、各ニ ューロンは、DSP回路の中で実行するソフトウェアによって構成するようにし ているが、しかしながら、それらニューロンの各々を、アナログ回路ないしディ ジタル回路によって構成するようにしても良い。更に、それら複数のニューロン によって形成されるニューラル・ネットワークの全体を、特別製のディジタル回 路(例えば、然るべき複数の能動要素と接続マトリクスとを組み込んだ、適当な 特定用途集積回路(ASIC)や、特注の超大規模集積回路(VLSI)等)に よって構成するようにしても良い。また、ニューロン300と同様の機能特性を 備えた複数のニューロンを含んでいる、ニューラル・ネットワークを構成するた めの、更にその他の幾つかの構成方式(例えば光学的構成方式等)が、R−K・ ミラー著「ニューラル・ネットワーク」の、第4t[ニューラル・ネットワーク の構成方式J (Chapter 4″Implementation of  Neural Network″、 pages 4−1 煤B 4−26 in R,K、 Miller、 Neural Networks  (copyright/1989: Fainaont oress; Li1burn、 Georgial )に説明されテイル。
従来公知の典型的なニューラル・ネットワークの1つであるニューラル・ネット ワーク200の機能、並びに、このニューラル・ネットワークの中で使用してい る各ニューロンの機能についての、以上の理解の上に立って、以下に、本発明の ニューラル・ネットワーク400について、詳細に説明して行くことにする。
尚、このニューラル・ネットワーク400を構成している構成要素は、その多く が、ニューラル・ネットワーク200の中の構成要素と同一のものであるため、 以下の説明では、これら2つのニューラル・ネットワークの間の相違点について のみ、詳細に論じることにする。
図4は、本発明の一実施例に係るニューラル・ネットワーク400の、ハイレベ ルのブロック図である。このニューラル・ネットワーク400は、上述のニュー ラル・ネットワーク200に含まれていた構成要素に加えて、更に、信頼性測定 /バックプロパゲーション制御部410を含んでいる。この信頼性測定/バック プロパゲーション制御部410は、ネットワーク人力210へ供給される入力ビ ツトマツプ文字の各々についてニューラル・ネットワーク400が発生する出力 値のベクトルに基づいて、そのベクトルに付随する出力信頼性指標値を算出する ものである。また、この出力信頼性指標値は、そのベクトルに含まれている複数 の出力値のうちの、最大の出力値と2番目に大きな出力値との間の比の値として 算出される。こうして算出したこの指標値に対しては、続いて、閾値処理を施し 、その処理の結果を、制御信号として、リード450を介してパックプロパゲー ション誤差決定部260へ供給する。この制御信号による制御は、入力文字認識 作業中に、バックプロパゲーション並びにニューロン重み及びニューロン・バイ アス値の調節を実行させる(即ち、ニューラル・ネットワークに、認識作業を実 行中の現在入力文字の実際のビットマツプに適合させるための、再学習をさせる )か、或いは、それらの動作の実行を禁止して、その再学習をさせないようにす るかの、いずれかとするための制御である。
ニューラル・ネットワーク400が、ある入力文字を、充分に高い信頼性をもっ て認識したときには、その出力ベクトルの中に顕著なピーク(例えばその値がr o、8J以上のピーク)が存在しているはずであり、しかも、その顕著なピーク は、ただ1つの出力ニューロンにのみ付随しているはずである。また、その他の 出力ニューロンが発生している出力値は、比較的小さな値(例えばro、3J以 下)−にとどまっているはずである。例えば、図4に示したニューラル・ネット ワーク400における、出力信頼性の高い出力ベクトルの具体的な一例を示すな らば、 (0,3,0,2,0,8,0,2)というベクトルを挙げることがで きる。出力ベクトルがこの値であれば、ニューラル・ネットワーク400は、高 い信頼性を持って、入力ビツトマツプが文字rBJであると、認識しているので ある。また、出力ベクトルがこの値であれば、その信頼性指標値は比較的大きな 値となり、具体的には、0.810.3、即ち約2.67になる。また、以上と は逆に、ニューラル・ネットワーク400が、その発生している出力に自信を持 っていない場合には、その出力ベクトルの中の最大出力値の近傍に、複数のニュ ーロン出力値から成る団塊(クラスタ)が生じる。図4に示したニューラル・ネ ットワーク400における、信頼性の低い出力ベクトルの具体的な一例を示すな らば、(o、4.0.76.0.8.0.6)というベクトルを挙げることがで きる。この出力ベクトルの信頼性指標値は、比較的小さく、0.810.76、 即ち約1.05である。
信頼性測定/バックプロパゲーション制御部410は、出力セレクタ420、レ シオ値算出器430、及び閾値処理部440を含んでいる。このうち出力セレク タ420は、ニューラル・ネットワーク400が発生した出力ベクトルをり一ド 250を介して受け取り、そして受け取ったその出力ベクトルの中から、最大の 出力値と、2番目に大きい出力値とを選択する。続いて、選択したそれらの値( nl 、 n2 )を、リード425を介してレシオ値算出器430へ送出する 。レシオ値算出器430は、それらの値の間のレシオ値(nl/n2)を算出し 、そして算出したそのレシオ値を、リード435を介して、閾値処理部440の 入力へ供給する。閾値処理部440は、受は取ったそのレシオ値、即ち指標値を 、リード437を介して供給されている予め定められた複数の所定の限界値(こ れら限界値は幾つかの信頼性領域に対応したものであり、この点については後に 図5に関連して詳述する)との間で比較し、それによって、ニューラル・ネット ワーク400が、その入力として供給された現在文字(記号)を充分な出力信頼 性をもって認識したのか否かを判定する。即ち、そのレシオ値である指標値が、 ある所定領域の中にあった場合に、閾値処理部440は、リード450上にハイ レベルの信号を送出することによって、バックプロパゲーション誤差決定部26 0に命令を発し、このパックプロパゲーション誤差決定部260に、ニューロン 誤差を算出させ、そして更に、その算出したニューロン誤差に従ってニューロン 重みとニューロン・バイアス値とを然るべ(調節させる。この場合の所定領域と は、出力信頼性の値が大きい高信頼性領域の境界を定めた限界値と、信頼性の値 が小さい低信頼性領域の境界を定めた限界値との間に位置する領域である。また 、ここで、認識して得た出力文字に関するニューロン誤差の値を算出するために は、上掲の式(6)及び式(7)に示したように目標値を使用せねばならないが 、ここで使用する目標値には、以前(即ち、初期化並びに学習の処理手順を実行 したときに)、ニューラル・ネットワークに当該出力文字を認識させるための初 期学習を行なわせたときに使用した特定の目標ベクトルの中にあった目標値を用 いるようにする。また、そのために、初期化並びに学習の処理手順の実行中に、 ニューラル・ネットワークの初期学習を行なわせた文字の全てに対応した、その 目標値の全てを、パックプロパゲーション誤差決定部260に記憶させておくよ うにしている。以上ようにしたならば、ニューラル・ネットワークの初期学習の 実行中(即ち、初期化並びにネットワーク学習の処理手順の実行中)に所定のビ ットマツプを使用してニューラル・ネットワークの学習を実行したようにして、 ただし、所定のビットマツプの代わりに実際の入力ビツトマツプを使用して、そ の実際の入力文字の認識作業の実行中にニューラル・ネットワークの再学習を行 なうことにより、ニューラル・ネットワークに供給される実際の入力文字の変化 に対して、このニューラル・ネットワークの応答を、滑らかに且つ正確に、適応 させることができる。
ある文字を認識したときに、その文字認識の信頼性指標値が、高信頼性領域の中 に位置する値であった場合には、その文字に関してはニューラル・ネットワーク に再学習をさせる必要はなく、なぜならば、その文字のビットマツプは、見てそ れと判る程には変化しておらず、従って、再学習を実行することによって結果的 に得られるニューラル・ネットワークの応答の改善は、たとえ皆無ではないにし ても、微々たるものでしかないからである。それゆλ、rjJ値処理部440は 、実際にある入力文字を認識したときに、その文字認識の信頼性が充分に高かっ たならば、リード450上にローし・ベルの信号を送出することによって、バッ クプロパゲーション並びにニューロン重み及びニューロン・バイアス値の調節を 禁止する。一方、これとは正反対に、ニューラル・ネットワークがある入力文字 を認識したときに、その文字認識の信頼性指標値が小さな値であった場合、即ち 、その指標値が低信頼性領域の中の値であった場合にも、この閾値処理部440 ば、同様にリード450上にローレベルの値を送出することによって、再学習を 禁止する。この場合には、出力文字は、かなり大きな不確定性を持っているため 、ニューラル・ネットワークに再学習をさせるべきではなく、もし再学習をさせ たならば、ニューラル・ネットワークの動作が良(ない方向へ偏向してしまい、 それによって認識正確度が悪化してしまう可能性が高い。また、このように出力 信頼性指標値が低信頼性領域の中に位置する値であった場合には、閾値処理部4 40は更にリード490上へ、「低信頼性フラグ」としてハイレベルを送出する 。こうしてハイレベルが送出されると、ネットワーク後置プロセッサ170(図 1参照)がそれに応答して、そのときニューラル・ネットワーク400が発生し てこのネットワーク後置プロセッサ170へ供給している出力文字に、マークを 付ける(即ちフラグを付ける)。このマークは、その出力文字が低い信頼性をも って認識された文字であり、従って、誤認された文字である可能性があり、また 、ニューラル・ネットワークの中を再度通過させる第2パスにおいては、異なっ た識別をされるかも知れない文字であることを表わすマークである。
本発明のこの独特の教示に従って、ニューラル・ネットワーク400の学習の対 象を、実際の入力文字データのうちで、その文字データを認識したときの出力信 頼性が、高過ぎることのないあるレベルにあった入力文字データのみに限るよう にすれば、それによって、ある特定の場合にのみ、このニューラル・ネットワー クの再学習が実行されるようにすることができる。この特定の場合とは、入力文 字のビットマツプがかなり変化しているが、ただしその変化は、その変化にもか かわらず、ニューラル・ネットワークが、その入力文字を正しく認識した可能性 が高いと推定される程度の変化であるという場合である。ニューラル・ネットワ ークに再学習を実行させるときの条件を、このように制限することによって、認 識の正確度を実際に向上させることのできる可能性を高めているのである。この ように、認識の正確度が向上する可能性が高いのは、具体的には、例えば次のよ うな入力文字を処理している場合である。即ち、その入力文字とは、第1回目の 認識作業においては誤認された可能性があるが、ニューラル・ネットワークに再 学習させた後に、その入力文字を再度ニューラル・ネットワークの入力に供給す れば、その入力文字が第1回目とは異なって正しく識別し直される可能性がある という入力文字である。尚、ここで、[その入力文字を再度供給する」というの は、例えば、入力書類の現在ページを、ニューラル・ネットワークの中を再度通 過させる第2バスを実行するために、再びニューラル・ネットワークへ供給する 場合も、また、同一の文字を含んでいる後続の入力ページを、初めてそのニュー ラル・ネットワークへ供給する場合も含まれる。
以上の理解の上に立って図5について説明すると、同図は、出力信頼性指標値の 複数の領域と、本発明のニューラル・ネットワークが、それら領域の中に位置す る出力信頼性指標値に応答して実行する動作とを図解して示したものである。
図示の如く、出力信頼性指標値の領域として、3つの領域を設定しである。それ らのうち、低出力信頼性領域510は、出力信頼性指標値の所定の限界値C1に よってその上限を定めてあり、中間出力信頼性領域520は、出力信頼性指標値 の所定の限界値C1と02とによってその境界を定めてあり、更に、高出力信頼 性領域530は、出力信頼性指標値の所定の限界値C2によってその下限を定め である。ただし、これらの限界値は厳密なものではなく、ニューラル・ネットワ ークに供給される入力データの変化に対して、ニューラル・ネットワークが滑ら かに且つ正確に適応することができるように、経験的に設定した値である。実際 の出力信頼性指標値Cが、低出力信頼性領域510の中に位置していた場合には (即ち、C<CI )、本発明のニューラル・ネットワークは、そのとき認識し た文字を、そのままこのニューラル−ネットワークの出力として送出すると共に 、「低信頼性フラグ」として、ハイレベルを送出する。更にこの場合には、その 認識した文字には、かなりの不確定性が付随しているため、ニューラル・ネット ワークは、この文字についての再学習を実行しないようにする。一方、以上とは 異なって、実際の出力信頼性指標値Cが、中間出力信頼性領域520の中に位置 していた場合(即ち、CI≦C<C2)、或いは、高出力信頼性領域530の中 に位置していた場合(即ち、C≧C2)にも、本発明のニューラル・ネットワー クは、そのとき認識した文字を、そのままこのニューラル・ネットワークの出力 として送出する。ただしこの場合には、その出力文字は充分な出力信頼性をもっ て認識されたのであるから、ニューラル・ネットワークは、「低信頼性フラグ」 のリードへはローレベルを送出する。更に加えて、その出力信頼性指標値が、中 間出力信頼性領域520の中に位置していた場合には、本発明のニューラル・ネ ットワークは、その認識した文字、即ち現在認識文字について再学習を実行する 。
即ち、もし出力信頼性指標値が、中間出力信頼性領域520の中に位置していた のであれば、そのとき認識した文字のビットマツプは、ある程度は変化している にもかかわらず、なおかつ、その現在入力文字は、充分な信頼性をもって認識さ れたものであると推定される。それゆえ、その入力文字の実際のビットマツプを 用いて再学習を実行させれば、ニューラル・ネットワークの動作がこの入力デー タの変化(即ち入力文字の変化)に適応するにつれて、その結果として、ニュー ラル・ネットワークが提供する認識正確度が向上する可能性が高いのである。こ の認識正確度の向上によって、初めて入力したときには誤認した疑いのある入力 文字を、再度入力したときには正しく識別し直せるようになる。一方、実際の出 力信頼性指標値が、高出力信頼性領域530の中に位置していた場合には、本発 明のニューラル・ネットワークは、そのときの現在認識文字に対する再学習を、 実行しないようにしている。そのようにしているのは、実際の出力信頼性指標値 が高出力信頼性領域530の中に位置していた場合には、(a)そのときの入力 文字のビットマツプが、ニューラル・ネットワークの再学習を正当化し得る程度 に変化しており、且つ、fb)その再学習の結果、ニューラル・ネットワークの 認識正確度が目に見えて向上する、という可能性は非常に低いからである。
図6A〜図6Dは、それらをつなぎ合せた図によって、「複パス文字認識及びパ ックプロパゲーション制御ルーチン」600の、ハイレベルなフローチャートを 示すものである。図示のルーチンは、本発明の文字認識方法をソフトウェアで実 現したものであり、また2図4に示した、本発明のニューラル・ネットワークの 、ソフトウェア構成による実施例を採用したものである。尚、図6A〜図6Dを 描いた図面どうしの正しいつなぎ合せ方を、図6に示しである。
ルーチン600の中では、先ず最初に、ブロック603とブロック606とを含 んでいる「初期化及び学習処理手順」を実行し、続いてブロック612〜ブロツ ク690から成る「認識処理手順」を実行する。「初期化及び学習処理手順」で は、ニューラル・ネットワークを初期化した後に、そのニューラル・ネットワー クに学習させるようにし、この学習は、既知の所定の文字ビットマツプから成り 、しかもその出力も既知の、複数の学習用バタンを用いて実行する。また「認識 処理手順Jにおいては、実際の、未知の入力文字のビットマツプ・パタンに対す る認識作業を実行する。
ルーチン600へ入ったならば、先ず、処理の実行は「初期化及び学習処理手順 」へ進み、特にその中のブロック603へ進む。ブロック603では、ニューラ ル・ネットワークを初期化し、この初期化は、全てのニューロン重み及びニュー ロン・バイアス値を、それらに対応した所定の固定した限界値によって定めであ る範囲内の、ランダム値に設定することによって行なう。この範囲を定めている 限界値は、具体的には、例えば「±0.5」等の値であるが、ただしこの値は重 要なものではない。この後、ブロック606を実行して、ネットワークに学習を 行なわせる。この学習は、既述の如(、複数の学習用バタンを次々と使用し、そ れら学習用バタンに関してパックプロパゲーション並びに重み及びバイアス値の 調節を行なうという方法で実行するものであり、それら複数の学習用バタンは既 知の、所定の文字のビットマツプのバタンであって、それらによって発生する出 力も既知のものである。この学習が完了した時点で、「初期化及び学習処理手順 」は終了する。続いて処理の実行は「認識処理手順」へ進み、特にその中のブロ ック612へ進む。
ブロック612では、フロントエンド・プロセッサ110(図1参照)へ命令を 発して、このフロントエンド・プロセッサ110に、認識処理すべき実際の未知 の入力ビツトマツプ文字データの先頭のページにアクセスするための経路を、I 10スイッチ140の中に確立させる。この経路を確立させたならば、処理の実 行は、図6A〜図6Dに示すようにブロック615へ進む。ブロック615では 、変数PASSを「1」にセットする。このようにセットすることによって、現 在ページの処理が、ニューラル・ネットワークを初めて通過させる第1バスによ って行なわれていることを、明示するのである。この変数のセットが完了したな らば、続いてブロック618を実行する。このブロック618では、現在ページ の中の先頭の文字のビットマツプの読取りを行なう。続いて、処理の実行はブロ ック621へ進み、このブロック621では、上で読み取ったビットマツプの中 の個々のビットの値をニューラル・ネットワーク400(図1及び図4参照)の 該当する入力ニューロンへ供給する。続いて、図6A〜図6Dに示すように、ブ ロック624を実行して、そのビットマツプの中のこれらビットの値を、ニュー ラル・ネットワークの中を順方向へ伝搬させ、この伝搬は、ニューラル・ネット ワークの中の各々のニューロンの出力を算出して行くことによって行なう。ニュ ーラル・ネットワークの中の出力ニューロンの出力値を算出し終わったならば、 そのとき、そのビットマツプは、ニューラル・ネットワークの中を最後まで伝搬 完了したことになり、続いて処理の実行はブロック627へ進む。このブロック 627では、その時点で全ての出力ニューロンが発生しており、また出力ベクト ルとして送出されている出力値の中から、最大の出力値と2番目に大きな出力値 と(nl 、 n2 )を選出する。これらの値を選出したならば、ブロック6 30を実行して、これら2つの値の間の比の値を算出する。こうして算出した比 の値が、このニューラル・ネットワークが現在、認識作業を行なっている文字の 、実際の出力信頼性指標値Cである。
こうして実際の信頼性指標値を算出したならば、処理の実行はブロック630か ら判断ブロック633へ進む。この判断ブロック633では、上で算出した実際 の信頼性指標値を、高出力信頼性領域の下限を定める限界値C2と比較する。
そして、実際の信頼性指標値が、この限界値02以上の大きさの値であったなら ば、処理の実行は、この判断ブロック633から出ているYES経路を通って、 ブロック640へ進む。ブロック640では、認識されている文字を、ニューラ ル・ネットワークの出力として送出する。また更に、もしその認識されている文 字に、以前低い信頼性をもって認識された文字であることを示すマークが付され ていたならば、そのマークを除去する。この後、処理の実行はブロック643へ 進む。ブロック643では、ニューラル・ネットワークが、パックプロパゲーシ ョン並びにニューロン重み及びニニーロンバイアス値の変更調節の処理を実行し ないように、それらの処理を禁止し、この点については既に充分に説明したとお りである。即ち、この場合、実際の出力信頼性が充分に高いため、たとえ現在認 識文字についてニューラル・ネットワークの再学習を実行したとしても、その結 果書られるニューラル・ネットワークの認識正確度の向上は、皆無ではないにし ても、殆ど目に見える程のものとはならないからである。この後、処理の実行は 経路645及び経路658を介してブロック667へ進み、このブロック667 については後に説明する。一方、前述の判断ブロック633において、実際の信 頼性指標値が、限界値C2より小さな値であった場合には、処理の実行は、この 判断ブロック633から出ているNo経路を通って判断ブロック647へ進む。
判断ブロック647では、実際の信頼性指標値を、中間出力信頼性領域の限界値 である限界値C2並びに限界値C1と比較する。この比較によって、実際の信頼 性指標値が、中間出力信頼性領域の中の値であることが判明した場合には、処理 の実行は、この判断ブロック647から出ているYES経路を通って、ブロック 650へ進む。ブロック650では、認識されている文字を、ニューラル・ネッ トワークの出力として送出する。また更に、もしその認識されている文字に、以 前低い出力信頼性をもって認識された文字であることを示すマークが付されてい たならば、そのマークを除去する。このブロック650における処理を全て完了 したならば、処理の実行はブロック653へ進む。ブロック653では、パック プロパゲーションの処理を起動することによって、既に充分に説明したように、 ニューラル・ネットワークに、このニューラル・ネットワークの中の各々のニュ ーロンにおける誤差の大きさを算出させる。尚、ここでニューロン誤差の大きさ を算出する際に使用するビットマツプは、ニューラル・ネットワークの初期学習 の際に使用した、その文字に対応した所定のビットマツプではなく、ニューラル −ネットワークへ現在供給されている入力文字のビットマツプである。また、こ のニューロン誤差の大きさの算出には、更に目標ベクトルを使用するが、使用す るその目標ベクトルは、「初期化及び学習処理手順」において使用した、予め定 めた所定の目標ベクトルのうちの、ニューラル・ネットワークが現在認識してい る出力文字に対応した目標ベクトルである。ニューロン誤差の全てを算出完了し たならば、このブロック653において更に、既述の如く全てのニューロン重み 及びニューロン・バイアス値の新たな値を算出し、そして、その算出した値に従 って、ニューロン重み及びニューロン・バイアス値の、全ての値を調節する。こ のブロック653の処理を、全て実行完了した時点で、このニューラル・ネット ワークにそのとき供給されている実際の未知の文字の認識結果を利用した、この ニューラル・ネットワークの再学習が完了したことになる。この後、処理の実行 は、経路655及び経路658を通ってブロック667へ進む。
一方、前述の判断ブロック647において、実際の出力信頼性指標値が限界値C 1より小さな値であった場合、徒って、実際の信頼性指標値が低出力信頼性領域 の中に位置していることが判明した場合には、処理の実行は、この判断ブロック 647から出ているNo経路を通ってブロック661へ進む。ブロック661で は、そのとき認識されている文字をニューラル・ネットワークの出力として送出 すると共に、その文字が低い出力信頼性を持って認識された文字であることを示 すマークを、その文字に付しておく。この後、処理の実行はブロック664へ進 み、このブロック664では、既に充分に説明したように、ニューラル・ネット ワークが、バックプロパゲーション並びにニューロン重み及びニューロン・バイ アス値を調節する処理を実行しないように、それらの処理を禁止する。この場合 、その認識されている文字の、実際の出力信頼性が非常に低いため、もしかりに 、このときのニューラル・ネットワークの現在出力ベクトルを用いて、このニュ ーラル・ネットワークの再学習を実行したならば、このニューラル・ネットワー クの認識正確度が著しく劣化するおそれがある。続いて、処理の実行は、このブ ロック664から判断ブロック667へ進む。
判断ブロック667では、現在入力ページ上の最後の文字に到達して、しかもそ の文字に対する、ニューラル・ネットワークを通過させる処理を完了したか否か を判定する。もし、現在入力ページ上に、ニューラル・ネットワークを通過させ る処理を未だ済ませていない入力文字が残っていたならば、処理の実行は、この 判断ブロック667から出ているNo経路を通って、ブロック670へ進む。
ブロック670では、I10スイッチ14o(図1参照)を介して、現在ページ 上の続く次の文字のビットマツプの読取りを行なう。そのビットマツプが得られ たならば、処理の実行はループして戻り、即ち、図6A〜図6Dに示すように、 経路673を介してブロック621へ戻り、そして、そのビットマツプに対して ニューラル・ネットワークを通過させる処理を施し、以下同様にして、ル〜ブし つつ、次々と入力文字を処理して行く。一方、前述の判断ブロック667におい て、現在ページ上の最後の文字に到達して、しかもその文字に対する、ニューラ ル・ネットワークを通過させる処理を完了したことが判明したならば、処理の実 行は、この判断ブロック667から、判断ブロック677へ進む。判断ブロック 677では、変数PASSの値を調べることによって、現在ページに対して、ニ ューラル・ネットワークを通過させる処理を2回施したか否か、即ち、その変数 PASSの値が「2」となっているか否かを判定する。もし、現在ページに対し て、ネットワークを初めて通過させる第1バスの処理しか行なわれていなかった ならば、処理の実行は、この判断ブロック677から、そのNo経路を通って、 ブロック680へ進む。ブロック680では、変数PASSの値を「2」にセッ トする。この後、処理の実行はループして戻り、即ち、経路683を通ってブロ ック618へ戻り、現在ページ上の文字ビットマツプを次々と供給して、ニュー ラル・ネットワークを2回目に通過させる第2パスの処理を施して行く。一方、 前述の判断ブロック67アにおいて、現在ページの第2バスの処理が完了したこ とが判明した場合には、処理の実行は、この判断ブロック677から判断ブロッ ク687へ進む。判断ブロック687では、現在その認識作業を実行中の書類の 最後のページの処理が完了したか否かを判断する。もし、未だ処理を済ませてい ないページが残っていたならば、処理の実行は、この判断ブロック687から、 そのNo経路を通って、ブロック690へ進む。ブロック690では、フロント エンド・プロセッサ110(図1参照〕に命令を発して、このフロントエンド・ プロセッサ110に、現在書類の中の続く次のページの入力ビツトマツプ文字デ ータをアクセスするための適切な経路を、I10スイッチ140の中に確立させ る。この後、処理の実行はループして戻り、即ち、経路693を通ってブロック 615へ戻り、次ページの処理を行ない、以下同様に処理して行く。一方、前述 の判断ブロック687において、現在書類の最後のページの処理が完了したこと が判明した場合には、それによってこの「認識処理手順」は終了し、処理の実行 は、この判断ブロック687から出ているYES経路を通って、そのままこのル ーチン600から脱出する。
以上の説明においては、機械印字した英数字の文字に、更に正規化処理を施した ものを対象として、認識及び識別を行なうようにしたOCRシステムとの関連に おいて、本発明を詳述した。しかしながら、本発明のニューラル・ネットワーク は、広範な様々な種類のシステムにおいて扱われている、種々のパタンの認識及 び識別を行なうために使用することのできるものである。それらのパタンは、英 数字の文字のビクセル・パタンに限られず、任意の種属の予め定められた所定の 信号パタンであって良く、例えば、一群の入力センサによって発生される所定の 信号バタンであったり、或いは、所与の単一ビットまたはマルチビットのデータ ・ストリームの中に存在する信号バタンであったり、或いは、一群のアナログ信 号の中に存在する信号バタンであっても良い。また、ビクセル信号とは異なった 種類の入力を取り扱う場合には、当業者には容易に理解されるように、個々の入 力信号をニューラル・ネットワークの中の適当な入力ニューロンへ結合するため に、本発明のニューラル・ネットワークに、適当なインターフェース回路を付加 することが必要となることもある。更には、認識すべき個々のパタンに対応させ てディジタル出力ワードを発生させるようにした場合には、そのディジタル出力 ワードと、そのディジタル出力ワードに割当てられた、ニューラル・ネットワー クの中の出力ニューロンとに対応できるように、ネットワーク後置プロセッサの プログラミングの変更も必要となろう。
また更に、以上の説明では、具体的な一例として、取り扱う入力データと出力デ ータのいずれも、コード化していないデータであるものに関して本発明を詳述し た、即ち、ニューラル・ネットワークへの入力は、単なるビットマツプであって そのビット間に高度のデータ粒子性は存在しておらず、また、ニューラル・ネッ トワークからの出力は、最大の出力値を発生しているある1個のニューロンをも って、その出力とするものであった。しかしながら、このニューラル・ネットワ ークの入力及び出力は、必ずしもその種の入力及び出力に限られるものではない 。この点に関して、例えば、このニューラル・ネットワークへ供給するための入 力データを、必要とあらば、コード化したマルチビットのワードとすることもで き、そうした場合にも、その入力データを対象として、このニューラル・ネット ワークの学習並びに再学習を適切に行なわせることができる。同様に、必要とあ らば、このニューラル・ネットワークの出力部が、認識した各バタンに対応して 発生する出力を、単一ビットの出力ではなく、コード化したマルチビットの出力 とすることも可能である。そうする場合には、例えば、そのマルチビットのバタ ンを、3ビツトのバタンとし、その3つのビットを、互いに同時に、最大の出力 値と、2番目に大きな出力値と、3番目に大きな出力値とを夫々に発生した、3 個のニューロンの組に対応した3つのビットとすることができる。更にこの場合 、出力信頼性指標値として用いる値は、最も可能性が高いニューラル・ネットワ ーク出力と、2番目に可能性が高いニューラル・ネットワーク出力との間の、比 の値ないしは差の値を表す関数によって算出した値とすることができる。具体的 な例を挙げるならば、この関数としては、現在出力ベクトルの中の最も大きな3 つの出力値(即ち最大から3番目に大きな出力値までであって、現在入力に関し てニューラル・ネットワークが認識したうちで、最も可能性の高い文字に対応し た3つの出力値)の平均値と、同じ出力ベクトルの中の、2番目に大きな3つの 出力値(即ち2番目に大きな出力値から4番目に大きな出力値までであって、同 じ現在入力に関してニューラル・ネットワークが認識したうちで、2番目に可能 性の高い文字に対応した3つの出力値)の平均値との間の、比の値を算出する関 数を用いることができる。こうして出力信頼性指標値をめたならば、その指標値 を使用して、上で説明したのと同様の方式で、誤差の逆方向伝搬とニューロン重 み及びニューロン・バイアス値の調節とを制御することができる。尚、この出力 信頼性指標値を導出するための関数として、具体的にどのような関数を使用する かについては、例えば、複数の出力ニューロンが送出する複数の出力値の平均値 を取り、及び/または、単一出力ニューロンどうし或いは出力値の平均値どうし の間の比を取るようにした関数等が考えられるが、その関数の種類は絶対的なも のではない。ただし、処理を簡明にするという観点からすれば、この関数は比較 的単純な、線形関数の範祷に含まれるものとするのが良く、また、入力の相違を 敏感に捉えて、それを出力に反映することのできる、充分な感受性を有する関数 とすべきである。
更に、以上においては説明を容易にするために、規模が小さく構成の簡明なニュ −−ラル・ネットワークを例に取って本発明を詳述した。しかしながらこのニュ ーラル・ネットワークは、その規模を拡張して、任意の個数のニューロンを含む ようにすることができ、また、その階層の層数も3層だけではなく、より多(の 層を含むようにすることができる。この点に関しては、特に、その中間階層を複 数の層から成るものとすることができる。更には、このニューラル・ネットワー クの中の互いに隣接していない階層の中に夫々が配置されているニューロンの間 を、適当な重みを付して結合するようにしても良い。そのようにした場合でも、 バックプロパゲーションを実行させる方式は、その全体として、先に説明した方 式と同様の方式とすることができ、また、バックプロパゲーションの実行の禁止 についても同様であって、即ち、実際のある入力データに関してニューラル・ネ ットワークの出力の信頼性指標値が低過ぎ、或いは高過ぎる場合には、その入力 データに関する、適応性再学習を阻止するという方式を採用することができる。
更には、以上の説明においては、本発明のニューラル・ネットワークは、ソフト ウェアで構成するものとし、また特に、集積回路のディジタル信号プロセッサを 使用するものとして説明したが、しかしながら、このニューラル・ネットワーク は、必要とあらば、アナログ回路によって構成することも、また、アナログとデ ィジタルを混合した回路によって構成することもでき、しかも容易にそのように 構成することのできるものである。
以上に本発明のニューラル・ネットワークの種々の実施例を示し且つ詳述してき たが、当業者であれば、このニューラル・ネットワークのその他の多くの異なっ た実施例を構成することも、また、本発明の教示を組み込んだニューラル・ネッ トワークを使用した種々のシステムを構成することも容易なことである。
産 の1 口 び効 本発明は、光学文字認識システム(OCRシステム)に利用可能であるのみなら ず、広く一般的に、ニューラル・ネットワークを用いてバタン認識を行なう、広 範な種々のシステムに利用可能なものである0本発明が、大きな利点をもって提 供するニューラル・ネットワークは、その動作を実際の動的に変化する入力デー タに適応させる際に、滑らかに、迅速に、且つ正確に適応させることができ、し かもそれを、従来技術においてこれまで可能であった以上の高速で行なうことが でき、それによって、ニューラル・ネットワークの認識作業の、作業速度、正確 度、及び生産性を向上させることができるものである。更には、本発明のニュー ラル・ネットワークは、学習用データの基礎データの全体を拡張して、実際の動 的に変化する入力文字を、その基礎データの中に包含することによって、従来公 知のニューラル・ネットワークにおいてこれまで行なわれていた動作と比較して 、より力強い動作が行なわれるようにするものである。
!−−−杓一一一豊 特に光学文字認識システム(OCRシステム)に用いるのに適したニューラル・ ネットワークのための装置、及びその装置に関連した方法であって、パックプロ パゲーションと、ニューロン重み及びニューロン・バイアス値の調節とを、出力 信頼性指標値を用いて制御することによって、ニューラル・ネットワークの応答 性を、実際の変化する入力データ(入力文字)に、滑らかに、迅速に、且つ正確 に適応させることができるようにしである。更に詳しくは、実際の未知の入力文 字を認識して得た文字のうち、その文字を認識したときの出力信頼性指標値が所 定の範囲内に位置していた入力文字を使用して、バタン認識作業の実行中に、ニ ューラル・ネットワークに適応のための再学習を行なわせている。更に、この再 学習を行なわせるときの出力信頼性指標値の範囲に上限を設定することによって 、入力文字がその初期学習用データから充分に変化していて、再学習を行なえば その結果としてニューラル・ネットワークが提供する認識正確度が顕著に上昇す る可能性が高いという場合にのみ、ニューラル・ネットワークの再学習が行なわ れるようにしている。出力信頼性の指標値としては、ニューラル・ネットワーク の複数の出力ニューロンが送出する出力値のうちの、最大の出力値と2番目に大 きな出力値との間の比の値を使用している。学習用データの基礎データの全体を 拡張して、実際の動的に変化している入力文字をその基礎データの中に包含する ようにしたため、本発明のニューラル・ネットワークは、従来公知のニューラル ・ネットワークにおいて、これまで行なわれていた動作と比較して、はるかに力 強い動作を行なうものとなっている。
国際調査報告 、、、A−1Ve PCT/us 911030031mww+le+slAw lks+jmNsPCT/US91103oo3国際調査報告

Claims (41)

    【特許請求の範囲】
  1. 1.未知の入力データの中に含まれている複数のパタンの存在を認識するための 装置において、 未知の入力データに応答して複数の出力値を発生するようにしたネットワーク手 段であって、発生したそれら複数の出力値が集合した全体によって、その未知の 入力データの中に存在している前記複数のパタンのうちの1つのパタンを同定す るようにしてあり、更に、複数の重み値を付与してある、前記ネットワーク手段 と、 制御信号と、前記所定パタンに関する前記複数の出力値及びそれら複数の出力値 に対応した複数の所定の出力目標値とに応答して、前記複数の重み値の各々の値 の変更量を決定し、更に、決定したその変更量に応答して、前記未知の入力デー タが前記ネットワーク手段へ供給されている状態で前記複数の重み値の各々の値 を調節して、前記未知の入力データに関して前記複数の出力値と前記複数の出力 目標値との間に生じる誤差を減少させるようにする決定/調節手段と、前記複数 の出力値に応答して、それら複数の出力値に関する信頼性指標値を判定する手段 と、 前記信頼性指標値に応答して前記制御信号を発生することによって、前記信頼性 指標値が充分な大きさの所定値であるときに、前記決定/調節手段をイネープル して前記変更量の決定と前記複数の重み値の調節とを行なわせ、それによって、 当該パタンが所定パタンからのずれを生じているときに当該パタンを認識するた めの学習を前記ネットワーク手段に行なわせる制御信号発生手段と、を備えたこ とを特徴とする装置。
  2. 2.前記ネットワーク手段が、互いに連結して階層構造を成している複数のニュ ーロンを有するネットワークを含んでおり、該ネットワークは、前記未知の入力 データに応答してその未知の入力データの中に含まれているパタンを認識すると 共に、その認識したパタンに応答して前記複数の出力値を発生するようにしてあ り、前記階層構造は、前記複数のニューロンのうちの異なった複数のニューロン から夫々形成した入力階層、中間階層、及び出力階層を備えており、且つ、前記 階層構造においては、前記複数のニューロンのうちの所定のペアを成すニューロ ンどうしを前記複数の重み値のうちの対応する1つの重み値を付与して相互連結 してあることを特徴とする請求項1の装置。
  3. 3.前記複数のニューロンの各々が、ニューロン出力とニューロン入力とを有し ていると共に、ニューロン入力の閾値関数としてニューロン出力値を発生するよ うにしてあり、且つ、前記中間階層中の複数のニューロン及び前記出力階層中の 複数のニューロンの各々が、 複数のニューロン入力信号に応答し、それら複数のニューロン入力信号の各々に 、前記複数の重み値のうちの対応した1つの重み値を乗じることによって、複数 の重み付けニューロン入力信号を形成する手段と、前記複数の重み付けニューロ ン入力信号に応答し、それら複数の重み付けニューロン入力信号の合計値である 、重み付け合計値を形成する手段と、前記重み付け合計値に対して、所定の連続 國値関数を用いて、國値処理を施すことによって、前記ニューロン出力を発生す る手段と、を含んでいることを特徴とする請求項2の装置。
  4. 4.前記未知の入力データは複数の入力値から構成されており、それら複数の入 力値の各々を、前記入力階層中の複数のニューロンのうちの互いに異なった、そ してその入力値に対応した1つのニューロンヘ、そのニューロン入力信号として 供給するようにしてあり、且つ、前記複数の出力値は、それらが集合した全体が 、前記出力階層中の複数のニューロンの全てが発生するニューロン出力値によっ て形成されていることを特徴とする請求項3の装置。
  5. 5.前記入力階層中の複数のニューロンのうちの各ニューロンのニューロン出力 を、前記中間階層中の複数のニューロンのうちの各ニューロンの複数のニューロ ン入力のうちの1つのニューロン入力に接続してあり、且つ、前記中間階層中の 複数のニューロンのうちの各ニューロンのニューロン出力を、前記出力階層中の 複数のニューロンのうちの各ニューロンの複数のニューロン入力のうちの1つの ニューロン入力に接続してあることを特徴とする請求項4の装置。
  6. 6.前記未知の入力データは、所定個数のピクセルから成るビットマップであり 、それら各ピクセルの値を、前記入力階層中の複数のニューロンのうちの互いに 異なった、そしてそのピクセルに対応した1つのニューロンヘ、そのニューロン 入力として供給するようにしてあることを特徴とする請求項5の装置。
  7. 7.前記連続國値関数をシグモイド関数としてあることを特徴とする請求項3の 装置。
  8. 8.前記重み付け合計値が、前記複数の重み付けニューロン入力信号に加えて更 にバイアス値を含んでおり、更に、前記決定/調節手段が、前記複数の出力値と それら複数の出力値に対応した前記複数の所定の出力目標値とに応答して、前記 複数のニューロンの各々に関連したバイアス値の変更量を決定し、更に、決定し たその変更量に応答して、前記未知の入力データが前記ネットワーク手段へ供給 されている状態で前記バイアス値を変更して、前記誤差を減少させるようにして あることを特徴とする請求項3の装置。
  9. 9.前記制御信号発生手段が、前記信頼性指標値の値か所定領域内にあるときに 、前記決定/調節手段をイネーブルするようにしてあることを特徴とする請求項 1の装置。
  10. 10.学習手段を備え、該学習手段は、所定の既知の入力パタンに応答するよう にしてあり、該学習手段には、複数の所定のニューロン出力値を関連付けてあり 、該学習手段は、前記既知のパタンを前記未知の入力データとして、また、前記 複数の所定のニューロン出力値を前記複数の出力目標値として、それらを互いに 同時に供給するものであり、更に該学習手段は、前記決定/調節手段をイネープ ルして前記変更量の決定と前記重み値の調節とを行なわせることにより、前記複 数の出力値と前記複数の出力目標値との間に生じる誤差を減少させ、それによっ て前記ネットワーク手段に、前記未知の入力データの中に含まれている前記既知 のパタンを初期認識するための学習を行なわせるものであることを特徴とする請 求項1の装置。
  11. 11.前記学習手段が、予め定めてある複数の所定の既知の入力パタンを前記未 知の入力データとして、それら複数の所定の既知の入力パタンに関連付けて予め 定めてある複数の所定のニューロン出力値を前記複数の所定の出力目標値として 供給するのと同時に、連続して次々と供給するようにしてあり、更に、該学習手 段が、前記決定/調節手段をイネーブルして前記変更量の決定と前記重み値の調 節とを行なわせることにより、前記複数の既知の入力パタンの各々に関して前記 複数の出力値と前記複数の出力目標値との間に生じる前記誤差を減少させるよう にし、それによって前記ネットワーク手段に、前記未知の入力データの中に含ま れている前記複数の既知のパタンの各々を初期認識するための学習を行なわせる ようにしてあることを特徴とする請求項10の装置。
  12. 12.前記ネットワーク手段に更に複数のバイアス値を付与してあり、且つ、前 記決定/調節手段が、前記複数の出力値とそれら複数の出力値に対応した前記所 定の複数の出力目標値とに応答して、前記複数の重み値並びに前記複数のバイア ス値の変更量を決定し、更に、決定したその変更量に応答して、前記未知の入力 データが前記ネットワーク手段へ供給されている状態で前記複数の重み値並びに 前記複数のバイアス値を調節することにより、前記複数の既知の入力パタンの各 々に関して前記複数の出力値と前記複数の出力目標値との間に生じる前記誤差を 減少させるようにしてあることを特徴とする請求項11の装置。
  13. 13.前記ネットワーク手段が、互いに連結して階層構造を成している複数のニ ューロンを有するネットワークを含んでおり、該ネットワークは、前記未知の入 力データに応答してその未知の入力データの中に含まれているパタンを認識する と共に、その認識したパタンに応答して前記複数の出力値を発生するようにして あり、前記階層構造は、前記複数のニューロンのうちの異なった複数のニューロ ンから夫々形成した入力階層、中間階層、及び出力階層を備えており、且つ、前 記階層構造においては、前記複数のニューロンのうちの所定のペアを成すニュー ロンどうしを、前記複数の重み値のうちの対応する1つの重み値を付与して相互 連結してあり、更に、前記複数のニューロンの各々は、ニューロン出力とニュー ロン入力とを有していると共に、ニューロン入力の閾値関数としてニューロン出 力値を発生するようにしてあり、更に、前記中間階層中の複数のニューロン及び 前記出力階層中の複数のニューロンの各々が、複数のニューロン入力信号に応答 し、それら複数のニューロン入力信号の各々に、前記複数の重み値のうちの対応 した1つの重み値を乗じることによって、複数の重み付けニューロン入力信号を 形成する手段と、前記複数の重み付けニューロン入力信号と、前記複数のバイア ス値のうちの当該ニューロンに関連したバイアス値とに応答して、前記複数の重 み付けニューロン入力信号と、当該ニューロンに関連した当該バイアス値との合 計値である、重み付け合計値を形成する手段と、 前記重み付け合計値に対して、所定のシグモイド関数を用いて、閾値処理を施す ことによって、前記ニューロン出力を発生する手段と、を含んでいることを特徴 とする請求項12の装置。
  14. 14.光学文字読取機における、未知のビットマップ形式の入力データの中に含 まれている複数のビットマップ形式の英数字の文字パタンの存在を認識するため の装置において、 未知のビットマップ入力データに応答して複数の出力値を発生するようにしたネ ットワーク手段であって、発生したそれら複数の出力値が集合した全体によって 、その未知のビットマップ入力データの中に存在している前記複数のビットマッ プ・パタンのうちの1つのビットマップ・パタンを同定するようにしてあり、更 に、複数の重み値を付与してある、前記ネットワーク手段と、制御信号と、前記 所定のビットマップ・パタンに関する前記複数の出力値及びそれら複数の出力値 に対応した複数の所定の出力目標値とに応答して、前記複数の重み値の各々の値 の変更量を決定し、更に、決定したその変更量に応答して、前記未知のビットマ ップ入力データが前記ネットワーク手段へ供給されている状態で前記複数の重み 値の各々の値を調節して、前記未知のビットマップ入力データに関して前記複数 の出力値と前記複数の出力目標値との間に生じる誤差を減少させるようにする決 定/調節手段と、 前記複数の出力値に応答して、それら複数の出力値に関する信頼性指標値を判定 する手段と、 前記信頼性指標値に応答して前記制御信号を発生することによって、前記信頼性 指標値が充分な大きさの所定値であるときに前記決定/調節手段をイネーブルし て前記変更量の決定と前記複数の重み値の調節とを行なわせ、それによって、当 該ビットマップ・パタンが、当該ビットマップ・パタンに対応した英数字の文字 の所定のビットマップ・パタンからのずれを生じているときに、当該ビットマッ プ・パタンを認識するための学習を前記ネットワーク手段に行なわせる制御信号 発生手段と、 を備えたことを特徴とする装置。
  15. 15.前記ネットワーク手段が、互いに連結して階層構造を成している複数のニ ューロンを有するネットワークを含んでおり、該ネットワークは、前記未知の入 力データに応答してその未知の入力データの中に含まれているビットマップ・パ タンを認識すると共に、その認識したビットマップ・パタンに応答して前記複数 の出力値を発生するようにしてあり、前記階層構造は、前記複数のニューロンの うちの異なった複数のニューロンから夫々形成した入力階層、中間階層、及び出 力階層を備えており、且つ、前記階層構造においては、前記複数のニューロンの うちの所定のペアを成すニューロンどうしを、前記複数の重み値のうちの対応す る1つの重み値を付与して相互連結してあり、更に、前記複数のニューロンの各 々は、ニューロン出力とニューロン入力とを有していると共に、ニューロン入力 の閾値関数としてニューロン出力値を発生するようにしてあり、更に、前記中間 階層中の複数のニューロン及び前記出力階層中の複数のニューロンの各々が、 複数のニューロン入力信号に応答し、それら複数のニューロン入力信号の各々に 、前記複数の重み値のうちの対応した1つの重み値を乗じることによって、複数 の重み付けニューロン入力信号を形成する手段と、前記複数の重み付けニューロ ン入力信号に応答し、それら複数の重み付けニューロン入力信号の合計値である 、重み付け合計値を形成する手段と、前記重み付け合計値に対して、所定の連続 國値関数を用いて、國値処理を施すことによって、前記ニューロン出力を発生す る手段と、を含んでいることを特徴とする請求項14の装置。
  16. 16.入力ビットマップの中に含まれている各ピクセルの値を、前記入力階層中 の複数のニューロンのうちの、互いに異なった、そしてそのピクセルに対応した 1つのニューロンヘ、そのニューロン入力として供給するようにしてあり、且つ 、前記複数の出力値は、それらが集合した全体が、前記出力階層中の複数のニュ ーロンの全てが発生するニューロン出力値によって形成されていることを特徴と する請求項15の装置。
  17. 17.前記制御信号発生手段が、前記信頼性指標値の値が所定領域内にあるとき に、前記決定/調節手段をイネーブルするようにしてあることを特徴とする請求 項16の装置。
  18. 18.学習手段を備え、該学習手段は、既知の英数字の文字に対応させて予め定 めてある所定の既知のビットマップ・パタンに応答するようにしてあり、該学習 手段には、複数の所定のニューロン出力値を関連付けてあり、該学習手段は、前 記既知のビットマップ・パタンを前記未知のビットマップの入力データとして、 また、前記複数の所定のニューロン出力値を前記複数の出力目標値として、それ らを互いに同時に供結するものであり、更に該学習手段は、前記決定/調節手段 をイネーブルして前記変更量の決定と前記重み値の調節とを行なわせることによ り、前記複数の出力値と前記複数の出力目標値との間に生じる誤差を減少させる ようにし、それによって前記ネットワーク手段に、前記未知の入力データの中に 含まれている前記既知の文字を初期認識するための学習を行なわせるものである ことを特徴とする請求項17の装置。
  19. 19.前記学習手段が、複数の既知の英数字の文字に対応させて予め定めてある 複数の所定のビットマップ・パタンを前記未知のビットマップの入力データとし て、それら複数の所定のビットマップ・パタンに関連させて予め定めてある複数 の所定のニューロン出力値を前記複数の所定の出力目標値として供給するのと同 時に、連続して次々と供給するようにしてあり、更に、該学習手段が、前記決定 /調節手段をイネーブルして前記変更量の決定と前記重み値の値の調節とを行な わせることにより、前記複数の既知のビットマップ・パタンの各々に関して前記 複数の出力値と前記複数の出力目標値との間に生じる前記誤差を減少させるよう にし、それによって前記ネットワーク手段に、前記未知の入力データの中に含ま れている前記既知の文字の各々を初期認識するための学習を行なわせるようにし てあることを特徴とする請求項18の装置。
  20. 20.前記ネットワーク手段に更に複数のバイアス値を付与してあり、且つ、前 記決定/調節手段が、前記複数の出力値とそれら複数の出力値に対応した前記所 定の複数の出力目標値とに応答して、前記複数の重み値並びに前記複数のバイア ス値の変更量を決定し、更に、決定したその変更量に応答して、前記未知の入力 ビットマップ・データが前記ネットワーク手段へ供給されている状態で前記複数 の重み値並びに前記複数のバイアス値を調節することにより、前記複数の既知の 文字の各々に関して前記複数の出力値と前記複数の出力目標値との間に生じる前 記誤差を減少させるようにしてあることを特徴とする請求項19の装置。
  21. 21.未知の入力データの中に含まれている複数のパタンの存在を認識するため の方法において、 未知の入力データに応答して、且つ、複数の重み値を付与してあるネットワーク を介して、複数の出力値を発生し、しかも発生するそれら複数の出力値は、それ ら出力値が集合した全体によって、前記未知の入力データの中に存在している前 記複数のパタンのうちの1つのパタンを同定するものである、出力値発生ステッ プと、 制御信号と、前記所定のパタンに関する前記複数の出力値及びそれら複数の出力 値に対応した複数の所定の出力目標値とに応答して、前記複数の重み値の各々の 値の変更量を決定し、更に、決定したその変更量に応答して、前記未知の入力デ ータが前記ネットワークへ供給されている状態で前記複数の重み値の各々の値を 調節して、前記未知の入力データに関して前記複数の出力値と前記複数の出力目 標値との間に生じる誤差を減少させるようにする、決定/調節ステップと、前記 複数の出力値に応答して、それら複数の出力値に関する信頼性指標値を判定する ステップと、 前記信頼性指標値に応答して前記制御信号を発生することによって、前記信頼性 指標値が充分な大きさの所定値であるときに、前記決定/調節ステップをイネー ブルして前記変更量の決定と前記複数の重み値の調節とを行なわせ、それによっ て、当該パタンが所定パタンからのずれを生じているときに当該パタンを認識す るための学習を前記ネットワークに行なわせる、制御信号発生ステップと、を含 んでいることを特徴とする方法。
  22. 22.前記ネットワークが、互いに連結して階層構造を成している複数のニュー ロンを有しており、該ネットワークは,前記未知の入力データに応答してその未 知の入力データの中に含まれているパタンを認識すると共に、その認識したパタ ンに応答して前記複数の出力値を発生するものであり、前記階層構造は、前記複 数のニューロンのうちの異なった複数のニューロンから夫々形成した入力階層、 中間階層、及び出力階層を備えており、且つ、前記階層構造においては、前記複 数のニューロンのうちの所定のペアを成すニューロンどうしを、前記複数の重み 値のうちの対応する1つの重み値を付与して相互連結してあり、更に、前記複数 のニューロンの各々は、ニューロン出力とニューロン入力とを有していると共に 、ニューロン入力の闇値関数としてニューロン出力値を発生するようにしてあり 、更に、前記中間階層中の複数のニューロン及び前記出力階層中の複数のニュー ロンの各々の中において実行するステップであって、複数のニューロン入力信号 に応答し、それら複数のニューロン入力信号の各々に、前記複数の重み値のうち の対応した1つの重み値を乗じることによって、複数の重み付けニューロン入力 信号を形成するステップと、前記複数の重み付けニューロン入力信号に応答し、 それら複数の重み付けニューロン入力信号の合計値である、重み付け合計値を形 成するステップと、前記重み付け合計値に対して、所定のシグモイド関数を用い て、國値処理を施すことによって、前記ニューロン出力を発生するステップと、 を含んでいることを特徴とする請求項21の方法。
  23. 23.前記未知の入力データは複数の入力値から構成されており、前記方法が更 に、 それら複数の入力値の各々を、前記入力階層中の複数のニューロンのうちの互い に異なった、そしてその入力値に対応した1つのニューロンヘ、そのニューロン 入力信号として供給するステップと、前記複数の出力値の集合した全体を、前記 出力階層中の複数のニューロンの全てが発生するニューロン出力値によって形成 するステップと、を含んでいることを特徴とする請求項22の方法。
  24. 24.前記重み付け合計値が、前記複数の重み付けニューロン入力信号に加えて 更にバイアス値を含んでおり、前記決定/調節ステップが更に、前記複数の出力 値とそれら複数の出力値に対応した前記複数の所定の出力目標値とに応答して、 前記複数のニューロンの各々に関連したバイアス値の変更量を決定し、更に、決 定したその変更量に応答して、前記未知の入力データが前記ネットワークへ供給 されている状態で前記バイアス値を変更して、前記誤差を減少させるようにする ステップ、 を含んでいることを特徴とする請求項23の方法。
  25. 25.前記制御信号発生ステップが更に、前記信頼性指標値の値が所定領域内に あるときに、前記決定/調節ステップをイネーブルするステップを含んでいるこ とを特徴とする請求項22の方法。
  26. 26.既知の入力パタンに対応させて予め定めてあり、且つ、複数の所定のニュ ーロン出力値を関連付けてある、所定のパタンに応答して、前記ネットワークに 学習をさせる、学習ステップを含んでおり、該学習ステップが、前記所定のパタ ンを前記未知の入力データとして、また、前記複数の所定のニューロン出力値を 前記複数の出力目標値として、それらを互いに同時に供給するステップと、 前記決定/調節ステップをイネーブルして前記変更量の決定と前記重み値の調節 とを行なわせることにより、前記複数の出力値と前記複数の出力目標値との間に 生じる誤差を減少させ、それによって前記ネットワークに、前記未知の入力デー タの中に含まれている前記既知のパタンを初期認識するための学習を行なわせる ステップと、 を含んでいることを特徴とする請求項22の方法。
  27. 27.前記学習ステップが更に、 複数の既知の入力パタンに対応させて予め定めてある複数の所定のパタンの各々 を前記未知の入力データとして、それら複数の所定の既知の入力パタンに関連付 けて予め定めてある複数の所定のニューロン出力値を前記複数の所定の出力目標 値として供給するのと同時に、連続して次々と供給するステップと、前記決定/ 調節ステップをイネーブルして前記変更量の決定と前記重み値の調節とを行なわ せることにより、前記複数の学習用パタンの各々に関して前記複数の出力値と前 記複数の出力目標値との間に生じる前記誤差を減少させるようにし、それによっ て前記ネットワークに、前記未知の入力データの中に含まれている前記複数の既 知のパタンの各々を初期認識するための学習を行なわせるステップと、 を含んでいることを特徴とする請求項26の方法。
  28. 28.前記ネットワークに更に複数のバイアス値を付与してあり、且つ、前記決 定/調節ステップが更に、 前記複数の出力値とそれら複数の出力値に対応した前記所定の複数の出力目標値 とに応答して、前記複数の重み値並びに前記複数のバイアス値の変更量を決定し 、更に、決定したその変更量に応答して、前記未知の入力データが前記ネットワ ークへ供給されている状態で前記複数の重み値並びに前記複数のバイアス値を調 節することにより、前記複数の既知の入力パタンの各々に関して前記複数の出力 値と前記複数の出力目標値との間に生じる前記誤差を減少させるようにするステ ップ、 を含んでいることを特徴とする請求項27の方法。
  29. 29.光学文字読取機における、未知のビットマップ形式の入力データの中に含 まれている複数のビットマップ形式の英数字の文字パタンの存在を認識するため の方法において、 未知のビットマップ入力データに応答して、且つ、複数の重み値を付与してある ネットワークを介して、複数の出力値を発生し、しかも発生するそれら複数の出 力値は、それら出力値が集合した全体によって、前記未知のビットマップ入力デ ータの中に存在している前記複数のビットマップ・パタンのうちの1つのビット マップ・パタンを同定するものである、出力値発生ステップと、制御信号と、前 記所定のビットマップ・パタンに関する前記複数の出力値及びそれら複数の出力 値に対応した複数の所定の出力目標値とに応答して、前記複数の重み値の各々の 値の変更量を決定し、更に、決定したその変更量に応答して、前記未知のビット マップ入力データが前記ネットワークへ供給されている状態で前記複数の重み値 の各々の値を調節して、前記未知のビットマップ入力データに関して前記複数の 出力値と前記複数の出力目標値との間に生じる誤差を減少させるようにする、決 定/調節ステップと、前記複数の出力値に応答して、それら複数の出力値に関す る信頼性指標値を判定するステップと、 前記信頼性指標値に応答して前記制御信号を発生することによって、前記信頼性 指標値が充分な大きさの所定値であるときに、前記決定/調節ステップをイネー ブルして前記変更量の決定と前記複数の重み値の調節とを行なわせ、それによっ て、当該ビットマップ・パタンが、当該ビットマップ・パタンに対応した英数字 の文字の所定のビットマップ・パタンからのずれを生じているときに、当該ビッ トマップ・パタンを認識するための学習を前記ネットワークに行なわせる、制御 信号発生ステップと、 を含んでいることを特徴とする方法。
  30. 30.前記ネットワークが、互いに連結して階層構造を成している複数のニュー ロンを有しており、該ネットワークは、前記未知の入力データに応答してその未 知の入力データの中に含まれているパタンを認識すると共に、その認識したパタ ンに応答して前記複数の出力値を発生するものであり、前記階層構造は、前記複 数のニューロンのうちの異なった複数のニューロンから夫々形成した入力階層、 中間階層、及び出力階層を備えており、且つ、前記階層構造においては、前記複 数のニューロンのうちの所定のペアを成すニューロンどうしを、前記複数の重み 値のうちの対応する1つの重み値を付与して相互連結してあり、更に、前記複数 のニューロンの各々は、ニューロン出力とニューロン入力とを有していると共に 、ニューロン入力の國値関数としてニューロン出力値を発生するようにしてあり 、更に、前記中間階層中の複数のニューロン及び前記出力階層中の複数のニュー ロンの各々の中において実行するステップであって、複数のニューロン入力信号 に応答し、それら複数のニューロン入力信号の各々に、前記複数の重み値のうち の対応した1つの重み値を乗じることによって、複数の重み付けニューロン入力 信号を形成するステップと、前記複数の重み付けニューロン入力信号に応答し、 それら複数の重み付けニューロン入力信号の合計値である、重み付け合計値を形 成するステップと、前記重み付け合計値に対して、所定の関数を用いて、國値処 理を施すことによって、前記ニューロン出力を発生するステップと、を含んでい ることを特徴とする請求項29の方法。
  31. 31.入力ビットマップの中に含まれている各ピクセルの値を、前記入力階層中 の複数のニューロンのうちの、互いに異なった、そしてそのピクセルに対応した 1つのニューロンヘ、そのニューロン入力信号として供給するステップと、前記 複数の出力値の集合した全体を、前記出力階層中の複数のニューロンの全てが発 生するニューロン出力値によって形成するステップと、を含んでいることを特徴 とする請求項30の方法。
  32. 32.前記制御信号発生ステップが便に、前記信頼性指標値の値が所定領域内に あるときに、前記決定/調節ステップをイネーブルするステップを含んでいるこ とを特徴とする請求項31の方法。
  33. 33.英数字の文字の既知のパタンに対応させて予め定めてあり、且つ、複数の 所定のニューロン出力値を関連付けてある、所定のパタンに応答して、前記ネッ トワークに学習をさせる、学習ステップを含んでおり、該学習ステップが、前記 所定のパタンを前記未知の入力データとして、また、前記複数の所定のニューロ ン出力値を前記複数の出力目標値として、それらを互いに同時に供給するステッ プと、 前記決定/調節ステップをイネーブルして前記変更量の決定と前記重み値の調節 とを行なわせることにより、前記複数の出力値と前記複数の出力目標値との間に 生じる誤差を減少させ、それによって前記ネットワークに、前記未知のビットマ ップ入力データの中に含まれている前記既知のパタンを初期認識するための学習 を行なわせるステップと、 を含んでいることを特徴とする請求項32の方法。
  34. 34.前記学習ステップが更に、 複数の既知の入力パタンに対応させて予め定めてある複数の所定の学習用パタン の各々を前記未知の入力データとして、それら複数の所定の既知の入力パタンに 関連付けて予め定めてある複数の所定のニューロン出力値を前記複数の所定の出 力目標値として供給するのと同時に、連続して次々と供給するステップと、前記 決定/調節ステップをイネーブルして前記変更量の決定と前記重み値の調節とを 行なわせることにより、前記複数の学習用パタンの各々に関して前記複数の出力 値と前記複数の出力目標値との間に生じる前記誤差を減少させるようにし、それ によって前記ネットワークに、前記未知の入力データの中に含まれている前記複 数の既知のパタンの各々を初期認識するための学習を行なわせるステップと、 を含んでいることを特徴とする請求項33の方法。
  35. 35.前記ネットワークに更に複数のバイアス値を付与してあり、且つ、前記決 定/調節ステップが更に、 前記複数の出力値とそれら複数の出力値に対応した前記所定の複数の出力目標値 とに応答して、前記複数の重み値並びに前記複数のバイアス値の変更量を決定し 、更に、決定したその変更量に応答して、前記未知の入力データが前記ネットワ ークへ供給されている状態で前記複数の重み値並びに前記複数のバイアス値を調 節することにより、前記複数の既知の入力パタンの各々に関して前記複数の出力 値と前記複数の出力目標値との間に生じる前記誤差を減少させるようにするステ ップ、 を含んでいることを特徴とする請求項34の方法。
  36. 36.光学文字読取機における、未知のビットマップ形式の入力データの中に含 まれている複数のビットマップ形式の英数字の文字パタンの存在を認識するため の方法において、 パタン認識処理手順におけるステップとして、未知のビットマップ入力データに 応答して、且つ、複数の重み値を付与してあるネットワークを介して、複数の出 力値を発生し、しかも発生するそれら複数の出力値は、それら出力値が集合した 全体によって、前記未知のビットマップ入力データの中に存在している前記複数 のビットマップ・パタンのうちの1つのビットマップ・パタンを同定するもので ある、出力値発生ステップと、制御信号と、前記所定のビットマップ・パタンに 関する前記複数の出力値及びそれら複数の出力値に対応した複数の所定の出力目 標値とに応答して、前記複数の重み値の各々の値の変更量を決定し、更に、決定 したその変更量に応答して、前記未知のビットマップ入力データが前記ネットワ ークへ供給されている状態で前記複数の重み値の各々の値を調節して、前記未知 のビットマップ入力データに関して前記複数の出力値と前記複数の出力目標値と の間に生じる誤差を減少させるようにする、決定/調節ステップと、前記複数の 出力値に応答して、それら複数の出力値に関する信頼性指標値を判定するステッ プと、 前記信頼性指標値に応答して前記制御信号を発生することによって、前記信頼性 指標値が充分な大きさの所定値であるときに、前記決定/調節ステップをイネー ブルして前記変更量の決定と前記複数の重み値の調節とを行なわせ、それによっ て、当該ビットマップ・パタンが、当該ビットマップ・パタンに対応した英数字 の文字の所定のビットマップ・パタンからのずれを生じているときに、当該ビッ トマップ・パタンを認識するための学習を前記ネットワークに行なわせる、制御 信号発生ステップと、 を含んでおり、更に、 学習処理手順におけるステップとして、英数字の文字に対応させて予め定めてあ る所定のビットマップ・パタンを前記未知の入力データとして、また、その所定 のビットマップ・パタンに対応させて予め定めてある複数の所定のニューロン出 力値を前記複数の出力目標値として、夫々に供給するステップと, 前記決定/調節ステップをイネーブルして前記変更量の決定と前記重み値の調節 とを行なわせることにより、前記複数の出力値と前記複数の出力目標値との間に 生じる誤差を減少させ、それによって前記ネットワークに、前記未知のビットマ ップ入力データの中に含まれている前記既知のパタンを初期認識するための学習 を行なわせるステップと、 を含んでおり、更に、 前記学習処理手順の実行の後に、前記パタン認識処理手順を実行する、ことを特 徴とする方法。
  37. 37.前記ネットワークが、互いに連結して階層構造を成している複数のニュー ロンを有しており、該ネットワークは、前記未知の入力データに応答してその未 知の入力データの中に含まれているパタンを認識すると共に、その認識したパタ ンに応答して前記複数の出力値を発生するものであり、前記階層構造は、前記複 数のニューロンのうちの異なった複数のニューロンから夫々形成した入力階層、 中間階層、及び出力階層を備えており、且つ、前記階層構造においては、前記複 数のニューロンのうちの所定のペアを成すニューロンどうしを、前記複数の重み 値のうちの対応する1つの重み値を付与して相互連結してあり、更に、前記複数 のニューロンの各々は、ニューロン出力とニューロン入力とを有していると共に 、ニューロン入力の國値関数としてニューロン出力値を発生するようにしてあり 、更に、前記中間階層中の複数のニューロン及び前記出力階層中の複数のニュー ロンの各々の中において実行するステップであって、複数のニューロン入力信号 に応答し、それら複数のニューロン入力信号の各々に、前記複数の重み値のうち の対応した1つの重み値を乗じることによって、複数の重み付けニューロン入力 信号を形成するステップと、前記複数の重み付けニューロン入力信号に応答し、 それら複数の重み付けニューロン入力信号の合計値である、重み付け合計値を形 成するステップと、前記重み付け合計値に対して、所定のシグモイド関数を用い て、閾値処理を施すことによって、前記ニューロン出力を発生するステップと、 を含んでいることを特徴とする請求項36の方法。
  38. 38.前記未知の入力データは複数の入力値から構成されており、前記方法が更 に、 それら複数の入力値の各々を、前記入力階層中の複数のニューロンのうちの互い に異なった、そしてその入力値に対応した1つのニューロンヘ、そのニューロン 入力信号として供給するステップと、前記複数の出力値の集合した全体を、前記 出力階層中の複数のニューロンの全てが発生するニューロン出力値によって形成 するステップと、を含んでいることを特徴とする請求項37の方法。
  39. 39.前記重み付け合計値が、前記複数の重み付けニューロン入力信号に加えて 更にバイアス値を含んでおり、前記決定/調節ステップが更に、前記複数の出力 値とそれら複数の出力値に対応した前記複数の所定の出力目標値とに応答して、 前記複数のニューロンの各々に関連したバイアス値の変更量を決定し、更に、決 定したその変更量に応答して、前記未知の入力データが前記ネットワークへ供給 されている状態で前記バイアス値を変更して、前記誤差を減少させるようにする ステップ、 を含んでいることを特徴とする請求項38の方法。
  40. 40.前記制御信号発生ステップが更に、前記信頼性指標値の値が所定領域内に あるときに、前記決定/調節ステップをイネーブルするステップを含んでいるこ とを特徴とする請求項36の方法。
  41. 41.認識処理を施している入力書類の各々のページに対して前記パタン認識処 理を2同ずつ連続して実行することによって、当該ページの認識正確度を向上さ せるようにしたことを特徴とする請求項36の方法。
JP91509233A 1990-05-07 1991-05-01 出力信頼性指標値を用いてバックプロパゲーションを制御するようにしたニューラル・ネットワーク Pending JPH05507804A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US07/520,334 US5052043A (en) 1990-05-07 1990-05-07 Neural network with back propagation controlled through an output confidence measure
US520,334 1990-05-07
PCT/US1991/003003 WO1991017520A1 (en) 1990-05-07 1991-05-01 Neural network with back propagation controlled through an output confidence measure

Publications (1)

Publication Number Publication Date
JPH05507804A true JPH05507804A (ja) 1993-11-04

Family

ID=24072156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP91509233A Pending JPH05507804A (ja) 1990-05-07 1991-05-01 出力信頼性指標値を用いてバックプロパゲーションを制御するようにしたニューラル・ネットワーク

Country Status (4)

Country Link
US (1) US5052043A (ja)
EP (1) EP0527895A1 (ja)
JP (1) JPH05507804A (ja)
WO (1) WO1991017520A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020196066A1 (ja) * 2019-03-28 2020-10-01 国立大学法人京都大学 ニューラルネットワークの学習方法、ニューラルネットワークの生成方法、学習済装置、携帯端末装置、学習処理装置及びコンピュータプログラム

Families Citing this family (149)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5086479A (en) * 1989-06-30 1992-02-04 Hitachi, Ltd. Information processing system using neural network learning function
US5321771A (en) * 1989-10-03 1994-06-14 Thomson-Csf Method and device for automatic image segmentation by textural analysis
US5644681A (en) * 1989-12-18 1997-07-01 Mitsubishi Denki Kabushiki Kaisha Learning method for neural network having discrete interconnection strengths
JPH07104952B2 (ja) * 1989-12-28 1995-11-13 シャープ株式会社 パターンマッチング装置
US5402521A (en) * 1990-02-28 1995-03-28 Chiyoda Corporation Method for recognition of abnormal conditions using neural networks
JPH03288285A (ja) * 1990-04-04 1991-12-18 Takayama:Kk データ処理装置の学習方法
US5630018A (en) * 1990-04-09 1997-05-13 Matsushita Electric Industrial Co., Ltd. Fuzzy inference device using neural network
US5265224A (en) * 1990-05-16 1993-11-23 Matsushita Electric Industrial Co., Ltd. Recognition unit and recognizing and judging apparatus employing same
WO1991019267A1 (en) * 1990-06-06 1991-12-12 Hughes Aircraft Company Neural network processor
JP2991779B2 (ja) * 1990-06-11 1999-12-20 株式会社リコー 文字認識方法及び装置
US5796410A (en) * 1990-06-12 1998-08-18 Lucent Technologies Inc. Generation and use of defective images in image analysis
GB2246895B (en) * 1990-07-12 1994-03-30 Mitsubishi Electric Corp Neural network system
US5212765A (en) * 1990-08-03 1993-05-18 E. I. Du Pont De Nemours & Co., Inc. On-line training neural network system for process control
JPH056356A (ja) * 1990-11-20 1993-01-14 Ricoh Co Ltd 信号処理方法及びその装置
JP3088171B2 (ja) * 1991-02-12 2000-09-18 三菱電機株式会社 自己組織型パタ−ン分類システム及び分類方法
US5634087A (en) * 1991-02-28 1997-05-27 Rutgers University Rapidly trainable neural tree network
US5329594A (en) * 1991-03-06 1994-07-12 Matsushita Electric Industrial Co., Ltd. Recognizing and judging apparatus
US5157275A (en) * 1991-03-22 1992-10-20 Ricoh Corporation Circuit employing logical gates for calculating activation function derivatives on stochastically-encoded signals
JPH05346970A (ja) * 1991-04-04 1993-12-27 Fuji Xerox Co Ltd 文書認識装置
JPH06509670A (ja) * 1991-04-29 1994-10-27 インテル・コーポレーション 差分ニューロンを包含したニューラルネットワーク
IT1245954B (it) * 1991-05-07 1994-11-07 Texas Instruments Italia Spa Metodo per accelerare la convergenza dell'algoritmo di back-propagation applicato per realizzare il processo di apprendimento in una rete neuronica del tipo perceptron multistrato
US5671335A (en) * 1991-05-23 1997-09-23 Allen-Bradley Company, Inc. Process optimization using a neural network
JPH0683792A (ja) * 1991-06-12 1994-03-25 Hitachi Ltd ニューラルネットワークの学習装置およびニューラルネットワークの学習パターン呈示方法
US5485545A (en) * 1991-06-20 1996-01-16 Mitsubishi Denki Kabushiki Kaisha Control method using neural networks and a voltage/reactive-power controller for a power system using the control method
US5179596A (en) * 1991-07-05 1993-01-12 Booz, Allen & Hamilton, Inc. Analog pattern categorization system having dual weighted connectivity between nodes
US5493688A (en) * 1991-07-05 1996-02-20 Booz, Allen & Hamilton, Inc. Pattern categoritzation system having self-organizing analog fields
US5438644A (en) * 1991-09-09 1995-08-01 University Of Florida Translation of a neural network into a rule-based expert system
US5335291A (en) * 1991-09-20 1994-08-02 Massachusetts Institute Of Technology Method and apparatus for pattern mapping system with self-reliability check
US5594597A (en) * 1991-11-01 1997-01-14 Iomega Corporation Neural network disk drive read channel pattern detector
JP2978615B2 (ja) * 1991-11-21 1999-11-15 支朗 臼井 カラーバランス調整装置及び方法
US5299269A (en) * 1991-12-20 1994-03-29 Eastman Kodak Company Character segmentation using an associative memory for optical character recognition
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US5361326A (en) * 1991-12-31 1994-11-01 International Business Machines Corporation Enhanced interface for a neural network engine
US5251286A (en) * 1992-03-16 1993-10-05 Texaco, Inc. Method for estimating formation permeability from wireline logs using neural networks
KR0131754B1 (en) * 1992-03-19 1998-04-24 Fujitsu Ltd Neuro processing service system
WO1993019426A1 (en) * 1992-03-25 1993-09-30 Western Mining Corporation Limited Method of detecting and mapping minerals and other geological phenomena utilizing airborne imaging spectrometers
US5371809A (en) * 1992-03-30 1994-12-06 Desieno; Duane D. Neural network for improved classification of patterns which adds a best performing trial branch node to the network
US5442715A (en) * 1992-04-06 1995-08-15 Eastman Kodak Company Method and apparatus for cursive script recognition
EP0566015A3 (en) * 1992-04-14 1994-07-06 Eastman Kodak Co Neural network optical character recognition system and method for classifying characters in amoving web
US5479572A (en) * 1992-06-17 1995-12-26 Siemens Corporate Research, Inc. Artificial neural network (ANN) classifier apparatus for selecting related computer routines and methods
US5428710A (en) * 1992-06-29 1995-06-27 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Fast temporal neural learning using teacher forcing
GB9217890D0 (en) * 1992-08-21 1992-10-07 British Nuclear Fuels Plc Apparatus for pulsed electrical power circuitry
JP2723118B2 (ja) * 1992-08-31 1998-03-09 インターナショナル・ビジネス・マシーンズ・コーポレイション 2次元オブジェクトの認識に用いるためのニューラル・ネットワーク及び光学式文字認識装置
US5742702A (en) * 1992-10-01 1998-04-21 Sony Corporation Neural network for character recognition and verification
US5319722A (en) * 1992-10-01 1994-06-07 Sony Electronics, Inc. Neural network for character recognition of rotated characters
US5355436A (en) * 1992-10-05 1994-10-11 The Research Foundation, State University Of New York At Buffalo Single layer neural network circuit for performing linearly separable and non-linearly separable logical operations
US5930781A (en) * 1992-10-27 1999-07-27 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Neural network training by integration of adjoint systems of equations forward in time
JPH06203005A (ja) * 1992-10-27 1994-07-22 Eastman Kodak Co 高速区分化ニューラルネットワーク及びその構築方法
JP3438241B2 (ja) * 1992-10-29 2003-08-18 直 柴田 半導体神経回路装置
CA2149913A1 (en) 1992-11-24 1994-06-09 James David Keeler Method and apparatus for operating a neural network with missing and/or incomplete data
EP0602717B1 (fr) * 1992-12-16 1997-10-01 Laboratoires D'electronique Philips S.A.S. Dispositif neuronal et procédé pour le construire
EP0663644B1 (en) * 1994-01-13 2002-09-18 STMicroelectronics S.r.l. Alphanumeric characters images recognizing system
EP0612035B1 (en) * 1993-02-19 2002-01-30 International Business Machines Corporation Neural net for the comparison of image pattern features
US5825646A (en) 1993-03-02 1998-10-20 Pavilion Technologies, Inc. Method and apparatus for determining the sensitivity of inputs to a neural network on output parameters
US5619619A (en) * 1993-03-11 1997-04-08 Kabushiki Kaisha Toshiba Information recognition system and control system using same
US5455872A (en) * 1993-04-26 1995-10-03 International Business Machines Corporation System and method for enhanced character recogngition accuracy by adaptive probability weighting
JP3549569B2 (ja) * 1993-04-27 2004-08-04 ソニー エレクトロニクス インコーポレイテッド 映像内の目標パターン探知方法
WO1994027251A1 (en) * 1993-05-18 1994-11-24 Massachusetts Institute Of Technology Automated reading system and method
US5426721A (en) * 1993-06-17 1995-06-20 Board Of Supervisors Of Louisiana State University And Agricultural And Mechanical College Neural networks and methods for training neural networks
US5621862A (en) * 1993-07-29 1997-04-15 Matsushita Electric Industrial Co., Ltd. Information processing apparatus for implementing neural network
US5737496A (en) * 1993-11-17 1998-04-07 Lucent Technologies Inc. Active neural network control of wafer attributes in a plasma etch process
GB2284293B (en) * 1993-11-30 1998-06-03 Mars Inc Article classifying method and apparatus
EP0663645A3 (en) * 1994-01-13 1996-07-03 Eastman Kodak Co Bitmap registration through gradient descent.
US5912986A (en) 1994-06-21 1999-06-15 Eastman Kodak Company Evidential confidence measure and rejection technique for use in a neural network based optical character recognition system
US5542006A (en) * 1994-06-21 1996-07-30 Eastman Kodak Company Neural network based character position detector for use in optical character recognition
US5971128A (en) * 1994-09-09 1999-10-26 Mars, Incorporated Apparatus for validating items of value, and method of calibrating such apparatus
GB2293039B (en) * 1994-09-09 1998-04-22 Mars Inc Apparatus for validating items of value, and method of calibrating such apparatus
US5675665A (en) * 1994-09-30 1997-10-07 Apple Computer, Inc. System and method for word recognition using size and placement models
US5684929A (en) * 1994-10-27 1997-11-04 Lucent Technologies Inc. Method and apparatus for determining the limit on learning machine accuracy imposed by data quality
US5642435A (en) * 1995-01-25 1997-06-24 Xerox Corporation Structured document processing with lexical classes as context
US5751910A (en) * 1995-05-22 1998-05-12 Eastman Kodak Company Neural network solder paste inspection system
US5812992A (en) * 1995-05-24 1998-09-22 David Sarnoff Research Center Inc. Method and system for training a neural network with adaptive weight updating and adaptive pruning in principal component space
US6314414B1 (en) * 1998-10-06 2001-11-06 Pavilion Technologies, Inc. Method for training and/or testing a neural network with missing and/or incomplete data
US5835633A (en) * 1995-11-20 1998-11-10 International Business Machines Corporation Concurrent two-stage multi-network optical character recognition system
WO1997029437A1 (en) * 1996-02-09 1997-08-14 Sarnoff Corporation Method and apparatus for training a neural network to detect and classify objects with uncertain training data
GB2321362A (en) * 1997-01-21 1998-07-22 Northern Telecom Ltd Generic processing capability
US6324532B1 (en) 1997-02-07 2001-11-27 Sarnoff Corporation Method and apparatus for training a neural network to detect objects in an image
US6028956A (en) * 1997-04-04 2000-02-22 Kofile Inc. Object location and span determination method and apparatus which determines a location and span of an object in an image
EP0980565B1 (de) 1997-05-07 2001-07-25 Siemens Aktiengesellschaft Verfahren zur anpassung eines referenzdatensatzes anhand mindestens eines eingabedatensatzes durch einen rechner
DE19820353C2 (de) * 1998-05-07 2001-06-13 Ibm Verfahren und Vorrichtung zur Erkennung eines Musters auf einer Vorlage
US6327550B1 (en) 1998-05-26 2001-12-04 Computer Associates Think, Inc. Method and apparatus for system state monitoring using pattern recognition and neural networks
US6148106A (en) * 1998-06-30 2000-11-14 The United States Of America As Represented By The Secretary Of The Navy Classification of images using a dictionary of compressed time-frequency atoms
US6393395B1 (en) * 1999-01-07 2002-05-21 Microsoft Corporation Handwriting and speech recognizer using neural network with separate start and continuation output scores
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
DE10022009C2 (de) * 1999-11-26 2002-12-05 Inb Vision Ag Verfahren und Einrichtung zur Bestimmung und mindestens teilweisen Korrektur der Fehler eines Bildwiedergabesystems
JP2002073827A (ja) * 2000-08-31 2002-03-12 Fujitsu Ltd 校正者の能力管理方法、及び装置
DE10047189C1 (de) * 2000-09-23 2002-02-21 Bosch Gmbh Robert Verfahren zur Insassenklassifikation mit einer Sitzmatte im Fahrzeugsitz
US6904408B1 (en) * 2000-10-19 2005-06-07 Mccarthy John Bionet method, system and personalized web content manager responsive to browser viewers' psychological preferences, behavioral responses and physiological stress indicators
EP1374486B1 (en) * 2001-03-30 2008-11-05 Nokia Corporation Method for configuring a network by defining clusters
EP1412856A4 (en) * 2001-07-05 2004-09-22 Computer Ass Think Inc SYSTEM AND METHOD FOR ANALYZING BUSINESS EVENTS
US7777743B2 (en) * 2002-04-19 2010-08-17 Computer Associates Think, Inc. Viewing multi-dimensional data through hierarchical visualization
US7716148B2 (en) 2002-04-19 2010-05-11 Computer Associates Think, Inc. Processing mixed numeric and symbolic data encodings using scaling at one distance of at least one dimension, clustering, and a signpost transformation
US7483868B2 (en) * 2002-04-19 2009-01-27 Computer Associates Think, Inc. Automatic neural-net model generation and maintenance
US7444310B2 (en) * 2002-04-19 2008-10-28 Computer Associates Think, Inc. Automatic model maintenance through local nets
US20040042665A1 (en) * 2002-08-30 2004-03-04 Lockheed Martin Corporation Method and computer program product for automatically establishing a classifiction system architecture
FR2846490B1 (fr) * 2002-10-24 2005-01-14 Suisse Electronique Microtech Systeme d'analyse spatiale d'une grandeur physique
US7313279B2 (en) * 2003-07-08 2007-12-25 Computer Associates Think, Inc. Hierarchical determination of feature relevancy
US7092922B2 (en) * 2003-05-23 2006-08-15 Computer Associates Think, Inc. Adaptive learning enhancement to automated model maintenance
TWI225153B (en) * 2003-09-17 2004-12-11 Asn Technology Corp A method and a machine for measuring on rapid immunochromatographic test paper
US8223827B2 (en) * 2004-05-05 2012-07-17 Agere Systems Inc. Method and apparatus for generating filter tap weights and biases for signal dependent branch metric computation
US8145639B2 (en) * 2004-08-11 2012-03-27 Allan Williams System and methods for patent evaluation
US20060036453A1 (en) * 2004-08-11 2006-02-16 Allan Williams Bias compensated method and system for patent evaluation
US8145640B2 (en) * 2004-08-11 2012-03-27 Allan Williams System and method for patent evaluation and visualization of the results thereof
US8161049B2 (en) * 2004-08-11 2012-04-17 Allan Williams System and method for patent evaluation using artificial intelligence
US7840460B2 (en) * 2004-08-11 2010-11-23 Allan Williams System and method for patent portfolio evaluation
DE102005010076A1 (de) * 2005-03-04 2006-09-07 Siemens Ag Bildbearbeitungsverfahren für ein digitales medizinisches Untersuchungsbild und zugehörige Untersuchungseinrichtung
US8014590B2 (en) * 2005-12-07 2011-09-06 Drvision Technologies Llc Method of directed pattern enhancement for flexible recognition
US8498878B2 (en) * 2006-10-06 2013-07-30 EDCO Group Inc. Intelligent medical chart capture system
US8266145B2 (en) * 2007-03-16 2012-09-11 1759304 Ontario Inc. Contextual data mapping, searching and retrieval
WO2009094446A1 (en) * 2008-01-22 2009-07-30 Digital Business Processes, Inc. Method and apparatus for cropping images
US8218904B2 (en) * 2008-08-27 2012-07-10 Lockheed Martin Corporation Method and system for circular to horizontal transposition of an image
US10410117B2 (en) 2008-09-21 2019-09-10 Brainchip, Inc. Method and a system for creating dynamic neural function libraries
US20100138372A1 (en) * 2008-10-16 2010-06-03 Palmer Douglas A Cognitive pattern matching system with built-in confidence measure
HUP1200018A2 (en) 2012-01-11 2013-07-29 77 Elektronika Mueszeripari Kft Method of training a neural network, as well as a neural network
US8930743B2 (en) 2012-05-21 2015-01-06 International Business Machines Corporation Preventing cascade failures in computer systems
JP6160196B2 (ja) 2013-04-15 2017-07-12 オムロン株式会社 識別器更新装置、識別器更新プログラム、情報処理装置、および識別器更新方法
US20180005111A1 (en) * 2016-06-30 2018-01-04 International Business Machines Corporation Generalized Sigmoids and Activation Function Learning
US11200483B2 (en) * 2016-08-30 2021-12-14 Lunit Inc. Machine learning method and apparatus based on weakly supervised learning
US11024009B2 (en) * 2016-09-15 2021-06-01 Twitter, Inc. Super resolution using a generative adversarial network
US10896370B2 (en) * 2017-03-03 2021-01-19 International Business Machines Corporation Triage of training data for acceleration of large-scale machine learning
RU2652461C1 (ru) * 2017-05-30 2018-04-26 Общество с ограниченной ответственностью "Аби Девелопмент" Дифференциальная классификация с использованием нескольких нейронных сетей
US10635934B2 (en) 2017-09-19 2020-04-28 Ramot At Tel-Aviv University Ltd. Method and system for image content recognition
US10872290B2 (en) 2017-09-21 2020-12-22 Raytheon Company Neural network processor with direct memory access and hardware acceleration circuits
US11437032B2 (en) 2017-09-29 2022-09-06 Shanghai Cambricon Information Technology Co., Ltd Image processing apparatus and method
US11468332B2 (en) 2017-11-13 2022-10-11 Raytheon Company Deep neural network processor with interleaved backpropagation
US11232330B2 (en) 2018-02-13 2022-01-25 Slingshot Aerospace, Inc. Adaptive neural network selection to extract particular results
WO2019160975A1 (en) * 2018-02-13 2019-08-22 Slingshot Aerospace, Inc. Conditional loss function modification in a neural network
US11169803B2 (en) 2018-02-13 2021-11-09 Shanghai Cambricon Information Technology Co., Ltd. Computing device and method
US11630666B2 (en) 2018-02-13 2023-04-18 Shanghai Cambricon Information Technology Co., Ltd Computing device and method
EP3617959B1 (en) 2018-02-13 2021-08-04 Shanghai Cambricon Information Technology Co., Ltd Computing device and method
CN116991225A (zh) 2018-02-14 2023-11-03 上海寒武纪信息科技有限公司 处理器的控制装置、方法及设备
US11604996B2 (en) 2018-04-26 2023-03-14 Aistorm, Inc. Neural network error contour generation circuit
US11574193B2 (en) * 2018-04-28 2023-02-07 Samsung Electronics Co., Ltd. Method and system for training of neural networks using continuously differentiable models
EP3624020A4 (en) * 2018-05-18 2021-05-05 Shanghai Cambricon Information Technology Co., Ltd CALCULATION PROCEDURES AND RELATED PRODUCTS
EP3798850A4 (en) 2018-06-27 2022-03-23 Shanghai Cambricon Information Technology Co., Ltd ON-CHIP CODE BREAKPOINT DEBUG METHOD, ON-CHIP PROCESSOR AND CHIP BREAKPOINT DEBUG SYSTEM
LU100902B1 (en) 2018-08-09 2020-02-17 Iee Sa System including a device and a learning algorithm to perform a confidence measure-based classification or regression problem
WO2020042739A1 (zh) 2018-08-28 2020-03-05 中科寒武纪科技股份有限公司 数据预处理方法、装置、计算机设备和存储介质
WO2020062392A1 (zh) 2018-09-28 2020-04-02 上海寒武纪信息科技有限公司 信号处理装置、信号处理方法及相关产品
CN111383638A (zh) 2018-12-28 2020-07-07 上海寒武纪信息科技有限公司 信号处理装置、信号处理方法及相关产品
US20200334522A1 (en) 2019-04-18 2020-10-22 Cambricon Technologies Corporation Limited Data processing method and related products
CN111832738B (zh) 2019-04-18 2024-01-09 中科寒武纪科技股份有限公司 一种数据处理方法及相关产品
US10422854B1 (en) * 2019-05-01 2019-09-24 Mapsted Corp. Neural network training for mobile device RSS fingerprint-based indoor navigation
US11227176B2 (en) * 2019-05-16 2022-01-18 Bank Of Montreal Deep-learning-based system and process for image recognition
US11676029B2 (en) 2019-06-12 2023-06-13 Shanghai Cambricon Information Technology Co., Ltd Neural network quantization parameter determination method and related products
CN112085186B (zh) 2019-06-12 2024-03-05 上海寒武纪信息科技有限公司 一种神经网络的量化参数确定方法及相关产品
WO2021036904A1 (zh) 2019-08-23 2021-03-04 安徽寒武纪信息科技有限公司 数据处理方法、装置、计算机设备和存储介质
US11967055B2 (en) * 2021-06-30 2024-04-23 International Business Machines Corporation Automatically generating defect data of printed matter for flaw detection
US11610284B2 (en) * 2021-07-09 2023-03-21 X Development Llc Enhancing generative adversarial networks using combined inputs

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3192505A (en) * 1961-07-14 1965-06-29 Cornell Aeronautical Labor Inc Pattern recognizing apparatus
US3275985A (en) * 1962-06-14 1966-09-27 Gen Dynamics Corp Pattern recognition systems using digital logic
US3275986A (en) * 1962-06-14 1966-09-27 Gen Dynamics Corp Pattern recognition systems
US3267439A (en) * 1963-04-26 1966-08-16 Ibm Pattern recognition and prediction system
JPS5039976B1 (ja) * 1968-11-20 1975-12-20
US3548202A (en) * 1968-11-29 1970-12-15 Ibm Adaptive logic system for unsupervised learning
JPS5819109B2 (ja) * 1978-11-10 1983-04-16 肇産業株式会社 パタ−ン判別方法
US4479241A (en) * 1981-08-06 1984-10-23 Buckley Bruce S Self-organizing circuits for automatic pattern recognition and the like and systems embodying the same
US4504970A (en) * 1983-02-07 1985-03-12 Pattern Processing Technologies, Inc. Training controller for pattern processing system
JPS60262290A (ja) * 1984-06-08 1985-12-25 Hitachi Ltd 情報認識システム
US4742556A (en) * 1985-09-16 1988-05-03 Davis Jr Ray E Character recognition method
US4748674A (en) * 1986-10-07 1988-05-31 The Regents Of The University Of Calif. Pattern learning and recognition device
US4885757A (en) * 1987-06-01 1989-12-05 Texas Instruments Incorporated Digital adaptive receiver employing maximum-likelihood sequence estimation with neural networks
US4873661A (en) * 1987-08-27 1989-10-10 Yannis Tsividis Switched neural networks
US4884216A (en) * 1987-11-09 1989-11-28 Michael Kuperstein Neural network system for adaptive sensory-motor coordination of multijoint robots for single postures
US4876731A (en) * 1988-02-19 1989-10-24 Nynex Corporation Neural network model in pattern recognition using probabilistic contextual information
US4918618A (en) * 1988-04-11 1990-04-17 Analog Intelligence Corporation Discrete weight neural network
US4951239A (en) * 1988-10-27 1990-08-21 The United States Of America As Represented By The Secretary Of The Navy Artificial neural network implementation
US4921647A (en) * 1988-10-27 1990-05-01 Shell Oil Company Method of shaping a laminated thermoplastic billet
US4933872A (en) * 1988-11-15 1990-06-12 Eastman Kodak Company Method and system for wavefront reconstruction
US4912649A (en) * 1988-12-14 1990-03-27 Gte Government Systems Corporation Accelerating learning in neural networks
US4912651A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Speeding learning in neural networks
US4912654A (en) * 1988-12-14 1990-03-27 Government Systems Corporation Gte Neural networks learning method
US4912652A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Fast neural network training
US4912655A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Adjusting neural networks

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020196066A1 (ja) * 2019-03-28 2020-10-01 国立大学法人京都大学 ニューラルネットワークの学習方法、ニューラルネットワークの生成方法、学習済装置、携帯端末装置、学習処理装置及びコンピュータプログラム

Also Published As

Publication number Publication date
WO1991017520A1 (en) 1991-11-14
EP0527895A1 (en) 1993-02-24
US5052043A (en) 1991-09-24

Similar Documents

Publication Publication Date Title
JPH05507804A (ja) 出力信頼性指標値を用いてバックプロパゲーションを制御するようにしたニューラル・ネットワーク
US5805731A (en) Adaptive statistical classifier which provides reliable estimates or output classes having low probabilities
US5805730A (en) Method for training an adaptive statistical classifier with improved learning of difficult samples
US5768422A (en) Method for training an adaptive statistical classifier to discriminate against inproper patterns
US6480621B1 (en) Statistical classifier with reduced weight memory requirements
Patil et al. Neural network based system for script identification in Indian documents
US5796863A (en) Method for training an adaptive statistical classifier to balance unigram prior factors
CN108229463A (zh) 基于图像的文字识别方法
CN108764195A (zh) 手写模型训练方法、手写字识别方法、装置、设备及介质
Ahmad et al. Offline Urdu Nastaleeq optical character recognition based on stacked denoising autoencoder
CN106446954A (zh) 一种基于深度学习的字符识别方法
Asthana et al. Handwritten multiscript numeral recognition using artificial neural networks
US5263107A (en) Receptive field neural network with shift-invariant pattern recognition
JP2008537198A (ja) 人工知能を使用した外来のアプリケーションユーザインタフェースからの情報のインテリジェントインポート
CN110825850B (zh) 一种自然语言主题分类方法及装置
CN109190630A (zh) 字符识别方法
Hussien et al. Optical character recognition of arabic handwritten characters using neural network
US5708727A (en) Neuroprocessing service
Tashu et al. Deep learning architecture for automatic essay scoring
Wahab et al. Shape analysis of pashto script and creation of image database for OCR
Panda et al. Complex odia handwritten character recognition using deep learning model
Singh et al. Handwritten character recognition using modified gradient descent technique of neural networks and representation of conjugate descent for training patterns
Awaida et al. Automatic check digits recognition for Arabic using multi-scale features, HMM and SVM classifiers
Asthana et al. Handwritten Multiscript Pin Code Recognition System having Multiple hidden layers using Back Propagation Neural Network
Javed Investigation into a segmentation based OCR for the Nastaleeq writing system