JPH06348906A - ニューラルネットワークを訓練する方法、文字認識装置、およびシンボル処理方法 - Google Patents
ニューラルネットワークを訓練する方法、文字認識装置、およびシンボル処理方法Info
- Publication number
- JPH06348906A JPH06348906A JP5244172A JP24417293A JPH06348906A JP H06348906 A JPH06348906 A JP H06348906A JP 5244172 A JP5244172 A JP 5244172A JP 24417293 A JP24417293 A JP 24417293A JP H06348906 A JPH06348906 A JP H06348906A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- training
- symbols
- symbol
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Character Discrimination (AREA)
- Image Processing (AREA)
Abstract
(57)【要約】
【目的】 文字認識の精度を向上させる改良型ニューラ
ルネットワークの訓練方法を提供する。 【構成】 このニューラルネットワークを訓練する方法
は、通常の文字の太さより太い文字および細い文字によ
る修正された訓練シーケンスを用いてノイズを模擬す
る。ニューラルネットワークは好適にはまず、認識すべ
き文字または検証すべき文字およびその他の文字を包含
する通常の訓練シーケンスによって所定の反復数だけ訓
練される。それからこの訓練シーケンスは文字を太くし
たり、細くしたりして修正される。これらの修正された
シーケンスは、ニューラルネットワークが収束して良好
な一般化およびノイズ耐性が得られるまで、通常の幅の
文字シーケンスに沿って適用される。
ルネットワークの訓練方法を提供する。 【構成】 このニューラルネットワークを訓練する方法
は、通常の文字の太さより太い文字および細い文字によ
る修正された訓練シーケンスを用いてノイズを模擬す
る。ニューラルネットワークは好適にはまず、認識すべ
き文字または検証すべき文字およびその他の文字を包含
する通常の訓練シーケンスによって所定の反復数だけ訓
練される。それからこの訓練シーケンスは文字を太くし
たり、細くしたりして修正される。これらの修正された
シーケンスは、ニューラルネットワークが収束して良好
な一般化およびノイズ耐性が得られるまで、通常の幅の
文字シーケンスに沿って適用される。
Description
【0001】
【産業上の利用分野】本発明は一般的にはニューラルネ
ットワークの分野に関する。さらに特定的には、本発明
は所定の組からシンボルまたは文字を認識し検証するニ
ューラルネットワークを訓練する方法およびその装置に
関する。本発明はまた円形状に配列された文字を認識す
るための座標回転技法(rotation technique) を用いる
が、そのような用途に限定されるものではない。
ットワークの分野に関する。さらに特定的には、本発明
は所定の組からシンボルまたは文字を認識し検証するニ
ューラルネットワークを訓練する方法およびその装置に
関する。本発明はまた円形状に配列された文字を認識す
るための座標回転技法(rotation technique) を用いる
が、そのような用途に限定されるものではない。
【0002】〔関連出願の記述〕本発明に関連する出願
を下記に示す。本発明は、それぞれ同じ日(1992年
10月1日)に米国特許庁に出願され、本願出願と同じ
共通の所有者によって我が国に出願された下記の出願に
関係している。 (1)米国出願シリアル番号:07/955,526 米国出願名称“Training Method for Neural Network 発明者:Toru Oki(大木 亨) 我が国特許出願整理番号:S93037633 (2)米国出願シリアル番号:07/955,555 米国出願名称“Neural Network for Character Recogni
tion of Rotated Characters" 発明者:Toru Oki(大木 亨) 我が国特許出願整理番号:S93037622
を下記に示す。本発明は、それぞれ同じ日(1992年
10月1日)に米国特許庁に出願され、本願出願と同じ
共通の所有者によって我が国に出願された下記の出願に
関係している。 (1)米国出願シリアル番号:07/955,526 米国出願名称“Training Method for Neural Network 発明者:Toru Oki(大木 亨) 我が国特許出願整理番号:S93037633 (2)米国出願シリアル番号:07/955,555 米国出願名称“Neural Network for Character Recogni
tion of Rotated Characters" 発明者:Toru Oki(大木 亨) 我が国特許出願整理番号:S93037622
【0003】
【従来の技術】文字認識はニューラルネットワークの重
要な用途の一つである。文字認識の用途としては、資料
内のテキストの認証に用いられているばかりでなく、工
業的な用途におけるシンボルおよび文字の認識としても
用いられている。本発明は特に機械によって発生した文
字に好適に適用される。すべての用途において、文字認
識における最適な精度が非常に重要である。また、重要
なこととして、ネットワークの構造が簡単であること、
訓練が容易であること、使用される訓練順序(トレーニ
ングシーケンス)における訓練が独立していること、ノ
イズの存在においてロバストネス(robustness)であるこ
と、および、ネットワークを一般化させる能力があるこ
とである。ニューラルネットワークの性能および訓練に
影響を与える種々の因子の扱いについての概要および背
景が、論文:著者、Patrick K. Simpson、題名、"Found
ations of Neural Networks"、Artificial Neural Netw
orksから刊行:Paradigms, Applications and Hardware
Implementations, Sanchez-Sinencio、他編集、IEEE P
ress,1992, USA、に見いだされる。
要な用途の一つである。文字認識の用途としては、資料
内のテキストの認証に用いられているばかりでなく、工
業的な用途におけるシンボルおよび文字の認識としても
用いられている。本発明は特に機械によって発生した文
字に好適に適用される。すべての用途において、文字認
識における最適な精度が非常に重要である。また、重要
なこととして、ネットワークの構造が簡単であること、
訓練が容易であること、使用される訓練順序(トレーニ
ングシーケンス)における訓練が独立していること、ノ
イズの存在においてロバストネス(robustness)であるこ
と、および、ネットワークを一般化させる能力があるこ
とである。ニューラルネットワークの性能および訓練に
影響を与える種々の因子の扱いについての概要および背
景が、論文:著者、Patrick K. Simpson、題名、"Found
ations of Neural Networks"、Artificial Neural Netw
orksから刊行:Paradigms, Applications and Hardware
Implementations, Sanchez-Sinencio、他編集、IEEE P
ress,1992, USA、に見いだされる。
【0004】従来のニューラルネットワークにおいて
は、ハードウエアおよびソフトウエアの両者について、
ニューラルネットワークに文字を表すものを提供するこ
とによって文字を認識させている。内部重み関数が用い
られて入力を重み付けし、ニューラルネットワークを訓
練するための訓練過程に基づいて最も文字に近いものを
表す出力を生成させる。訓練過程の品質を向上させるこ
とが現在の研究の主体(large body)であり、現在、精度
を決定する因子である。ここで精度とはその精度によっ
てニューラルネットワークが文字を同定できるという精
度である。工業的な用途において、例えばシリアル(連
続)番号を表す文字の正しい認識は、生産管理において
重要(クリティカル)である。
は、ハードウエアおよびソフトウエアの両者について、
ニューラルネットワークに文字を表すものを提供するこ
とによって文字を認識させている。内部重み関数が用い
られて入力を重み付けし、ニューラルネットワークを訓
練するための訓練過程に基づいて最も文字に近いものを
表す出力を生成させる。訓練過程の品質を向上させるこ
とが現在の研究の主体(large body)であり、現在、精度
を決定する因子である。ここで精度とはその精度によっ
てニューラルネットワークが文字を同定できるという精
度である。工業的な用途において、例えばシリアル(連
続)番号を表す文字の正しい認識は、生産管理において
重要(クリティカル)である。
【0005】
【発明が解決しようとする課題】ある工業的な用途にお
いては、文字の認識はその文字が正しい程度に検証され
ることは重要でない。そのようなものとしてはコンパク
トディスクの製造過程を考えることができる。この場
合、ビデオ、オーディオ、またはコンピューターデータ
を実際に符号化する前に、ディスクにプログラムの本体
を表すシリアル番号が刻印される。文字を認識する装置
は、多くのディスクのバッチの各々が、正しいシリアル
番号がディスクにシリアル番号が付されていることを検
証する装置ほど重要ではない場合が多い。その一方で、
ラベルおよびシリアル番号が刻印されているコンパクト
ディスクはプログラムの内容と干渉して(一致しない
で)符号化されることがある(例えば、アーティストの
ミュージックが、ラベルが不正確についているディスク
に符号化される)。
いては、文字の認識はその文字が正しい程度に検証され
ることは重要でない。そのようなものとしてはコンパク
トディスクの製造過程を考えることができる。この場
合、ビデオ、オーディオ、またはコンピューターデータ
を実際に符号化する前に、ディスクにプログラムの本体
を表すシリアル番号が刻印される。文字を認識する装置
は、多くのディスクのバッチの各々が、正しいシリアル
番号がディスクにシリアル番号が付されていることを検
証する装置ほど重要ではない場合が多い。その一方で、
ラベルおよびシリアル番号が刻印されているコンパクト
ディスクはプログラムの内容と干渉して(一致しない
で)符号化されることがある(例えば、アーティストの
ミュージックが、ラベルが不正確についているディスク
に符号化される)。
【0006】したがって、本発明は、文字またはシンボ
ルについて引き続く検証を提供し、検証ネットワークの
ための訓練技法を提供することによって、文字またはシ
ンボルを認識する装置の精度を向上させコンバージェン
ス(収束性)を高め、そして一般化能力を高めることを
目的とする。さらに本発明は、シリアル番号またはこれ
に類するデータの検証を迅速かつ簡単に提供することに
用いられる。また、本発明の訓練技法を用いることによ
って検証ネットワークの訓練が向上する(強化され
る)。
ルについて引き続く検証を提供し、検証ネットワークの
ための訓練技法を提供することによって、文字またはシ
ンボルを認識する装置の精度を向上させコンバージェン
ス(収束性)を高め、そして一般化能力を高めることを
目的とする。さらに本発明は、シリアル番号またはこれ
に類するデータの検証を迅速かつ簡単に提供することに
用いられる。また、本発明の訓練技法を用いることによ
って検証ネットワークの訓練が向上する(強化され
る)。
【0007】本発明の目的は、文字またはシンボルの認
識の精度を向上させる改良型の文字またはシンボルを認
識する方法および装置を提供することにある。本発明の
利益は認識の精度が向上することである(強化されるこ
とである)。本発明の他の目的は、ニューラルネットワ
ークを訓練するための改良型方法を提供することにあ
る。本発明の訓練技法が、高い能力を有するロバスト(r
obust)なニューラルネットワークを生成し、一般化し、
そして、ノイズに対する耐性を持つことが本発明の利益
である。
識の精度を向上させる改良型の文字またはシンボルを認
識する方法および装置を提供することにある。本発明の
利益は認識の精度が向上することである(強化されるこ
とである)。本発明の他の目的は、ニューラルネットワ
ークを訓練するための改良型方法を提供することにあ
る。本発明の訓練技法が、高い能力を有するロバスト(r
obust)なニューラルネットワークを生成し、一般化し、
そして、ノイズに対する耐性を持つことが本発明の利益
である。
【0008】本発明のこれらおよび他の目的、利益およ
び特徴は本発明に関する下記の記述の考慮に基づき、当
業者にとって明瞭となる。
び特徴は本発明に関する下記の記述の考慮に基づき、当
業者にとって明瞭となる。
【0009】
【課題を解決するための手段】ニューラルネットワーク
を訓練する方法は、ノイズを模擬するように通常の文字
よりも太くかつ細い文字についての修正された訓練シー
ケンスを用いる。ニューラルネットワークは好適にはま
ず、認識すべきまたは検証すべき文字および他の文字を
有する通常の訓練シーケンスを用いてある繰り返しの回
数だけ訓練される。それから文字を一層太くし、一層細
くすることによりシーケンスが修正される。これらのシ
ーケンスは、ニューラルネットワークが良好な一般化お
よびノイズ耐性を得るように収束するまで、通常の幅の
文字シーケンスに沿って印加(適用)される。
を訓練する方法は、ノイズを模擬するように通常の文字
よりも太くかつ細い文字についての修正された訓練シー
ケンスを用いる。ニューラルネットワークは好適にはま
ず、認識すべきまたは検証すべき文字および他の文字を
有する通常の訓練シーケンスを用いてある繰り返しの回
数だけ訓練される。それから文字を一層太くし、一層細
くすることによりシーケンスが修正される。これらのシ
ーケンスは、ニューラルネットワークが良好な一般化お
よびノイズ耐性を得るように収束するまで、通常の幅の
文字シーケンスに沿って印加(適用)される。
【0010】本発明の第1の観点によれば、ニューラル
ネットワークを訓練する方法は、ニューラルネットワー
クにシンボルの第1のシーケンスを印加する段階を有す
るが、このシンボルは所定の太さを有する、またニュー
ラルネットワークを訓練する方法は、シンボルについて
第2のシーケンスをニューラルネットワークに印加する
段階を有するが、この第2のシンボルのシーケンスはシ
ンボルの太さを変化させることにより修正されている第
1のシーケンス内のシンボルの少なくとも一部を包含し
ている。
ネットワークを訓練する方法は、ニューラルネットワー
クにシンボルの第1のシーケンスを印加する段階を有す
るが、このシンボルは所定の太さを有する、またニュー
ラルネットワークを訓練する方法は、シンボルについて
第2のシーケンスをニューラルネットワークに印加する
段階を有するが、この第2のシンボルのシーケンスはシ
ンボルの太さを変化させることにより修正されている第
1のシーケンス内のシンボルの少なくとも一部を包含し
ている。
【0011】ニューラルネットワークを訓練する他の方
法は、シンボルについての第1の訓練シーケンスを第1
の数の反復についてのニューラルネットワークに印加す
る段階と、シンボルについての第2の訓練シーケンスを
第2の数の反復についてのニューラルネットワークに印
加する段階を有しており、該第2の訓練シーケンスは、
より太くすることによって変化されたシンボルを有する
第1の訓練シーケンスからなる第1組のシンボルと、よ
り細くすることによって変化されたシンボルを有する第
1の訓練シーケンスからなる第2組のシンボルとを有し
ている。第2の訓練シーケンスは好適には、第1の訓練
シーケンスで構成されている第3組のシーケンスをさら
に有する。
法は、シンボルについての第1の訓練シーケンスを第1
の数の反復についてのニューラルネットワークに印加す
る段階と、シンボルについての第2の訓練シーケンスを
第2の数の反復についてのニューラルネットワークに印
加する段階を有しており、該第2の訓練シーケンスは、
より太くすることによって変化されたシンボルを有する
第1の訓練シーケンスからなる第1組のシンボルと、よ
り細くすることによって変化されたシンボルを有する第
1の訓練シーケンスからなる第2組のシンボルとを有し
ている。第2の訓練シーケンスは好適には、第1の訓練
シーケンスで構成されている第3組のシーケンスをさら
に有する。
【0012】新規であるべきと信じられている本発明の
上記特徴が、添付した請求の範囲に特定的に記述されて
いる。しかしながら、本発明はそれ自身、方法および装
置の両者に関連づけた動作についてさらに他の目的およ
び利益に関連しており、添付した図面に関連付けた下記
の記述を参照づけることによって、最良に理解されるの
である。
上記特徴が、添付した請求の範囲に特定的に記述されて
いる。しかしながら、本発明はそれ自身、方法および装
置の両者に関連づけた動作についてさらに他の目的およ
び利益に関連しており、添付した図面に関連付けた下記
の記述を参照づけることによって、最良に理解されるの
である。
【0013】
【実施例】本発明は種々の異なる形態における実施例と
してとりうるが、図面に図解されており、そして詳細な
特定的な実施例に記述されており、その開示が本発明の
原理の一例として考慮すべきことが理解され、そして本
発明が図示され記述された特定的な実施例にのみ限定さ
れることを意図していないことが理解される。本発明の
記述のために、用語「シンボルおよび文字」は、例えば
数字文字(レター)、グラフィックシンボル、アルファ
ベットシンボルその他などの認識可能な複数のメンバー
(要素)の一組のある一つのメンバーを表すように意図
されているものによって幾分交換可能に用いられる。こ
れらの用語はまた工業的な用途において有益な画像を包
含することが意図されており、工業的な用途の例として
は、例えばニューラルネットワークによって有益に認識
されうるギア(歯車)の画像、集積回路チップの画像、
サブアッセンブリまたは一部の画像、またはその他の画
像またはパターンなどである.
してとりうるが、図面に図解されており、そして詳細な
特定的な実施例に記述されており、その開示が本発明の
原理の一例として考慮すべきことが理解され、そして本
発明が図示され記述された特定的な実施例にのみ限定さ
れることを意図していないことが理解される。本発明の
記述のために、用語「シンボルおよび文字」は、例えば
数字文字(レター)、グラフィックシンボル、アルファ
ベットシンボルその他などの認識可能な複数のメンバー
(要素)の一組のある一つのメンバーを表すように意図
されているものによって幾分交換可能に用いられる。こ
れらの用語はまた工業的な用途において有益な画像を包
含することが意図されており、工業的な用途の例として
は、例えばニューラルネットワークによって有益に認識
されうるギア(歯車)の画像、集積回路チップの画像、
サブアッセンブリまたは一部の画像、またはその他の画
像またはパターンなどである.
【0014】図1を参照して述べると、図1には本発明
の工業的な用途の一例が示されている。そのような用途
は、例えばシリコンウェーハ、回路基板、サブアッセン
ブリ、コンパクトディスクなどである部分の上に刻印さ
れたシリアル番号を認識するために用いられうる。もち
ろん、他の用途も可能である。この例示においては、部
分10から認識されるべきものとして6桁の数字のシリ
アル番号を仮定しており、その部分10としては本発明
の好適な実施例においてはコンパクトディスクまたは半
導体製造のためのシリコンウェーハである。この部分1
0はビデオカメラまたは他の走査装置12によって特定
的な位置において観測される。
の工業的な用途の一例が示されている。そのような用途
は、例えばシリコンウェーハ、回路基板、サブアッセン
ブリ、コンパクトディスクなどである部分の上に刻印さ
れたシリアル番号を認識するために用いられうる。もち
ろん、他の用途も可能である。この例示においては、部
分10から認識されるべきものとして6桁の数字のシリ
アル番号を仮定しており、その部分10としては本発明
の好適な実施例においてはコンパクトディスクまたは半
導体製造のためのシリコンウェーハである。この部分1
0はビデオカメラまたは他の走査装置12によって特定
的な位置において観測される。
【0015】部分10がコンパクトディスクの場合、シ
リアル番号がそのディスクの中央の穴のまわりに配置さ
れている。このことは文字の認識を幾分困難にさせる。
カメラの出力信号が極座標変換器(polar converter)1
4によって処理され、それによって文字の配置が中央の
穴の周囲に配置された円形状の配置から、直線状に配置
された文字の列に変換される。これについては、関連出
願として、参照符号によって一体化されている上記関連
づけた出願に十分に記述されている。画像が円形状に配
置されているか否かに関わらず、上記した出願に記述さ
れている区分化および中心化処理は、認識および検証装
置の性能を向上させるために用いられる。それから、文
字の直線状の順序(シーケンス)がマトリクスまたはア
レイ16(またマトリクスまたはアレイの集合)として
示され、そのマトリクスまたアレイは、これまで知られ
ている方法において文字のそれぞれを示すものである。
代表的には、そのマトリクスはピクセルの値によって組
み合わされており、そのピクセルの値は観測されている
文字を表す。例えばここで、図2に示されている文字
「A」を示す場合を考える。この表現において、本発明
によって処理されたものとして実際の文字から発生され
たものに関して、明るいピクセルは@によって示されて
おり、暗い画像が小さなドットとして示されている。別
の番号が便宜的に付加されている。この文字は下記の表
によって示されている値の一次元のピクセルアレイP
(K)によってコンピュータファイル内に示されている
(別の番号は便宜的に付加している)。
リアル番号がそのディスクの中央の穴のまわりに配置さ
れている。このことは文字の認識を幾分困難にさせる。
カメラの出力信号が極座標変換器(polar converter)1
4によって処理され、それによって文字の配置が中央の
穴の周囲に配置された円形状の配置から、直線状に配置
された文字の列に変換される。これについては、関連出
願として、参照符号によって一体化されている上記関連
づけた出願に十分に記述されている。画像が円形状に配
置されているか否かに関わらず、上記した出願に記述さ
れている区分化および中心化処理は、認識および検証装
置の性能を向上させるために用いられる。それから、文
字の直線状の順序(シーケンス)がマトリクスまたはア
レイ16(またマトリクスまたはアレイの集合)として
示され、そのマトリクスまたアレイは、これまで知られ
ている方法において文字のそれぞれを示すものである。
代表的には、そのマトリクスはピクセルの値によって組
み合わされており、そのピクセルの値は観測されている
文字を表す。例えばここで、図2に示されている文字
「A」を示す場合を考える。この表現において、本発明
によって処理されたものとして実際の文字から発生され
たものに関して、明るいピクセルは@によって示されて
おり、暗い画像が小さなドットとして示されている。別
の番号が便宜的に付加されている。この文字は下記の表
によって示されている値の一次元のピクセルアレイP
(K)によってコンピュータファイル内に示されている
(別の番号は便宜的に付加している)。
【0016】
【表1】
【0017】上記表1のアレイにおいて、各列が26ビ
ットで38列が示されており、P(1)が上部左隅にあ
り、P(2)がこのP(1)のすぐ右にあり以下同じよ
うに並んでおり、P(988)が右下の角にある。本発
明の実施例においては1または0のいずれかであるピク
セルの値がディジタル値である場合を扱っているが、本
発明のニューラルネットワークは他の適切な特性または
ピクセルの明るさをあらわすアナログの値についても動
作しうる。
ットで38列が示されており、P(1)が上部左隅にあ
り、P(2)がこのP(1)のすぐ右にあり以下同じよ
うに並んでおり、P(988)が右下の角にある。本発
明の実施例においては1または0のいずれかであるピク
セルの値がディジタル値である場合を扱っているが、本
発明のニューラルネットワークは他の適切な特性または
ピクセルの明るさをあらわすアナログの値についても動
作しうる。
【0018】複数のアレイPによって表されたものとし
てのマトリクス16は、入力として複数またはより少な
い数の従来のニューラルネットワーク20に用いられて
おり、このニューラルネットワークは所定の文字または
シンボルの組(例えば、アルファベットおよび数値0〜
9)から文字またはシンボルの各々を認識するために訓
練される。
てのマトリクス16は、入力として複数またはより少な
い数の従来のニューラルネットワーク20に用いられて
おり、このニューラルネットワークは所定の文字または
シンボルの組(例えば、アルファベットおよび数値0〜
9)から文字またはシンボルの各々を認識するために訓
練される。
【0019】テスト例についてのニューラルネットワー
ク20が図3に図解されており、そして、このニューラ
ルネットワークは上述したアレイP(K)などの988
ピクセルのアレイによって表される988ピクセル(K
=988)を有する。それらのピクセルの各々がそのニ
ューラルネットワークにおいて分離されている重みに割
り付けられており、それぞれがそれらと関連する8個の
中間ノードの各々に結合されている。それらの中間ノー
ドの各々が出力ノードに接続されている。この実施例に
おいて、そのような出力ノードが14個用いられてお
り、それによって任意の14個の文字が認識されうる。
従来知られているバックプロバゲーション(伝播戻り)
または訓練技法がこのニューラルネットワーク20を訓
練するために用いられる。図示の例においてシリアル番
号のそれぞれの文字がニューラルネットワーク20によ
って連続的に分析され、例えばシリアル番号を構成する
6桁の文字のシーケンス(順序列)が生成される。この
好適な実施例において11桁の文字のシリアル番号がニ
ューラルネットワーク20に連続的に11個のアレイP
(K)を印加することによって認識される。
ク20が図3に図解されており、そして、このニューラ
ルネットワークは上述したアレイP(K)などの988
ピクセルのアレイによって表される988ピクセル(K
=988)を有する。それらのピクセルの各々がそのニ
ューラルネットワークにおいて分離されている重みに割
り付けられており、それぞれがそれらと関連する8個の
中間ノードの各々に結合されている。それらの中間ノー
ドの各々が出力ノードに接続されている。この実施例に
おいて、そのような出力ノードが14個用いられてお
り、それによって任意の14個の文字が認識されうる。
従来知られているバックプロバゲーション(伝播戻り)
または訓練技法がこのニューラルネットワーク20を訓
練するために用いられる。図示の例においてシリアル番
号のそれぞれの文字がニューラルネットワーク20によ
って連続的に分析され、例えばシリアル番号を構成する
6桁の文字のシーケンス(順序列)が生成される。この
好適な実施例において11桁の文字のシリアル番号がニ
ューラルネットワーク20に連続的に11個のアレイP
(K)を印加することによって認識される。
【0020】再び図1を参照して述べると、もし文字が
ニューラルネットワーク20によって正しく認識された
場合、正しいシリアル番号が出力される。この出力はそ
れから下記に述べるように、ニューラルネットワークの
第2の組によって検証される。図1に例として示したよ
うに、ニューラルネットワーク20から出力されるシリ
アル番号は6桁の文字のコードである。もちろん、一般
的には任意の数の文字も処理できる。この例示における
シリアル番号を検証するため、認識ニューラルネットワ
ーク30(301 、302 、303 、30a 、30b 、
30c )がシリアル番号の6桁の文字の各々に対応して
選択される。そのようなニューラルネットワークのそれ
ぞれには解析のためのマトリクス161 、162 、16
3 、16 a 、16b 、16c が設けられている。マトリ
クス161 はマトリクス16に維持されている文字
「1」を示すものを含む。マトリクス162 、163 、
16a、16b 、16c も同様にマトリクス16から文
字「2」、「3」、「a」、「b」および「c」を示す
ものを含んでいる。従って文字またはシンボルの組がN
個の文字またはシンボルを有する場合、N個のそのよう
なニューラルネットワークが選択を可能にするように構
成されている。
ニューラルネットワーク20によって正しく認識された
場合、正しいシリアル番号が出力される。この出力はそ
れから下記に述べるように、ニューラルネットワークの
第2の組によって検証される。図1に例として示したよ
うに、ニューラルネットワーク20から出力されるシリ
アル番号は6桁の文字のコードである。もちろん、一般
的には任意の数の文字も処理できる。この例示における
シリアル番号を検証するため、認識ニューラルネットワ
ーク30(301 、302 、303 、30a 、30b 、
30c )がシリアル番号の6桁の文字の各々に対応して
選択される。そのようなニューラルネットワークのそれ
ぞれには解析のためのマトリクス161 、162 、16
3 、16 a 、16b 、16c が設けられている。マトリ
クス161 はマトリクス16に維持されている文字
「1」を示すものを含む。マトリクス162 、163 、
16a、16b 、16c も同様にマトリクス16から文
字「2」、「3」、「a」、「b」および「c」を示す
ものを含んでいる。従って文字またはシンボルの組がN
個の文字またはシンボルを有する場合、N個のそのよう
なニューラルネットワークが選択を可能にするように構
成されている。
【0021】これらのニューラルネットワーク30の各
々はニューラルネットワーク20よりも構成が実質的に
簡単になっており、また各々が文字またはシンボルの組
の単一のメンバー(要素)を認識するように訓練され
る。つまり、ニューラルネットワーク30の各々が単一
の文字のみ認識するように訓練されているのであって、
そのような文字そのものではない。それゆえニューラル
ネットワーク30b は、解析される文字「b」であるか
どうかに対する答え、つまり、「イエス」または「ノ
ー」を与えるように訓練される。そのように行うため、
ニューラルネットワークは、もし入力が文字「b」の画
像である場合に「b」が正しい答えであり、そして、も
し入力が「a」、「c」〜「z」、または「0」〜
「9」についての画像である場合には、「b」でない
が、正確な答えであるように教示される。それゆえ、ニ
ューラルネットワーク30b の出力は、「b」または
「b」でないのいずれかである。(当業者はニューラル
ネットワークの出力が純粋な2進の値ではなく、むしろ
最大の制御(the greatest control)である出力であると
理解されるであろう。)もちろん、等価的な2進数の出
力が発生されるのであって、そこでは、例えば、「1」
の出力が特別の文字が検証されたことを示し、そして
「0」の出力が特別の文字が検証されないことを表す。
々はニューラルネットワーク20よりも構成が実質的に
簡単になっており、また各々が文字またはシンボルの組
の単一のメンバー(要素)を認識するように訓練され
る。つまり、ニューラルネットワーク30の各々が単一
の文字のみ認識するように訓練されているのであって、
そのような文字そのものではない。それゆえニューラル
ネットワーク30b は、解析される文字「b」であるか
どうかに対する答え、つまり、「イエス」または「ノ
ー」を与えるように訓練される。そのように行うため、
ニューラルネットワークは、もし入力が文字「b」の画
像である場合に「b」が正しい答えであり、そして、も
し入力が「a」、「c」〜「z」、または「0」〜
「9」についての画像である場合には、「b」でない
が、正確な答えであるように教示される。それゆえ、ニ
ューラルネットワーク30b の出力は、「b」または
「b」でないのいずれかである。(当業者はニューラル
ネットワークの出力が純粋な2進の値ではなく、むしろ
最大の制御(the greatest control)である出力であると
理解されるであろう。)もちろん、等価的な2進数の出
力が発生されるのであって、そこでは、例えば、「1」
の出力が特別の文字が検証されたことを示し、そして
「0」の出力が特別の文字が検証されないことを表す。
【0022】もしニューラルネットワークが文字のそれ
ぞれを固有に検証する場合、シリアル番号は高い信頼性
で正確に認知されていると考えられている。もし、1つ
または複数のシリアル番号から抽出されたシンボルが検
証されない場合、他の手段がエラー救済を提供するため
にとられる。本発明においては、ニューラルネットワー
ク30が小さく、そしてその訓練が特別の単一の文字に
対して非常に特定的であるから、処理速度が非常に早く
信頼性が高い。
ぞれを固有に検証する場合、シリアル番号は高い信頼性
で正確に認知されていると考えられている。もし、1つ
または複数のシリアル番号から抽出されたシンボルが検
証されない場合、他の手段がエラー救済を提供するため
にとられる。本発明においては、ニューラルネットワー
ク30が小さく、そしてその訓練が特別の単一の文字に
対して非常に特定的であるから、処理速度が非常に早く
信頼性が高い。
【0023】図4は、本発明のテストに用いられるニュ
ーラルネットワーク30の構成例を示す図である。この
構成はニューラルネットワーク20として同じ988個
のピクセルアレイP(K)を受け入れる。これらのピク
セルは、重みづけられそして中間ノードの組に印加され
る。この中間ノードの組は2または3の中間ノードのみ
を有している(図4においては中間ノードの組が3の場
合を示している)。これらの中間ノードの重みは、二つ
のノードに対する出力を生成するために用いられるもの
であり、これらのノードはこのネットワークと関連する
文字が検証されているか、または検証されていないかを
示している。このネットワークは簡単で、迅速でそして
比較的容易に実現できる。
ーラルネットワーク30の構成例を示す図である。この
構成はニューラルネットワーク20として同じ988個
のピクセルアレイP(K)を受け入れる。これらのピク
セルは、重みづけられそして中間ノードの組に印加され
る。この中間ノードの組は2または3の中間ノードのみ
を有している(図4においては中間ノードの組が3の場
合を示している)。これらの中間ノードの重みは、二つ
のノードに対する出力を生成するために用いられるもの
であり、これらのノードはこのネットワークと関連する
文字が検証されているか、または検証されていないかを
示している。このネットワークは簡単で、迅速でそして
比較的容易に実現できる。
【0024】ニューラルネットワーク30によって検証
されるべき文字に依存して、ニューラルネットワークの
重みが、後述するように初期化されるとき、2または3
の中間(隠れた)ノードの何れかが用いられうる。図4
は3つのノードの場合について示している。しかしなが
ら、他の文字と過剰に重複をしないような非常に多くの
文字が2つの中間のノードを用いて検証されうる。一般
に、3つのノードを必要とするそれらの文字は経験的に
決定されうる。経験によれば、そのような文字は検査に
よって決定されうる。しかしながら、その処理は、たと
えば、すべての可能性のある文字の組み合わせについて
のドットの生成を用いることによって自動的に行われう
る。所定のしきい値(この値は経験的に決定されるもの
である)を超えているドットのプロダクトを有する(ド
ットによって構成されている)文字の対は、3つの中間
ノードを有するニューラルネットワークを用いて検証さ
れうる。文字0〜9、0(ゼロ)、R、O(オー)及び
@を有するテスト用文字の組が本発明の検査のために用
いられた。これらについて検証ニューラルネットワーク
が、1、2、4、7、@、0およびAのサブセットのた
めに構成された。このサブセットにおいて、3つの中間
ノードが文字A、0及び@のためにのみ用いられた。
されるべき文字に依存して、ニューラルネットワークの
重みが、後述するように初期化されるとき、2または3
の中間(隠れた)ノードの何れかが用いられうる。図4
は3つのノードの場合について示している。しかしなが
ら、他の文字と過剰に重複をしないような非常に多くの
文字が2つの中間のノードを用いて検証されうる。一般
に、3つのノードを必要とするそれらの文字は経験的に
決定されうる。経験によれば、そのような文字は検査に
よって決定されうる。しかしながら、その処理は、たと
えば、すべての可能性のある文字の組み合わせについて
のドットの生成を用いることによって自動的に行われう
る。所定のしきい値(この値は経験的に決定されるもの
である)を超えているドットのプロダクトを有する(ド
ットによって構成されている)文字の対は、3つの中間
ノードを有するニューラルネットワークを用いて検証さ
れうる。文字0〜9、0(ゼロ)、R、O(オー)及び
@を有するテスト用文字の組が本発明の検査のために用
いられた。これらについて検証ニューラルネットワーク
が、1、2、4、7、@、0およびAのサブセットのた
めに構成された。このサブセットにおいて、3つの中間
ノードが文字A、0及び@のためにのみ用いられた。
【0025】特別の訓練技法がこれらの検証ニューラル
ネットワークのために考案されており、そして文字
「A」を認識するために訓練されたニューラルネットワ
ークについては図5に図解されている。この例示におい
ては、3つの中間ノードの入力と関連する3つの組の重
みが存在することを喚起している。これらの重みはアレ
イW1 (K)、W2 (K)およびW3 (K)として考え
られうる。以前に図解した例示においては、K=988
であった。その理由はニューラルネットワークに対する
入力として988個のピクセルが存在したからである。
それゆえ、それらは、入力アレイP(K)、及び、重み
アレイW1 (K)、W2 (K)およびW3 (K)との間
には「1対1対応」の関係がある。
ネットワークのために考案されており、そして文字
「A」を認識するために訓練されたニューラルネットワ
ークについては図5に図解されている。この例示におい
ては、3つの中間ノードの入力と関連する3つの組の重
みが存在することを喚起している。これらの重みはアレ
イW1 (K)、W2 (K)およびW3 (K)として考え
られうる。以前に図解した例示においては、K=988
であった。その理由はニューラルネットワークに対する
入力として988個のピクセルが存在したからである。
それゆえ、それらは、入力アレイP(K)、及び、重み
アレイW1 (K)、W2 (K)およびW3 (K)との間
には「1対1対応」の関係がある。
【0026】従来型のニューラルネットワークのバック
プロパゲーション訓練方法またはこれと類似するものの
使用に先だって、戦略的に重みアレイを初期化すること
(プリローディングすること)によって、本発明による
改良型のニューラルネットワークの訓練スピードが、精
度の向上とともに、入手しうることが、決定されてい
る。3つの中間ノードが用いられ、そしてニューラルネ
ットワークが2つの出力を認識するためにのみ用いられ
るこの場合において、重み関数は下記のように選択され
る。
プロパゲーション訓練方法またはこれと類似するものの
使用に先だって、戦略的に重みアレイを初期化すること
(プリローディングすること)によって、本発明による
改良型のニューラルネットワークの訓練スピードが、精
度の向上とともに、入手しうることが、決定されてい
る。3つの中間ノードが用いられ、そしてニューラルネ
ットワークが2つの出力を認識するためにのみ用いられ
るこの場合において、重み関数は下記のように選択され
る。
【0027】
【数1】
【0028】
【数2】
【0029】
【数3】
【0030】ここで入力アレイP(K)は入力アレイで
あり、この入力アレイは検証されるべき文字を表す理想
的なものを有している。すなわち、重み関数は理想的な
入力アレイを組み換えたパターンを用いてプリローディ
ングされている。
あり、この入力アレイは検証されるべき文字を表す理想
的なものを有している。すなわち、重み関数は理想的な
入力アレイを組み換えたパターンを用いてプリローディ
ングされている。
【0031】この好適な実施例において、第1のタップ
W1 (K)のための重み関数は、理想的な入力文字と非
常に関連の深いパターンとして選択される。実際、入力
アレイP(K)は、ニューラルネットワークが認識する
ように訓練されている文字について理想的なものを表す
ものを含んでいるとき、重みタップW1 (K)と入力ア
レイP(K)の相関は1.0である。それゆえ、理想に
非常に近い文字が入力に印加された場合、このノードは
強く「ファイア(fires) 」する(大きな出力を生成す
る)。第2の重み関数W2 (K)は、第1のタップ係数
W1 (K)のアジティブインバースであるとして選択さ
れ、それにより、入力アレイP(K)が、ニューラルネ
ットワークが認識することを訓練されている文字を示す
理想的なものを有する場合、この入力アレイP(K)と
第1のタップ係数W1 (K)とほとんど関連のないもの
である。この場合においては相関は0.0である。それ
ゆえ、理想に非常に近い文字が入力として印加されてい
るとき、第2のノードは非常に重くファイアリングを禁
止する(小さな出力を生成する)。それゆえ、第2のノ
ードは理想的な文字を拒絶する。もちろん、ニューラル
ネットワークの訓練の後、重みの値が修正されうる。
W1 (K)のための重み関数は、理想的な入力文字と非
常に関連の深いパターンとして選択される。実際、入力
アレイP(K)は、ニューラルネットワークが認識する
ように訓練されている文字について理想的なものを表す
ものを含んでいるとき、重みタップW1 (K)と入力ア
レイP(K)の相関は1.0である。それゆえ、理想に
非常に近い文字が入力に印加された場合、このノードは
強く「ファイア(fires) 」する(大きな出力を生成す
る)。第2の重み関数W2 (K)は、第1のタップ係数
W1 (K)のアジティブインバースであるとして選択さ
れ、それにより、入力アレイP(K)が、ニューラルネ
ットワークが認識することを訓練されている文字を示す
理想的なものを有する場合、この入力アレイP(K)と
第1のタップ係数W1 (K)とほとんど関連のないもの
である。この場合においては相関は0.0である。それ
ゆえ、理想に非常に近い文字が入力として印加されてい
るとき、第2のノードは非常に重くファイアリングを禁
止する(小さな出力を生成する)。それゆえ、第2のノ
ードは理想的な文字を拒絶する。もちろん、ニューラル
ネットワークの訓練の後、重みの値が修正されうる。
【0032】(3つの隠れたノードを用いた)この例示
において、ランダムノイズによって初期化されている3
つのノードが加えられ、それによって十分大きな重み空
間が提供され、直線的な分離可能性が達成される(この
直線的な分離可能性とは固有の収束のために隠れたノー
ドをサブクラスに生成するニューラルネットワークの能
力をいう)。この場合はコンバージェンスが2つのノー
ドによっては得ることができない(または容易に得るこ
とができない)。換言すれば、第3のノードが実質的に
類似性のある文字の相互間を顕在化するために役に立つ
特別の重みを有するネットワークを提供する。上述した
ものに類似するものとしては、例えば、0(ゼロ)とO
(オー)と@、8と3とBなどである。認識され、顕著
化されるべき文字の数が非常に増加した場合に、一層隠
れたノードが必要とされ、それによって、さらに重み空
間を拡大化することによって直線的な分離可能性が実現
されることが理解されるであろう。
において、ランダムノイズによって初期化されている3
つのノードが加えられ、それによって十分大きな重み空
間が提供され、直線的な分離可能性が達成される(この
直線的な分離可能性とは固有の収束のために隠れたノー
ドをサブクラスに生成するニューラルネットワークの能
力をいう)。この場合はコンバージェンスが2つのノー
ドによっては得ることができない(または容易に得るこ
とができない)。換言すれば、第3のノードが実質的に
類似性のある文字の相互間を顕在化するために役に立つ
特別の重みを有するネットワークを提供する。上述した
ものに類似するものとしては、例えば、0(ゼロ)とO
(オー)と@、8と3とBなどである。認識され、顕著
化されるべき文字の数が非常に増加した場合に、一層隠
れたノードが必要とされ、それによって、さらに重み空
間を拡大化することによって直線的な分離可能性が実現
されることが理解されるであろう。
【0033】重みアレイが、図2に示したように斜線で
示した領域として示される大きな重みの値と、そして明
瞭な領域として示される小さな重みとを有するものに類
似する、38x26のマトリクスとして配列されている
場合、上述した式は図5に図解した関連性の薄い3つの
アレイのように表現しうる。テストに用いた実施例の重
みの値の許容可能な範囲は、初期状態として、浮動小数
点数表示で−3.2768から+3.2768の間であ
った。+0.3の値が大きな値として用いられ、そして
−0.3の値が小さな値として用いられ、それによって
試みた値の結果としては最良のものが生成され、そし
て、それの重みをアップおよびダウンの両者において値
を変動させることを可能にした。もちろん、更に最適化
することが可能である。±0.1から±0.5の範囲の
重みの値がタップ重みを初期化するに適した値として連
続的に検査された。±0.3が大きくそして小さい重み
の値として用いた場合に比べて、±0.5が用いられた
場合には、得られた結果が幾分貧弱であるということが
判った。初期の大きな重みの値および小さな重みの値と
して±0.1が用いられた場合には、コンバージェンス
(収束性)は幾分緩慢であった。重み関数W3 (K)が
ランダムノイズを用いて初期化された。このランダムノ
イズは、+0.3から−0.3の範囲において均一に分
布している。
示した領域として示される大きな重みの値と、そして明
瞭な領域として示される小さな重みとを有するものに類
似する、38x26のマトリクスとして配列されている
場合、上述した式は図5に図解した関連性の薄い3つの
アレイのように表現しうる。テストに用いた実施例の重
みの値の許容可能な範囲は、初期状態として、浮動小数
点数表示で−3.2768から+3.2768の間であ
った。+0.3の値が大きな値として用いられ、そして
−0.3の値が小さな値として用いられ、それによって
試みた値の結果としては最良のものが生成され、そし
て、それの重みをアップおよびダウンの両者において値
を変動させることを可能にした。もちろん、更に最適化
することが可能である。±0.1から±0.5の範囲の
重みの値がタップ重みを初期化するに適した値として連
続的に検査された。±0.3が大きくそして小さい重み
の値として用いた場合に比べて、±0.5が用いられた
場合には、得られた結果が幾分貧弱であるということが
判った。初期の大きな重みの値および小さな重みの値と
して±0.1が用いられた場合には、コンバージェンス
(収束性)は幾分緩慢であった。重み関数W3 (K)が
ランダムノイズを用いて初期化された。このランダムノ
イズは、+0.3から−0.3の範囲において均一に分
布している。
【0034】これらの重みの値は、今述べている例につ
いて幾分特定的であるが、この技法は重みの値が対象と
している装置において尺度化(スケール)されていると
き一般的に適用されうる。この場合、大きい値および小
さい値がタップの値として用いられているダイナミック
レンジの上下ほぼ10%のポイントであるように規定さ
れるが、しかしながらこの値の比較的広い範囲で機能す
るように期待されているとき、良好な結果が得られた。
一般に「大きな」重みは「小さな」タップ重みに比較し
て大きい。
いて幾分特定的であるが、この技法は重みの値が対象と
している装置において尺度化(スケール)されていると
き一般的に適用されうる。この場合、大きい値および小
さい値がタップの値として用いられているダイナミック
レンジの上下ほぼ10%のポイントであるように規定さ
れるが、しかしながらこの値の比較的広い範囲で機能す
るように期待されているとき、良好な結果が得られた。
一般に「大きな」重みは「小さな」タップ重みに比較し
て大きい。
【0035】これらの重みを初期化した後、従来のバッ
クプロパーゲーションが複数のパスを用いて入力として
の複数の組について用いられた。文字の組が認識される
べき文字の順序で入力に印加され、他の文字のメンバの
組を用いてインターリーブされた(例えば文字「A」を
認識するネットワークを訓練する場合には、A、A、
A、A、B、B、...、Zより、むしろA、B、A、
C、A、D、...、A、Z、A、B、...、
Z、...を用いる)。これらのニューラルネットワー
クに関連した経験において、訓練シーケンスに関してネ
ットワークの従属性を減衰させることが要求され、そし
て、一般化する能力を有するネットワークが提供される
ことが望まれている(一般化能力とは、訓練に用いられ
た文字に類似する文字を認識することである。例えば、
その方法において認識を誤ると(corrupted) それでそれ
らの文字は訓練シーケンスにおけるそれらの文字と同一
ではない)。タップの重みを初期化する上述した技法の
使用により重みの収束が迅速化され、そして、訓練シー
ケンスについてニューラルネットワークの従属性が低減
した。
クプロパーゲーションが複数のパスを用いて入力として
の複数の組について用いられた。文字の組が認識される
べき文字の順序で入力に印加され、他の文字のメンバの
組を用いてインターリーブされた(例えば文字「A」を
認識するネットワークを訓練する場合には、A、A、
A、A、B、B、...、Zより、むしろA、B、A、
C、A、D、...、A、Z、A、B、...、
Z、...を用いる)。これらのニューラルネットワー
クに関連した経験において、訓練シーケンスに関してネ
ットワークの従属性を減衰させることが要求され、そし
て、一般化する能力を有するネットワークが提供される
ことが望まれている(一般化能力とは、訓練に用いられ
た文字に類似する文字を認識することである。例えば、
その方法において認識を誤ると(corrupted) それでそれ
らの文字は訓練シーケンスにおけるそれらの文字と同一
ではない)。タップの重みを初期化する上述した技法の
使用により重みの収束が迅速化され、そして、訓練シー
ケンスについてニューラルネットワークの従属性が低減
した。
【0036】訓練過程に対する更なる改善が行われ、そ
れによってニューラルネットワークの一般化が達成され
た。この技法においては、図7に図解したように、ニュ
ーラルネットワークがまずトレーニングシーケンスとし
て理想的な文字を用いて、所定の期間訓練された。その
期間の後、ニューラルネットワークが、文字の組におけ
る複数の文字についてのオフセットを用いて訓練され
た。それに関連したテストにおいて、そのシーケンスに
ついて500回の反復(繰り返し、サイクル)がオフセ
ット処理に先立って用いられた。それから1000回の
繰り返しが、加えられたオフセットを用いて使用され
た。オフセットはネットワークを収束するためには必要
ではない。しかしながら、収束するということだけが、
ニューラルネットワークが訓練の組の中には存在しない
データのために固有に作用することを確実にさせないと
いうことに留意することが重要である。このオフセット
技法の使用はニューラルネットワークを一般化すること
に役立ち、それによってトレーニングシーケンスの部分
ではないパターンを認識することをよりよく可能にす
る。このオフセットプロセスは付加的な利益を有する。
文字の縁にあるストレイピクセル(stray pixels)を文字
の中心にずらすことができる。訓練期間におけるオフセ
ットがこのシフトを模擬し、そして、そのようなノイズ
に対してロバスト的であるニューラルネットワークを創
生する。
れによってニューラルネットワークの一般化が達成され
た。この技法においては、図7に図解したように、ニュ
ーラルネットワークがまずトレーニングシーケンスとし
て理想的な文字を用いて、所定の期間訓練された。その
期間の後、ニューラルネットワークが、文字の組におけ
る複数の文字についてのオフセットを用いて訓練され
た。それに関連したテストにおいて、そのシーケンスに
ついて500回の反復(繰り返し、サイクル)がオフセ
ット処理に先立って用いられた。それから1000回の
繰り返しが、加えられたオフセットを用いて使用され
た。オフセットはネットワークを収束するためには必要
ではない。しかしながら、収束するということだけが、
ニューラルネットワークが訓練の組の中には存在しない
データのために固有に作用することを確実にさせないと
いうことに留意することが重要である。このオフセット
技法の使用はニューラルネットワークを一般化すること
に役立ち、それによってトレーニングシーケンスの部分
ではないパターンを認識することをよりよく可能にす
る。このオフセットプロセスは付加的な利益を有する。
文字の縁にあるストレイピクセル(stray pixels)を文字
の中心にずらすことができる。訓練期間におけるオフセ
ットがこのシフトを模擬し、そして、そのようなノイズ
に対してロバスト的であるニューラルネットワークを創
生する。
【0037】オフセット処理が文字「T」を例として図
6に図解されている。図6(A)において標準の理想的
な文字「T」が「文字ウインドー」の中の中央に図解さ
れている。希望するニューラルネットワークの一般性を
実現するために、文字が学習過程においていくつかのピ
クセルの数だけ上下左右に移動される。図6(B)にお
いて、文字Tが1ピクセルだけ右側にオフセットされて
いる(ずらされている)。図6(C)において文字Tが
2ピクセルだけ上側にオフセットされている。テスト用
ニューラルネットワークにおいて、ランダムなオフセッ
トがシーケンスの各反復(繰り返し)において加えられ
る。そのオフセットは各方向において最大のピクセルで
ある。オフセットは任意の方向に2ピクセル程度とすべ
きである。そこで、所定の反復が「上側に1ピクセル、
左側に2ピクセル」、「下側に0、右側にピクセル」、
「下側に2ピクセル、上側に2ピクセル」などだけシフ
トされうる。オフセットは各反復期間におけるトレーニ
ングシーケンスの各文字において、ランダムに変化され
る。収束化についてある種の改良が、もしオフセットが
ニューラルネットワークによって検証されあるべきであ
った文字に印加されたときのみ期待されるということが
当業者によって理解されるであろう。オフセットのピク
セルの数、および、オフセットを変化させる技法などに
ついての他の種々の変形形態が当業者によって行われる
であろう。
6に図解されている。図6(A)において標準の理想的
な文字「T」が「文字ウインドー」の中の中央に図解さ
れている。希望するニューラルネットワークの一般性を
実現するために、文字が学習過程においていくつかのピ
クセルの数だけ上下左右に移動される。図6(B)にお
いて、文字Tが1ピクセルだけ右側にオフセットされて
いる(ずらされている)。図6(C)において文字Tが
2ピクセルだけ上側にオフセットされている。テスト用
ニューラルネットワークにおいて、ランダムなオフセッ
トがシーケンスの各反復(繰り返し)において加えられ
る。そのオフセットは各方向において最大のピクセルで
ある。オフセットは任意の方向に2ピクセル程度とすべ
きである。そこで、所定の反復が「上側に1ピクセル、
左側に2ピクセル」、「下側に0、右側にピクセル」、
「下側に2ピクセル、上側に2ピクセル」などだけシフ
トされうる。オフセットは各反復期間におけるトレーニ
ングシーケンスの各文字において、ランダムに変化され
る。収束化についてある種の改良が、もしオフセットが
ニューラルネットワークによって検証されあるべきであ
った文字に印加されたときのみ期待されるということが
当業者によって理解されるであろう。オフセットのピク
セルの数、および、オフセットを変化させる技法などに
ついての他の種々の変形形態が当業者によって行われる
であろう。
【0038】この訓練過程が図7に記述されており、ス
テップ32から始まる。ステップ34において、(イエ
スまたノーのノードが考慮されうる)2つの中間ノード
が認識されるべき文字と相関があるアレイによって初期
化される。あるノードがアレイによって初期化される
が、このアレイはニューラルネットワークが訓練されて
いるものの文字の各ピクセルにおける大きな値の重みを
持ち、そして残ったピクセルについては小さな値を持
つ。このことは「イエス」のノードであることと考慮さ
れる。他のノード「ノー」のノードがアレイによって初
期化されるが、このアレイは上記した「イエス」のノー
ドのアレイと対向する(反対である)もの「すなわち、
アジティブインバース(additive inverse)」を持ってい
る。「イエス」のノードは、正しい文字が入力として印
加されたとき、高い値を累積し、「ノー」のノードは、
正しい文字が入力として与えられたとき、低い値を累積
する。
テップ32から始まる。ステップ34において、(イエ
スまたノーのノードが考慮されうる)2つの中間ノード
が認識されるべき文字と相関があるアレイによって初期
化される。あるノードがアレイによって初期化される
が、このアレイはニューラルネットワークが訓練されて
いるものの文字の各ピクセルにおける大きな値の重みを
持ち、そして残ったピクセルについては小さな値を持
つ。このことは「イエス」のノードであることと考慮さ
れる。他のノード「ノー」のノードがアレイによって初
期化されるが、このアレイは上記した「イエス」のノー
ドのアレイと対向する(反対である)もの「すなわち、
アジティブインバース(additive inverse)」を持ってい
る。「イエス」のノードは、正しい文字が入力として印
加されたとき、高い値を累積し、「ノー」のノードは、
正しい文字が入力として与えられたとき、低い値を累積
する。
【0039】ステップ36において、もしその文字が文
字の組における他の文字から直線的に分離できない、第
3のノードが用いられる。ステップ38において、この
ノードが従来の方法と同様にランダムノイズによって初
期化される。いずれかの事象(イベント)において、文
字の組におけるすべての文字を含む訓練シーケンスがJ
回の反復の数について、ステップ40において、印加さ
れる。状況に依存して、J回の反復が経験的に最適化さ
れうる。このテスト用ニューラルネットワークにおいて
は、J回の反復としてほぼ500の反復が満足すべき値
であった。J回の反復ののち、オフセット処理が導入さ
れるが、ここでは任意の方向において最大2ピクセルの
ランダムオフセットが各反復の期間に加えられる。ステ
ップ42における処理として、反復の数としてはほぼ2
倍の反復(テストにおいて約1000の反復)が収束化
および一般性を実現するために満足するべき値であるこ
とが判った。所定の数の反復が行われた後または、収束
が達成された後、ステップ44においてこの訓練が終了
する。
字の組における他の文字から直線的に分離できない、第
3のノードが用いられる。ステップ38において、この
ノードが従来の方法と同様にランダムノイズによって初
期化される。いずれかの事象(イベント)において、文
字の組におけるすべての文字を含む訓練シーケンスがJ
回の反復の数について、ステップ40において、印加さ
れる。状況に依存して、J回の反復が経験的に最適化さ
れうる。このテスト用ニューラルネットワークにおいて
は、J回の反復としてほぼ500の反復が満足すべき値
であった。J回の反復ののち、オフセット処理が導入さ
れるが、ここでは任意の方向において最大2ピクセルの
ランダムオフセットが各反復の期間に加えられる。ステ
ップ42における処理として、反復の数としてはほぼ2
倍の反復(テストにおいて約1000の反復)が収束化
および一般性を実現するために満足するべき値であるこ
とが判った。所定の数の反復が行われた後または、収束
が達成された後、ステップ44においてこの訓練が終了
する。
【0040】一旦、訓練によって重みの値が決定される
と、浮動小数点演算を使用することを行わないようにす
ることが望まれる。その理由はそれの演算は非常に多く
の演算時間を要するからである。演算速度を迅速化させ
るために、実際に用いられる最終的な重みがスケーリン
グによって16ビットの整数の値に変換される。それゆ
え、−3.2768という最大のタップの重みが−32
768(−215)として表され、+3.2765のタッ
プの重みが+32768(+215)として表される。し
たがって、これらの最大値の間で重みがスケーリングさ
れる。簡単に10,000を乗ずることによって(十進
の位置を右にずらし、そして整数に変換することによっ
て)、16ビットの整数に変換することを簡単化するた
めに、重みの最少値および最少値の初期値が選択され
た。他の最少値または最大値についても本発明の範囲を
逸脱することなく選択することができる。
と、浮動小数点演算を使用することを行わないようにす
ることが望まれる。その理由はそれの演算は非常に多く
の演算時間を要するからである。演算速度を迅速化させ
るために、実際に用いられる最終的な重みがスケーリン
グによって16ビットの整数の値に変換される。それゆ
え、−3.2768という最大のタップの重みが−32
768(−215)として表され、+3.2765のタッ
プの重みが+32768(+215)として表される。し
たがって、これらの最大値の間で重みがスケーリングさ
れる。簡単に10,000を乗ずることによって(十進
の位置を右にずらし、そして整数に変換することによっ
て)、16ビットの整数に変換することを簡単化するた
めに、重みの最少値および最少値の初期値が選択され
た。他の最少値または最大値についても本発明の範囲を
逸脱することなく選択することができる。
【0041】図8を参照して述べると、この認識および
検証過程がステップ50から開始するフローチャートの
形態で要約されている。ステップ52において、シリア
ル番号が部分10から走査され、コンピュータまたニュ
ーラルネットワーク回路によって利用可能な形態の画像
を表すものが生成される。好適実施例について考える
と、シリアル番号がコンパクトディスクの中心の孔のま
わりに半円形に配列されている。ステップ54におい
て、その画像が処理されて半円形の文字の配列から直線
状の配列に変換される。そのような配列としては、それ
ぞれの文字を回転させて図2に示したようなものをより
読みやすい配列にしたものがある。これについては本発
明と同時出願した上記関連出願(米国シリアル番号:0
7/955,555)に記載されている。
検証過程がステップ50から開始するフローチャートの
形態で要約されている。ステップ52において、シリア
ル番号が部分10から走査され、コンピュータまたニュ
ーラルネットワーク回路によって利用可能な形態の画像
を表すものが生成される。好適実施例について考える
と、シリアル番号がコンパクトディスクの中心の孔のま
わりに半円形に配列されている。ステップ54におい
て、その画像が処理されて半円形の文字の配列から直線
状の配列に変換される。そのような配列としては、それ
ぞれの文字を回転させて図2に示したようなものをより
読みやすい配列にしたものがある。これについては本発
明と同時出願した上記関連出願(米国シリアル番号:0
7/955,555)に記載されている。
【0042】ステップ58においてマトリクスがアセン
ブルされて回転された文字が含まれる。一般に、この時
点において各々の文字を、処理するためにピクセルの区
分されたマトリクスに分離することが望ましい。それか
ら、このマトリクスがステップ62においてニューラル
ネットワークに印加されるが、そのニューラルネットワ
ークはN個の文字またはシンボルからなる適切な一つの
組のメンバーを認識するために訓練される。それから、
そのニューラルネットワークが、ステップ66において
ある結果を生成するが、この結果にはシリアル番号につ
いてのN個の文字またはシンボルのそれぞれの値につい
てそのニューラルネットワークの最良の推定が含まれ
る。
ブルされて回転された文字が含まれる。一般に、この時
点において各々の文字を、処理するためにピクセルの区
分されたマトリクスに分離することが望ましい。それか
ら、このマトリクスがステップ62においてニューラル
ネットワークに印加されるが、そのニューラルネットワ
ークはN個の文字またはシンボルからなる適切な一つの
組のメンバーを認識するために訓練される。それから、
そのニューラルネットワークが、ステップ66において
ある結果を生成するが、この結果にはシリアル番号につ
いてのN個の文字またはシンボルのそれぞれの値につい
てそのニューラルネットワークの最良の推定が含まれ
る。
【0043】ステップ72において、シリアル番号につ
いてのそれぞれ認識されたシンボルのあるものについ
て、M個のより小さいニューラルネットワークの組がN
個のそのようなニューラルネットワークの集合から選択
される。N個のニューラルネットワークのそれぞれが訓
練されて、全ての文字の組におけるN個の文字について
単一のものの認識に対する答えとして「イエス」または
「ノー」のいずれかのみを与える。したがってN個のニ
ューラルネットワークのそれぞれはその文字の組におけ
る単一の文字の認識に関連している。
いてのそれぞれ認識されたシンボルのあるものについ
て、M個のより小さいニューラルネットワークの組がN
個のそのようなニューラルネットワークの集合から選択
される。N個のニューラルネットワークのそれぞれが訓
練されて、全ての文字の組におけるN個の文字について
単一のものの認識に対する答えとして「イエス」または
「ノー」のいずれかのみを与える。したがってN個のニ
ューラルネットワークのそれぞれはその文字の組におけ
る単一の文字の認識に関連している。
【0044】ステップ76において、シリアル番号にお
ける一つの文字に関連する個々のマトリクスのそれぞれ
が、ステップ72において選択されたM個のニューラル
ネットワークのあるものと関係しており、それにより、
シリアル番号のそれぞれの文字に関するピクセルのマト
リクスによって表されたものとしての文字の画像が、ス
テップ66において得られたそれぞれ認識された文字と
関連する検証ニューラルネットワークに印加される。そ
れから、より小さいM個のニューラルネットワークのそ
れぞれが、それぞれの文字を解析し、それぞれの文字が
正確に認識されているものかどうかを表すステップ82
における結果を提供する。もし、シリアル番号のすべて
のM個の文字がステップ84において正しく認識された
場合には、この処理はステップ86において終了する。
もし全ての文字がステップ84において検証されなかっ
た場合は、ステップ86における終了処理に先立って、
エラー修復(リカバリ)処理が、ステップ88において
行われる。
ける一つの文字に関連する個々のマトリクスのそれぞれ
が、ステップ72において選択されたM個のニューラル
ネットワークのあるものと関係しており、それにより、
シリアル番号のそれぞれの文字に関するピクセルのマト
リクスによって表されたものとしての文字の画像が、ス
テップ66において得られたそれぞれ認識された文字と
関連する検証ニューラルネットワークに印加される。そ
れから、より小さいM個のニューラルネットワークのそ
れぞれが、それぞれの文字を解析し、それぞれの文字が
正確に認識されているものかどうかを表すステップ82
における結果を提供する。もし、シリアル番号のすべて
のM個の文字がステップ84において正しく認識された
場合には、この処理はステップ86において終了する。
もし全ての文字がステップ84において検証されなかっ
た場合は、ステップ86における終了処理に先立って、
エラー修復(リカバリ)処理が、ステップ88において
行われる。
【0045】本発明に基づく変形形態としては、訓練シ
ーケンスの文字が理想的な文字よりも太くするまたは細
くすることによってさらに修正される。図9および図1
0はそれぞれ文字「A」および「G」を示しているが、
通常の文字(図9(B)および図10(B))を太くし
たもの(図9(A)および図10(A))および細くし
たもの(図9(C)および図10(C))を生成するよ
うに処理されている。これらの太い文字および細い文字
は上述したオフセット技法に関連して連続的に印加され
る。このテスト実施例においては、太い文字と細い文字
とが1組として印加される。つまり、太い文字の全体の
訓練シーケンスが印加され、続けて通常の訓練シーケン
スが印加され、さらに続けて細い文字の訓練シーケンス
が印加(適用)される。
ーケンスの文字が理想的な文字よりも太くするまたは細
くすることによってさらに修正される。図9および図1
0はそれぞれ文字「A」および「G」を示しているが、
通常の文字(図9(B)および図10(B))を太くし
たもの(図9(A)および図10(A))および細くし
たもの(図9(C)および図10(C))を生成するよ
うに処理されている。これらの太い文字および細い文字
は上述したオフセット技法に関連して連続的に印加され
る。このテスト実施例においては、太い文字と細い文字
とが1組として印加される。つまり、太い文字の全体の
訓練シーケンスが印加され、続けて通常の訓練シーケン
スが印加され、さらに続けて細い文字の訓練シーケンス
が印加(適用)される。
【0046】この処理が図11のフローチャートに記述
されている。この処理はステップ200から始まる。ス
テップ204において、通常の訓練シーケンスが所定の
時間の間(たとえば、500反復)印加されて、訓練処
理を開始させる。ステップ208において、それから、
太い文字のシーケンスが印加される。ステップ214に
おいて、通常のシーケンスが印加され、続いて、ステッ
プ220において、細い文字のシーケンスが印加され
る。ステップ208、214および220は、ニューラ
ルネットワークが収束するまで所定の期間、繰り返され
る。これはステップ228において決定され、その後、
ステップ240において、処理が終了する。
されている。この処理はステップ200から始まる。ス
テップ204において、通常の訓練シーケンスが所定の
時間の間(たとえば、500反復)印加されて、訓練処
理を開始させる。ステップ208において、それから、
太い文字のシーケンスが印加される。ステップ214に
おいて、通常のシーケンスが印加され、続いて、ステッ
プ220において、細い文字のシーケンスが印加され
る。ステップ208、214および220は、ニューラ
ルネットワークが収束するまで所定の期間、繰り返され
る。これはステップ228において決定され、その後、
ステップ240において、処理が終了する。
【0047】この処理について種々の変形例が、使用さ
れる太さを変化させることによって可能であり、それに
よって、その装置内のノイズを模擬し、良好に一般化さ
れるニューラルネットワークを生成する。上述した方法
は系統的であるが、文字の太さについてランダムに変化
させることも可能である。また、文字の太さは、本発明
を逸脱することなく、他のパラメータを変化に基づいて
または用いて文字ごとに変更できる。
れる太さを変化させることによって可能であり、それに
よって、その装置内のノイズを模擬し、良好に一般化さ
れるニューラルネットワークを生成する。上述した方法
は系統的であるが、文字の太さについてランダムに変化
させることも可能である。また、文字の太さは、本発明
を逸脱することなく、他のパラメータを変化に基づいて
または用いて文字ごとに変更できる。
【0048】本発明のこのテスト文字は、ほぼ4ピクセ
ルの太さでの線で構成されていた。太い文字および細い
文字で構成されている線はそれぞれ、ほぼ5ピクセルお
よび3ピクセルであり、文字を発生させた機械における
ノイズを模擬している。太い文字は畳み込みのような
(convolution-like) 処理で発生されうるが、この処理
において、文字がピクセルごとに試験される。もし現在
のピクセルの下または右にあるピクセルが元の画像にお
いて1であるとき、現在のピクセルは1に変更され、目
標画像ファイル内に置かれる。同様の処理が細くするル
ーチンによっても使用される。
ルの太さでの線で構成されていた。太い文字および細い
文字で構成されている線はそれぞれ、ほぼ5ピクセルお
よび3ピクセルであり、文字を発生させた機械における
ノイズを模擬している。太い文字は畳み込みのような
(convolution-like) 処理で発生されうるが、この処理
において、文字がピクセルごとに試験される。もし現在
のピクセルの下または右にあるピクセルが元の画像にお
いて1であるとき、現在のピクセルは1に変更され、目
標画像ファイル内に置かれる。同様の処理が細くするル
ーチンによっても使用される。
【0049】本発明のニューラルネットワークについて
のテスト実施例において、36の文字の組(A〜Z、0
〜9)が認識されるべきものであった。文字は24×4
8ピクセルのウインドー内において約42ピクセル高か
った。15の隠れたノードが使用され、ニューラルネッ
トワークの重みがランダムノイズで初期化された(この
ニューラルネットワークは初期化に使用したノイズの特
性に敏感であり、第1回の試みでは収束しなかった。収
束は第2の初期化で達成された。)重みの値が、下に示
した位置においてランダムノイズによって変更され、オ
フセットが下に示したように印加された。下記の初期化
シーケンスは(経験的に決定されたもの)、各々の繰り
返しにおいて(つまり、太い−通常−細い−太い−通常
−細い・・・)修正されている文字の太さを用いて連続
的に使用された。
のテスト実施例において、36の文字の組(A〜Z、0
〜9)が認識されるべきものであった。文字は24×4
8ピクセルのウインドー内において約42ピクセル高か
った。15の隠れたノードが使用され、ニューラルネッ
トワークの重みがランダムノイズで初期化された(この
ニューラルネットワークは初期化に使用したノイズの特
性に敏感であり、第1回の試みでは収束しなかった。収
束は第2の初期化で達成された。)重みの値が、下に示
した位置においてランダムノイズによって変更され、オ
フセットが下に示したように印加された。下記の初期化
シーケンスは(経験的に決定されたもの)、各々の繰り
返しにおいて(つまり、太い−通常−細い−太い−通常
−細い・・・)修正されている文字の太さを用いて連続
的に使用された。
【0050】
【表2】
【0051】下記表3は、本発明のテストに使用した、
1ピクセルだけ文字の太さを太くしたり、細くしたりす
るルーチンのCコード(言語)によるプログラムリスト
である。
1ピクセルだけ文字の太さを太くしたり、細くしたりす
るルーチンのCコード(言語)によるプログラムリスト
である。
【0052】
【表3】
【0053】このプログラムコードはフローチャートに
よってその流れを記述したように処理される、形態学的
に太くするか細くする文字を発生する。文字を太くする
処理は、通常の幅の文字をとり、それと左側にずらした
通常の文字とORをとり、上側にずらした通常の文字と
ORをとり、左側および上側にずらした通常の文字とO
Rをとることに似ている。文字を細くする処理は、通常
の幅の文字をとり、それと左側にずらした通常の文字と
ANDをとり、上側にずらした通常の世事とANDをと
り、左側および上側にずらした通常の文字とANDをと
ることに類似している。
よってその流れを記述したように処理される、形態学的
に太くするか細くする文字を発生する。文字を太くする
処理は、通常の幅の文字をとり、それと左側にずらした
通常の文字とORをとり、上側にずらした通常の文字と
ORをとり、左側および上側にずらした通常の文字とO
Rをとることに似ている。文字を細くする処理は、通常
の幅の文字をとり、それと左側にずらした通常の文字と
ANDをとり、上側にずらした通常の世事とANDをと
り、左側および上側にずらした通常の文字とANDをと
ることに類似している。
【0054】このルーチンにおいて、SCR(k)は3
×3マスクの中心ピクセルであり、これは文字のウイン
ドーを横切って通過されている。SCR(k+1)が中
心の右のピクセルであり、SCR(k+char h)
が中心の下であり、SCR(k−char h−1)が
中心の上であり、SCR(k−char h+1)が中
心の右上である。
×3マスクの中心ピクセルであり、これは文字のウイン
ドーを横切って通過されている。SCR(k+1)が中
心の右のピクセルであり、SCR(k+char h)
が中心の下であり、SCR(k−char h−1)が
中心の上であり、SCR(k−char h+1)が中
心の右上である。
【0055】図12は文字を太くする処理を記述してい
る。3×3のマスク(太いマスク:mask-fat)が、ステ
ップ250における文字ウインドーの上左隅に置かれて
いる。任意のピクセルa、b、cまたはdが1の場合、
ステップ254において、目標ピクセル(中心)が目標
ファイル内に1として設定される。それから、ステップ
258において、マスクが1ピクセルだけ右にずらされ
る。ステップ262において、マスクが右縁にあると
き、マスクは1ピクセルだけ下に降ろされ、ステップ2
66において、左の縁に向かって戻され、次の列のピク
セルに対してこの処理が反復される。ステップ270に
おいて、マスクが底部の右隅に到達すると、全ての画像
が処理して、このルーチンが終了する。頂部の左の画像
は中央の画像における文字画像を越えて示されているマ
スクを表す。下側の画像は太くされた文字を表してい
る。
る。3×3のマスク(太いマスク:mask-fat)が、ステ
ップ250における文字ウインドーの上左隅に置かれて
いる。任意のピクセルa、b、cまたはdが1の場合、
ステップ254において、目標ピクセル(中心)が目標
ファイル内に1として設定される。それから、ステップ
258において、マスクが1ピクセルだけ右にずらされ
る。ステップ262において、マスクが右縁にあると
き、マスクは1ピクセルだけ下に降ろされ、ステップ2
66において、左の縁に向かって戻され、次の列のピク
セルに対してこの処理が反復される。ステップ270に
おいて、マスクが底部の右隅に到達すると、全ての画像
が処理して、このルーチンが終了する。頂部の左の画像
は中央の画像における文字画像を越えて示されているマ
スクを表す。下側の画像は太くされた文字を表してい
る。
【0056】図13は文字を細くする処理を記述してい
る。3×3のマスク(細いマスク:mask-thin )が、ス
テップ350において、文字ウインドーの左上隅に置か
れる。もし、ピクセル(d、e、gおよびh)、ピクセ
ル(b、dおよびf)、ピクセル(a、dまたはh)の
いずれかが全て1の場合、ステップ354において、目
標ピクセル(中心)が目標ファイル内に1と設定され
る。マスクはそれから、ステップ358において、1ピ
クセルだけ右にずらされる。ステップ362において、
マスクが右縁に到達すると、ステップ366において、
マスクは1ピクセルだけ下に降ろされ、左の縁に戻さ
れ、この処理が次の列のピクセルに対して反復される。
ステップ370において、マスクが底部の右隅に到達す
ると、全体の画像が処理されたことになり、このルーチ
ンが終了する。頂部左の画像は中央画像における文字画
像を越えて示されているマスクを表している。下側の画
像は細くされた文字を表している。
る。3×3のマスク(細いマスク:mask-thin )が、ス
テップ350において、文字ウインドーの左上隅に置か
れる。もし、ピクセル(d、e、gおよびh)、ピクセ
ル(b、dおよびf)、ピクセル(a、dまたはh)の
いずれかが全て1の場合、ステップ354において、目
標ピクセル(中心)が目標ファイル内に1と設定され
る。マスクはそれから、ステップ358において、1ピ
クセルだけ右にずらされる。ステップ362において、
マスクが右縁に到達すると、ステップ366において、
マスクは1ピクセルだけ下に降ろされ、左の縁に戻さ
れ、この処理が次の列のピクセルに対して反復される。
ステップ370において、マスクが底部の右隅に到達す
ると、全体の画像が処理されたことになり、このルーチ
ンが終了する。頂部左の画像は中央画像における文字画
像を越えて示されているマスクを表している。下側の画
像は細くされた文字を表している。
【0057】文字を太くしたり細くする他の手法も等し
く効果的でありうる。同様に、文字を適用する他の方式
も等しく効果的であり、あるいは、良好であるうる。ノ
イズが存在する場合における文字を正しく同定するニュ
ーラルネットワークの能力がテストに用いたこの技法を
用いて、非常に向上した。
く効果的でありうる。同様に、文字を適用する他の方式
も等しく効果的であり、あるいは、良好であるうる。ノ
イズが存在する場合における文字を正しく同定するニュ
ーラルネットワークの能力がテストに用いたこの技法を
用いて、非常に向上した。
【0058】図14を参照して述べると、本発明に基づ
く文字認識装置の実施例がブロックダイアグラムの形態
で表されている。この装置において、第1のニューラル
ネットワーク100または文字認識のために設計された
他のニューラルネットワークが用いられて文字を初期的
に認識する。その文字の画像がその入力に印加されてい
る。ニューラルネットワーク100の認識処理がマニュ
アルで読み取ったものおよび入力したもの、または同じ
シリアル番号について複数の検証が続けられる認識であ
ってもよいことについて、当業者は理解している。工業
的な用途において、認識部分が一旦、初期的に用いられ
るという場合がしばしばである。それから、認識部分が
検証される複数の部分について反復して用いられる。ネ
ットワーク100の出力がスイッチコントロール回路1
04において読み出され、このスイッチコントロール回
路がスイッチ110および112の位置を決定し、それ
によってN個の文字検証ニューラルネットワーク120
1 から120N のいずれか一つを選択する。ニューラル
ネットワーク100における文字のマニュアルまたは他
の認識を行う場合には、スイッチ110および112で
表されるスイッチング動作はまた手動的に実行される。
もちろん本発明を逸脱することなしに他の実施態様も可
能である。
く文字認識装置の実施例がブロックダイアグラムの形態
で表されている。この装置において、第1のニューラル
ネットワーク100または文字認識のために設計された
他のニューラルネットワークが用いられて文字を初期的
に認識する。その文字の画像がその入力に印加されてい
る。ニューラルネットワーク100の認識処理がマニュ
アルで読み取ったものおよび入力したもの、または同じ
シリアル番号について複数の検証が続けられる認識であ
ってもよいことについて、当業者は理解している。工業
的な用途において、認識部分が一旦、初期的に用いられ
るという場合がしばしばである。それから、認識部分が
検証される複数の部分について反復して用いられる。ネ
ットワーク100の出力がスイッチコントロール回路1
04において読み出され、このスイッチコントロール回
路がスイッチ110および112の位置を決定し、それ
によってN個の文字検証ニューラルネットワーク120
1 から120N のいずれか一つを選択する。ニューラル
ネットワーク100における文字のマニュアルまたは他
の認識を行う場合には、スイッチ110および112で
表されるスイッチング動作はまた手動的に実行される。
もちろん本発明を逸脱することなしに他の実施態様も可
能である。
【0059】上述したように本発明の好適な実施例は、
検証の容量の観点において、少ないニューラルネットワ
ークを複数用いるが、そのような少ないニューラルネッ
トワークの配列が文字認識に利用できることも理解され
る。もし、ソフトウエア的に処理する実施態様において
は、これは、連続的にまたは並列的な処理として実現さ
れる。ハードウエア的に行う実施態様においては、並列
に接続された複数のニューラルネットワークの半導体チ
ップが迅速な処理を実現するために用いられる。この変
形態様が図15に図解されており、図15においてはN
個の文字の組が、例えば入力マトリクス134から、入
力として受け入れるN個の小さなニューラルネットワー
ク1301 から130N の組を用いている。N個のニュ
ーラルネットワークは、文字またはシンボルを同定する
「1オブN(N個のうちの1つ)」の出力を提供する。
検証の容量の観点において、少ないニューラルネットワ
ークを複数用いるが、そのような少ないニューラルネッ
トワークの配列が文字認識に利用できることも理解され
る。もし、ソフトウエア的に処理する実施態様において
は、これは、連続的にまたは並列的な処理として実現さ
れる。ハードウエア的に行う実施態様においては、並列
に接続された複数のニューラルネットワークの半導体チ
ップが迅速な処理を実現するために用いられる。この変
形態様が図15に図解されており、図15においてはN
個の文字の組が、例えば入力マトリクス134から、入
力として受け入れるN個の小さなニューラルネットワー
ク1301 から130N の組を用いている。N個のニュ
ーラルネットワークは、文字またはシンボルを同定する
「1オブN(N個のうちの1つ)」の出力を提供する。
【0060】本発明については種々の変形形態が可能で
ある。例えば、ニューラルネットワークについての現在
の実施例は、コンピュータープログラムの形態でディジ
タルコンピュータに実現した場合を述べたが、ハードウ
エアによる実行も可能であり、ニューラルネットワーク
の回路の稼働率(利用率)および価格がより有利にな
る。本発明の技法は3層のニューラルネットワークに関
連づけて記述したが、一般的にこれらのネットワークは
3層またはそれ以上の層についても適用可能である。ま
た本発明は最初に認識し、それから文字またはシンボル
を検証する2段階の処理過程について述べたが、検証過
程が任意の状況において単独で用いることができること
が、当業者によって理解される。その状況とは文字また
はシンボルが事前に判っている場合である。
ある。例えば、ニューラルネットワークについての現在
の実施例は、コンピュータープログラムの形態でディジ
タルコンピュータに実現した場合を述べたが、ハードウ
エアによる実行も可能であり、ニューラルネットワーク
の回路の稼働率(利用率)および価格がより有利にな
る。本発明の技法は3層のニューラルネットワークに関
連づけて記述したが、一般的にこれらのネットワークは
3層またはそれ以上の層についても適用可能である。ま
た本発明は最初に認識し、それから文字またはシンボル
を検証する2段階の処理過程について述べたが、検証過
程が任意の状況において単独で用いることができること
が、当業者によって理解される。その状況とは文字また
はシンボルが事前に判っている場合である。
【0061】訓練過程はまた本発明を逸脱することなく
相当に変更可能である。例えば、ランダムなオフセット
の変更について述べたが、オフセットを系統的に適用す
る場合も考案できる。そうした訓練シーケンスの構成(o
rganization)は系統的であるがランダムにすることもで
きる。重み関数W1 (K)およびW2 (K)はお互いに
独立に用いることができる。
相当に変更可能である。例えば、ランダムなオフセット
の変更について述べたが、オフセットを系統的に適用す
る場合も考案できる。そうした訓練シーケンスの構成(o
rganization)は系統的であるがランダムにすることもで
きる。重み関数W1 (K)およびW2 (K)はお互いに
独立に用いることができる。
【0062】本発明として、アルファベットまた数字の
形式の認識について強調して述べたが、上述したよう
に、工業的な用途においては、認識すべき対象が、ロボ
ットによってピックアップされるべき部分、アウトライ
ンの一部、バーコードまたは他の画像であることが要求
されている。3層のニューラルネットワークが開示され
たが、この技法はより多くの層を持つニューラルネット
ワークに拡張されるべきである。以上開示した実施例に
おいては入力は2進の値であったが、アナログまたはデ
ィジタル化されたアナログ入力もまた適用できる。他の
変形形態もまた当業者によって行うことができる。
形式の認識について強調して述べたが、上述したよう
に、工業的な用途においては、認識すべき対象が、ロボ
ットによってピックアップされるべき部分、アウトライ
ンの一部、バーコードまたは他の画像であることが要求
されている。3層のニューラルネットワークが開示され
たが、この技法はより多くの層を持つニューラルネット
ワークに拡張されるべきである。以上開示した実施例に
おいては入力は2進の値であったが、アナログまたはデ
ィジタル化されたアナログ入力もまた適用できる。他の
変形形態もまた当業者によって行うことができる。
【0063】したがって、本発明によれば、上述した目
的、意図および利益を十分に満足する装置が述べられて
いる。本発明は特定的な実施例に関連づけて記述されて
いるが、種々の変形形態、修正、代替および変形が、上
述した記述に照らし合わせれば、当業者にとって明瞭で
あることは明らかである。しがたって、本発明は添付し
た特許請求範囲の記載事項におけるそのような変形形
態、修正および変形を包含するものである。
的、意図および利益を十分に満足する装置が述べられて
いる。本発明は特定的な実施例に関連づけて記述されて
いるが、種々の変形形態、修正、代替および変形が、上
述した記述に照らし合わせれば、当業者にとって明瞭で
あることは明らかである。しがたって、本発明は添付し
た特許請求範囲の記載事項におけるそのような変形形
態、修正および変形を包含するものである。
【0064】
【発明の効果】以上述べたように本発明によれば、文字
またはシンボルを認識する改良された方法およびその装
置が提供され、これらの方法および装置によれば文字認
識の程度(精度)が向上する。また、本発明の訓練技法
によれば、ロバストなネットワークが提供でき、ニュー
ラルネットワークの一般化が達成できる。
またはシンボルを認識する改良された方法およびその装
置が提供され、これらの方法および装置によれば文字認
識の程度(精度)が向上する。また、本発明の訓練技法
によれば、ロバストなネットワークが提供でき、ニュー
ラルネットワークの一般化が達成できる。
【図1】本発明の動作を図解する図であり、(A)は全
体ブロック図、(B)は(A)に示したマトリクスとニ
ューラルネットワークの構成図である。
体ブロック図、(B)は(A)に示したマトリクスとニ
ューラルネットワークの構成図である。
【図2】文字「A」を例示した場合のピクセルの配列を
示す図である。
示す図である。
【図3】図1に示したニューラルネットワーク20を示
す図である。
す図である。
【図4】図1に示したニューラルネットワーク30を示
す図である。
す図である。
【図5】図4に示したニューラルネットワークの重み関
数を初期化することを示す図である。
数を初期化することを示す図である。
【図6】図6(A)、(B)、(C)は訓練過程に用い
られる文字のオフセットの処理を示す図である。
られる文字のオフセットの処理を示す図である。
【図7】本発明の訓練処理を示すフローチャートであ
る。
る。
【図8】本発明の動作を示すフローチャートである。
【図9】本発明に基づいて文字「A」を太くし、細くす
ることを図解する図である。
ることを図解する図である。
【図10】本発明に基づいて文字「G」を太くし、細く
することを図解する図である。
することを図解する図である。
【図11】本発明の訓練処理を図解するフローチャート
である。
である。
【図12】文字を太くするために使用する方法のフロー
チャートである。
チャートである。
【図13】文字を細くするために使用する方法のフロー
チャートである。
チャートである。
【図14】本発明の文字認識および検証装置の構成を示
すブロック図である。
すブロック図である。
【図15】本発明の変形態様に基づく文字認識装置の構
成を示すブロック図である。
成を示すブロック図である。
10・・・コンパクトディスクの部分 12・・・ビデオカメラ(走査装置) 14・・・極座標変換器 16・・・マトリクスアレイ 20・・・ニューラルネットワーク 30・・・ニューラルネットワーク
Claims (45)
- 【請求項1】ニューラルネットワークを訓練する方法で
あって、該方法が下記の諸段階、すなわち、 所定の幅を有するシンボルについての第1のシーケンス
を前記ニューラルネットワークに印加し、 前記第1のシーケンス内の前記シンボルの少なくとも一
部を含み、シンボルの太さを変化させることによって修
正されているシンボルについての第2のシーケンスを前
記ニューラルネットワークに印加する諸段階を有するニ
ューラルネットワークを訓練する方法。 - 【請求項2】前記シンボルの太さを変化させることが前
記シンボルを太くすることを含む請求項1記載の方法。 - 【請求項3】前記シンボルの太さを変化させることが前
記シンボルを細くすることを含む請求項1記載の方法。 - 【請求項4】前記シンボルの太さを変化させることが前
記シンボルを細くすることを含む請求項2記載の方法。 - 【請求項5】前記シンボルの太さを変化させることが1
ピクセルぶん太く変化させることを含む請求項1記載の
方法。 - 【請求項6】ニューラルネットワークを訓練する方法で
あって、該方法が下記の諸段階、すなわち、 シンボルについての第1の訓練シーケンスを第1の回数
繰り返す前記ニューラルネットワークに印加し、 シンボルについての第2の訓練シーケンスを第2の回数
繰り返す前記ニューラルネットワークに印加する諸段階
を具備し、 前記第2の訓練シンボルが、 所定の太さだけ変化された前記シンボルを有する前記第
1の訓練シーケンスからなる第1組のシンボル、およ
び、 所定の細さだけ変化された前記シンボルを有する前記第
1の訓練シーケンスからなる第2組のシンボルを有す
る、ニューラルネットワークを訓練する方法。 - 【請求項7】前記第2の訓練シーケンスが前記第1の訓
練シーケンスから構成される第3組のシンボルをさらに
有する請求項6記載の方法。 - 【請求項8】前記太さを変化させることが1ピクセルぶ
ん太く変化させる請求項6記載の方法。 - 【請求項9】前記太さを変化させることが1ピクセルぶ
ん細く変化させる請求項6記載の方法。 - 【請求項10】ニューラルネットワークを訓練する方法
であって、該方法が下記の諸段階、すなわち、 シンボルについての第1の訓練シーケンスを第1の回数
繰り返す前記ニューラルネットワークに印加し、 シンボルについての第2の訓練シーケンスを第2の回数
繰り返す前記ニューラルネットワークに印加する諸段階
を具備し、 前記第2の訓練シンボルが、 1ピクセルだけ前記第1の訓練シーケンスのシンボルを
太く変化させた前記シンボルを有する前記第1の訓練シ
ーケンスからなる第1組のシンボル、 1ピクセルだけ前記第1の訓練シーケンスのシンボルを
細く変化させた前記シンボルを有する前記第1の訓練シ
ーケンスからなる第2組のシンボル、および、 前記第1の訓練シーケンスからなる第3組のシンボルを
有する、ニューラルネットワークを訓練する方法。 - 【請求項11】N個の可能性あるシンボルについての第
1組から1つのシンボルを処理する方法であって、該方
法が、下記の諸段階、すなわち、 認識用ニューラルネットワークの入力として前記シンボ
ルを表すものを受入れ、 前記ニューラルネットワークにおける前記入力を処理し
て、前記N個のシンボルについての認識された1つを表
す出力を生成し、 前記N個のシンボルについての認識されたものと関連す
る、検証合格または検証失敗のいずれかを示す出力を有
する検証用ニューラルネットワークを選択し、 前記検証用ニューラルネットワークの入力として前記シ
ンボルを表すものを印加するシンボル処理方法。 - 【請求項12】前記シンボルを表すものとして、ビデオ
カメラの出力を受け入れる段階をさらに具備する請求項
11記載の方法。 - 【請求項13】前記シンボルを表すものがピクセルのマ
トリクスを有する請求項11記載の方法。 - 【請求項14】前記ピクセルのマトリクスが複数のシン
ボルを表し、前記マトリクスの一部が前記シンボルを表
す請求項13記載の方法。 - 【請求項15】所定のシンボルを検証する方法であっ
て、該方法が下記の諸段階、すなわち、 前記シンボルと関連する、検証合格または検証失敗のい
ずれかを示す出力を有する検証用ニューラルネットワー
クを選択し、 認識用ニューラルネットワークの入力として前記シンボ
ルを表すものを受入れ、 前記検証用ニューラルネットワークの入力として前記シ
ンボルを表すものを印加する諸段階を具備する検証方
法。 - 【請求項16】前記選択段階が、認識用ニューラルネッ
トワークからの出力に基づいて前記検証用ニューラルネ
ットワークを選択することを含む請求項15記載の方
法。 - 【請求項17】単一のシンボルを認識するため、前記検
証用ニューラルネットワークを訓練する段階をさらに具
備する請求項15記載の方法。 - 【請求項18】前記検証用ニューラルネットワークが2
つのノードを有する中間層を有する請求項15記載の方
法。 - 【請求項19】前記検証用ニューラルネットワークが3
つのノードを有する中間層を有する請求項15記載の方
法。 - 【請求項20】前記選択段階が、それぞれN個のあり得
るシンボルの単一のものと関連しているN個の複数のニ
ューラルネットワークから検証用ニューラルネットワー
クを選択することを含む請求項15記載の方法。 - 【請求項21】前記シンボルを表すものが、ピクセルの
アレイを有する請求項15記載の方法。 - 【請求項22】シンボルの組から選択された1つのシン
ボルを表す情報を処理する方法であって、該方法が下記
の諸段階、すなわち、 前記シンボルの組の1つシンボルを表す前記情報を受入
れ、 訓練されたニューラルネットワークを用いて前記シンボ
ルを解析して、前記組の単一のシンボルを認識し、 シンボルが前記単一のシンボルであるかそうでないかを
表す、認識のために訓練されている前記ニューラルネッ
トワークの出力を提供する諸段階を具備する情報処理方
法。 - 【請求項23】前記受け入れる段階が、前記シンボルを
表すピクセルのマトリクスを受け入れる段階をさらに有
する請求項22記載の方法。 - 【請求項24】前記ニューラルネットワークを訓練して
単一のシンボルを認識させる段階をさらに具備する請求
項22記載の方法。 - 【請求項25】前記ニューラルネットワークが2つのノ
ードを有する中間層を有する請求項22記載の方法。 - 【請求項26】前記ニューラルネットワークが3つのノ
ードを有する中間層を有する請求項22記載の方法。 - 【請求項27】N個の文字の組から文字を認識する方法
であって、該方法が下記の諸段階、すなわち、 それぞれが前記N個の文字の単一のものと関連し、か
つ、認識するように訓練されている、N個の複数のニュ
ーラルネットワークを提供し、それを示す出力を提供
し、 前記N個のニューラルネットワークのそれぞれに入力を
印加し、 N個のニューラルネットワークのどれが、それと関連す
る文字を認識していることを示す出力を有するかを決定
する諸段階を具備する文字認識方法。 - 【請求項28】前記受け入れる段階が、前記シンボルを
表すピクセルのマトリクスを受け入れる段階をさらに具
備する請求項27記載の方法。 - 【請求項29】前記N個のニューラルネットワークをそ
れぞれを訓練して、前記関連する文字を認識させる段階
をさらに具備する請求項27記載の方法。 - 【請求項30】N個のありうる文字の組から文字を認識
する文字認識および検証装置であって、 認識されるべき文字を表す入力を発生する入力手段と、 前記N個のありうる文字の1つとして前記文字を認識す
る認識用ニューラルネットワークと、 N個の複数の検証用ニューラルネットワークであって、
該N個のニューラルネットワークのそれぞれが前記N個
の文字の1つの関連しており、その関連している文字を
認識するために訓練されているものと、 前記認識された文字に基づいて認識されるべき文字を表
す入力を受け入れるため、前記N個の複数の検証用ニュ
ーラルネットワークの1つを選択する手段との組合せを
具備する文字認識および検証装置。 - 【請求項31】第1のニューラルネットワークを用いて
文字を認識し、 第2のニューラルネットワークを用いて前記第1のニュ
ーラルネットワークによる前記文字の正しい認識を検証
する段階を具備する文字認識方法。 - 【請求項32】前記第1のニューラルネットワークによ
って認識された文字に基づいて可能性のある複数のニュ
ーラルネットワークから前記第2のニューラルネットワ
ークを選択する段階をさらに具備する請求項31記載の
方法。 - 【請求項33】前記第2のニューラルネットワークが単
一の文字のみを認識するように訓練されている請求項3
2記載の方法。 - 【請求項34】N個のありうるシンボルについてのシン
ボル組から1つのシンボルを処理する方法であって、該
方法が下記の諸段階、すなわち、 ビデオカメラの出力を受入れ、 該ビデオカメラの出力をディジタル化して、認識用ニュ
ーラルネットワークに対する入力として、前記シンボル
を表すものとしてディジタルのピクセル値のアレイP
(K)を生成し、 前記ニューラルネットワークにおける前記入力を処理し
て、前記N個のシンボルについて認識されたものを表す
出力を生成し、 検証合格または検証失敗のいずれかを示す出力を示すよ
うに、前記N個のシンボルについて前記認識されたもの
と関連している検証用ニューラルネットワークを訓練す
る諸段階を具備するシンボルを処理する方法。 - 【請求項35】ニューラルネットワークを訓練する方法
であって、該方法が下記の諸段階、すなわち、 a、前記ニューラルネットワークによって認識するパタ
ーンを選択し、 b、前記パターンを包含する第1の訓練シーケンスを第
1の数のサイクルの間前記ニューラルネットワークに印
加し、 c、オフセットを前記パターンに印加し、 d、前記オフセットパターンを包含する第2の訓練シー
ケンスを前記ニューラルネットワークに印加する諸段階
を具備するニューラルネットワークを訓練する方法。 - 【請求項36】前記第2の訓練シーケンスを印加する段
階に先立って、前記第1の訓練シーケンスにおける他の
パターンにオフセットを印加する請求項35記載の方
法。 - 【請求項37】前記パターンがピクセルのマトリクスと
して表されるものであり、 前記オフセットを印加する段階が任意の方向において高
々2ピクセルだけ前記パターンをずらす処理を有する請
求項35記載の方法。 - 【請求項38】前記ニューラルネットワークが収束する
まで、第2の数のサイクルの間、前記段階cおよびdを
繰り返す段階をさらに具備する請求項35記載の方法。 - 【請求項39】前記第2の数のサイクルが前記第1の数
のサイクルのほぼ2倍である請求項38記載の方法。 - 【請求項40】ニューラルネットワークを訓練する方法
であって、該方法が下記の諸段階、すなわち、 a、複数のパターンから前記ニューラルネットワークが
認識するパターンを選択し、 b、前記複数のパターンを有する訓練シーケンスを第1
の数のサイクルの間前記ニューラルネットワークに印加
し、 c、前記複数のパターンのそれぞれにランダムオフセッ
トを印加して、オフセット訓練シーケンスを生成し、 d、前記オフセットパターンを包含する前記オフセット
訓練シーケンスを前記ニューラルネットワークに印加
し、 e、前記ニューラルネットワークが収束するまで、前記
段階cおよびdを反復する諸段階を具備するニューラル
ネットワークを訓練する方法。 - 【請求項41】前記段階eが第2の数のサイクルだけ反
復され、該第2の数のサイクルが前記第1の数のサイク
ルのほぼ2倍である請求項40記載の方法。 - 【請求項42】前記第1の数のサイクルがほぼ500で
ある請求項41記載の方法。 - 【請求項43】ニューラルネットワークを訓練する方法
であって、該方法が下記の諸段階、すなわち、 a、前記ニューラルネットワークによって認識するパタ
ーンを選択し、 b、複数のパターンを包含する訓練シーケンスを第1の
数のサイクルの間前記ニューラルネットワークに印加
し、 c、オフセットを前記パターンの少なくとも1つに印加
してオフセット訓練シーケンスを生成し、 d、前記オフセットパターンを包含する前記オフセット
訓練シーケンスを前記ニューラルネットワークに印加す
る諸段階を具備するニューラルネットワークを訓練する
方法。 - 【請求項44】前記ニューラルネットワークが収束する
まで、前記段階cおよびdを繰り返す段階をさらに具備
する請求項43記載の方法。 - 【請求項45】ニューラルネットワークを訓練する方法
であって、該方法が下記の諸段階、すなわち、 a、複数のパターンから前記ニューラルネットワークが
認識するパターンを選択し、 b、前記複数のパターンを包含する訓練シーケンスを第
1の数のサイクルの間前記ニューラルネットワークに印
加し、 c、任意の方向において高々2ピクセルのランダムオフ
セットを前記複数のパターンのそれぞれに印加して、オ
フセット訓練シーケンスを生成し、 d、前記オフセットパターンを包含する前記オフセット
訓練シーケンスを前記ニューラルネットワークに印加
し、 e、前記第1の数のサイクルのほぼ2倍である第2の数
のサイクルについて前記段階cおよびdを繰り返す諸段
階を具備するニューラルネットワークを訓練する方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US95556392A | 1992-10-01 | 1992-10-01 | |
US07/955563 | 1992-10-01 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH06348906A true JPH06348906A (ja) | 1994-12-22 |
Family
ID=25497004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5244172A Pending JPH06348906A (ja) | 1992-10-01 | 1993-09-30 | ニューラルネットワークを訓練する方法、文字認識装置、およびシンボル処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH06348906A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110427985A (zh) * | 2019-07-16 | 2019-11-08 | 北京京航安机场工程有限公司 | 利用字符实现机器视觉训练的方法 |
CN110462642A (zh) * | 2017-04-04 | 2019-11-15 | 海露科技有限公司 | 包括计算元件和本地存储器元件的神经网络处理元件 |
US11615297B2 (en) | 2017-04-04 | 2023-03-28 | Hailo Technologies Ltd. | Structured weight based sparsity in an artificial neural network compiler |
US11811421B2 (en) | 2020-09-29 | 2023-11-07 | Hailo Technologies Ltd. | Weights safety mechanism in an artificial neural network processor |
US11874900B2 (en) | 2020-09-29 | 2024-01-16 | Hailo Technologies Ltd. | Cluster interlayer safety mechanism in an artificial neural network processor |
-
1993
- 1993-09-30 JP JP5244172A patent/JPH06348906A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110462642A (zh) * | 2017-04-04 | 2019-11-15 | 海露科技有限公司 | 包括计算元件和本地存储器元件的神经网络处理元件 |
JP2020515989A (ja) * | 2017-04-04 | 2020-05-28 | ハイロ テクノロジーズ リミテッド | 計算およびローカルメモリ要素を組み込むニューラルネットワーク処理要素 |
US11615297B2 (en) | 2017-04-04 | 2023-03-28 | Hailo Technologies Ltd. | Structured weight based sparsity in an artificial neural network compiler |
US11675693B2 (en) | 2017-04-04 | 2023-06-13 | Hailo Technologies Ltd. | Neural network processor incorporating inter-device connectivity |
CN110427985A (zh) * | 2019-07-16 | 2019-11-08 | 北京京航安机场工程有限公司 | 利用字符实现机器视觉训练的方法 |
US11811421B2 (en) | 2020-09-29 | 2023-11-07 | Hailo Technologies Ltd. | Weights safety mechanism in an artificial neural network processor |
US11874900B2 (en) | 2020-09-29 | 2024-01-16 | Hailo Technologies Ltd. | Cluster interlayer safety mechanism in an artificial neural network processor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5742702A (en) | Neural network for character recognition and verification | |
JPH0713951A (ja) | ニューラルネットワークを訓練する方法 | |
CN107577651B (zh) | 基于对抗网络的汉字字体迁移系统 | |
US5903884A (en) | Method for training a statistical classifier with reduced tendency for overfitting | |
Chrisomalis | A cognitive typology for numerical notation | |
CN108154148A (zh) | 训练样本的人工合成方法及基于该样本的验证码识别方法 | |
CN112801280B (zh) | 视觉深度自适应神经网络的一维卷积位置编码方法 | |
Singh et al. | Steganalysis of digital images using deep fractal network | |
US20050025355A1 (en) | Elastic distortions for automatic generation of labeled data | |
JP5550301B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2723118B2 (ja) | 2次元オブジェクトの認識に用いるためのニューラル・ネットワーク及び光学式文字認識装置 | |
JPS62220070A (ja) | デ−タ量低減方法 | |
Gao et al. | Bottom-up and top-down: Bidirectional additive net for edge detection | |
JPH06348906A (ja) | ニューラルネットワークを訓練する方法、文字認識装置、およびシンボル処理方法 | |
Beijing et al. | A Quaternion Two‐Stream R‐CNN Network for Pixel‐Level Color Image Splicing Localization | |
US5319722A (en) | Neural network for character recognition of rotated characters | |
JPH06282686A (ja) | 文字認識方法 | |
US6560582B1 (en) | Dynamic memory processor | |
WO2019065702A1 (ja) | 情報処理装置 | |
CN113962192A (zh) | 汉字字体生成模型的生成方法、汉字字体生成方法及装置 | |
Wasserman | Experiments in transplanting Chinese characters using back-propagation | |
Oliveira et al. | Improving RBF-DDA performance on optical character recognition through parameter selection | |
JP3730073B2 (ja) | テンプレート作成方法、装置、およびテンプレート作成プログラムを記録した記録媒体 | |
JP4079346B2 (ja) | 画像位置検出方法 | |
Kussul et al. | Pairwise permutation coding neural classifier |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20020319 |