JPH0567067A - 神経網データ構造を作成する方法及びコンピユータ・システム - Google Patents

神経網データ構造を作成する方法及びコンピユータ・システム

Info

Publication number
JPH0567067A
JPH0567067A JP4050116A JP5011692A JPH0567067A JP H0567067 A JPH0567067 A JP H0567067A JP 4050116 A JP4050116 A JP 4050116A JP 5011692 A JP5011692 A JP 5011692A JP H0567067 A JPH0567067 A JP H0567067A
Authority
JP
Japan
Prior art keywords
neural network
input data
user
block
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4050116A
Other languages
English (en)
Other versions
JP2673144B2 (ja
Inventor
Shawn M Austvold
シヨウン・マイケル・オーストボイド
Joseph P Bigus
ジヨセフ・フイリツプ・ビガス
Jonathan D Henckel
ジヨナサン・デビツド・ヘンケル
Paul A Hospers
ポール・アラン・ホスパース
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JPH0567067A publication Critical patent/JPH0567067A/ja
Application granted granted Critical
Publication of JP2673144B2 publication Critical patent/JP2673144B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks
    • G06N3/105Shells for specifying net layout

Landscapes

  • Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)
  • Stored Programmes (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

(57)【要約】 【目的】アプリケーション・プログラムのための拡張さ
れた神経網シェルを提供する。 【構成】ユーザは神経網により解こうとする特定な問題
のタイプに関する非技術的な情報を入力するように促さ
れる。ユーザはまた、神経網に対し、入力データの使用
情報を入力するようにも促される。この情報に基づき、
神経網シェルは、自動的に適切な神経網モデルを選択
し、また自動的に適切な数の入力、出力及び/或いは選
択された神経網モデルに関する他のモデル特有なパラメ
ータを生成することにより、神経網データ構造を作成す
る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はデータ処理システムに関
し、更に詳しくはコンピュータ・システム上で実行され
る神経網の有用性の改善に関する。
【0002】
【従来の技術】今日、コンピュータ・システムは増大す
る分野の複雑な問題を解決するために使用される。通
常、人間の判断作用及び認識に関係するタスクを達成す
るためのコンピュータの使用は、人工知能として知られ
ている。コンピュータの能力が拡張すると、コンピュー
タは更に人工知能分野におけるタスクを達成するために
使用されるようになる。しかし、複雑なタスクを達成す
るためのコンピュータ・ハードウェアは使用可能ではあ
るが、人工知能プログラムを作成することは非常に困難
且つ時間を要する。
【0003】近年、神経網により複雑な問題を解決する
ことが非常に関心を呼んでいる。神経網は互いに接続さ
れる単一プロセッサ(ノード)の集合であり、各プロセ
ッサは複数の入出力接続を有する。各プロセッサは、入
力の比較的単純な数理関数を評価して出力を生成する。
いくつかのプロセッサ・ノードは入力を受け取るか、或
いは網外に出力を生成するが、典型的には、ほとんどの
接続は網内のノード間で行われる。適応性のある(adap
tive)重み係数が各接続に関係する。神経網は、特定問
題の入力データ及び目標出力の例を提供されることによ
り、その問題を解くようにトレーニングされる。網は重
み係数を調整することにより、この網の出力値とトレー
ニング・データの目標出力値の間の差を最小化する。理
想的には、神経網は物理的に別なプロセッサ・ノードに
より構成される。しかし、こうした網はしばしば単一プ
ロセッサ・コンピュータ・システム上において、適切な
プログラミングによりシミュレートされる。本発明にお
いては、"神経網(neuralnetwork)"と言う用語は、単
一或いは他の複数のプロセッサ・コンピュータ・システ
ム上で実行されるシミュレート化された網と同様に、各
ノードに対応する別々の物理的プロセッサによる理想的
な網を含む。
【0004】神経網としての約束は、人工知能分野の問
題を解くために設計された従来のアプリケーション・プ
ログラムよりも、プログラムに要する労力及び専門知識
を必要とせずにプログラム可能なことである。しかしな
がら、プログラマが従来式のアプリケーション・プログ
ラムの一部として神経網を使用できるようになる以前
に、相当な量のプログラムのための労力及び神経網に関
する専門知識が要求される。1990年2月出願の米国
特許出願第482450号では、アプリケーション・プ
ログラムのための神経網シェルを開示しており、ここで
はアプリケーション・プログラムにおいて神経網を使用
するに際し、相当量のプログラミング労力及び神経網の
専門知識を排除している。しかしながら、この特許出願
の神経網シェルは、まだいくらかのプログラミング労力
及び神経網の専門知識を必要とする。例えば、逆伝搬
(Back Propagation)モデル、適応性反響理論(AR
T:Adaptive Resonance Theory)モデル、自己編成特
性マップ(Self-OrganizingFeature Maps)・モデル、
自己編成ルーティング(TSP:Self-OrganizingRouti
ng)網モデル、制約充足(Constraint Satisfaction)
モデル及び学習ベクトル量子化(Learning Vector Quan
tization)網モデルなどの、この技術において知られる
いくつかの異なる神経網モデルが存在する。これらのモ
デルは特定のタイプの問題を解くには非常に効果的では
あるが、他のタイプの問題には全く効果を発揮できな
い。神経網を開発することを望むプログラマは、自身の
特定な問題を解くために最適な神経網モデルを知るに至
るまでに、相当な量の神経網技術に関する知識を有さね
ばならない。
【0005】神経網はまた、その神経網モデルが認識で
きる特定な構造的形式の提供を必要とする。プログラマ
は陰の(hidden)入力数、タスク数、リソース数、或い
は制約数などのモデルに依存する付加的な情報を決定す
ると共に、入力及び出力として使用される情報を決定し
なければならない。この決定は神経網技術に関する専門
知識無しで行うには非常に困難を伴う。
【0006】
【発明が解決しようとする課題】本発明の第1の目的
は、アプリケーション・プログラムのための拡張された
神経網シェルを提供することである。
【0007】本発明の別の目的は、プログラミング労力
或いは神経網に関する専門知識をほとんど必要としな
い、アプリケーション・プログラムのための拡張された
神経網シェルを提供することである。
【0008】本発明の別の目的は、自動的に適切な神経
網モデルを選択する、アプリケーション・プログラムの
ための拡張された神経網シェルを提供することである。
【0009】本発明の別の目的は、解決すべき問題のタ
イプを示すユーザ入力に基づき、自動的に適切な神経網
モデルを選択する、アプリケーション・プログラムのた
めの拡張された神経網シェルを提供することである。
【0010】本発明の更に別の目的は、選択される神経
網モデルのために、自動的に適切な数の入力、出力及び
他のモデル特有のパラメータを生成する、アプリケーシ
ョン・プログラムのための拡張された神経網シェルを提
供することである。
【0011】
【課題を解決するための手段】上述の及びその他の目的
が、本発明により開示されるアプリケーション・プログ
ラムのための拡張された神経網シェルにより達成され
る。ユーザは、神経網により解こうとする特定な問題の
タイプに関する非技術的な情報を入力するように促され
る。ユーザはまた、神経網に対し、入力データの使用情
報を入力するようにも促される。この情報に基づき、神
経網シェルは、自動的に適切な神経網モデルを選択し、
また自動的に適切な数の入力、出力及び/或いは選択さ
れた神経網モデルに関する他のモデル特有なパラメータ
を生成することにより、神経網データ構造を作成する。
ユーザは神経網データ構造を作成するために、もはや神
経網技術に関する専門知識を要求されることはない。
【0012】
【実施例】図1は本発明のコンピュータ・システムのブ
ロック図である。コンピュータ・システム10は、記憶
装置12に接続される主プロセッサ或いはCPU(中央
処理装置)11により構成される。記憶装置12はRA
Mのような主メモリ、もしくは磁気或いは光学式記憶装
置などの2次記憶装置である。CPU11は本実施例で
はコプロセッサ13に接続される。コプロセッサ13は
総称的な数理計算機能(数理コプロセッサ)、或いは特
殊な神経網ハードウェア支援機能(神経網プロセッサ)
を提供する。CPU11が受容不可能な性能劣化を伴う
ことなく集中的な計算負荷を処理できる場合には、コプ
ロセッサ13は必要ない。CPU11はまた、ユーザ・
インタフェース14に接続される。ユーザ・インタフェ
ース14は開発者及びユーザがコンピュータ・システム
10と通信することを許可し、通常はプログラマブルな
ワークステーションを介する。
【0013】実施例ではコンピュータ・システム10は
IBMアプリケーション・システム/400(AS/4
00)中型コンピュータであるが、どのコンピュータ・
システムも使用可能である。コプロセッサ13はアプリ
ケーション・システム/400中型コンピュータ上のプ
ロセッサであることが好適ではあるが、IBM PS/
2などのパーソナル・コンピュータ上の数理コプロセッ
サでもよい。この場合は、CPU11及びコプロセッサ
13は互いに IBM PCサポートを介して通信するこ
とになる。
【0014】図2は神経網(並列)コンピュータがフォ
ン・ノイマン型(シリアル)プロセッサ・システム上に
おいてシミュレートされる様子を示す。異なる接続トポ
ロギ、及び処理ユニット属性を有する数多くの異なる神
経網モデルが存在する。しかしながら、これらは一般的
には数多く(数十、数百、或いは数千)の単一の処理ユ
ニット21により構成される計算システムとして分類さ
れ、この処理ユニットは適応性のある(変更可能な)重
み22により接続される。プロセッサ及び重みに加え、
神経網モデルは学習メカニズム23を有さねばならず、
これは各トレーニングの反復の後に重みを更新すること
により作用する。
【0015】神経網モデルはプログラム及びデータによ
りデジタル・コンピュータ上でシミュレートできる。プ
ログラム26は神経網処理ユニット21により達成され
る処理機能をシミュレートし、適応性のある接続重み2
2はデータ27内に含まれる。プログラム28は学習或
いは接続重み適応化メカニズム23を実施するのに使用
される。
【0016】図3Aは本発明の概念的なレイアウト、及
びアプリケーション・ソフトウェアとの関係を示す。最
上位レベルには、アプリケーション・プログラム・イン
タフェース31(API)が来る。API31は公式に
特殊化されたインタフェースであり、神経網に関する専
門知識の無いアプリケーション開発者が、アプリケーシ
ョン・プログラム内にある神経網シェル32のユーティ
リティ・プログラム及びデータ構造をアクセス及び使用
することを許可する。
【0017】神経網シェル32はユーティリティ・プロ
グラム33及びデータ構造50のセットにより構成され
る。神経網シェル32は従来の計算システム上のアプリ
ケーションにおいて、神経網を容易に、また効率的に、
定義、作成、トレーニング及び実行するための能力を提
供する。実施例では、神経網シェル32はAS/400
用のIBM神経網ユーティリティ・プログラムである
が、本発明の教示を使用するこの他のシェル・プログラ
ムも使用可能である。
【0018】凡例モデル35−38などのような神経網
モデルが、総称的な神経網データ構造50を定義するこ
とにより、神経網シェル32により支援される。このデ
ータ構造は神経網シェル32内の全てのユーティリティ
・プログラムによりアクセスされる。各神経網モデルは
この総称的な神経網データ構造上にマップ化され、図4
で更に詳細に説明される。各神経網モデルに特有なプロ
グラムは、後述するように神経網ユーティリティ・プロ
グラム33により呼び出される。
【0019】図3Bは通常のアプリケーション・プログ
ラム41が、神経網シェル32内の1つ或いはそれ以上
の神経網ユーティリティ・プログラム45−48との間
でインタフェースを行うことにより、神経網アプリケー
ション・プログラム40になる様子を示す。ユーティリ
ティ・プログラム45−48はデータ構造50との間で
インタフェースを行う。神経網アプリケーション・プロ
グラム40(本発明ではこれも含めて"神経網"と称す)
により処理されるデータは、入力42に入力される。デ
ータが神経網を通じて実行された後、結果が出力43に
出力される。アプリケーション・プログラム41及びユ
ーティリティ・プログラム45−48は、適切にプログ
ラムされたCPU11及び/或いはコプロセッサ13内
に在中する(図1)。データ構造50は記憶装置12及
び/或いはCPU11及び/或いはコプロセッサ13の
内部記憶装置内に在中する。
【0020】図4は本発明のデータ構造50を示す。デ
ータ構造50は共通のフレームワークを提供し、これは
何れの神経網モデルもアプリケーション・プログラムに
おいて使用可能なように定義される。この共通フレーム
ワークは、網特有のパラメータ及び配列のためのデータ
領域を提供することにより達成される。"神経網ユーテ
ィリティ/400:ユーザズ・ガイド(注文番号SC4
1−8202−0)"(以下、マニュアルAとする)の
第5章は、データ構造50の網パラメータ部85及び網
配列部90が、逆伝搬(Back Propagation)網、制約充
足(ConstraintSatisfaction)網、適応性反響 (Adapt
ive Resonance)網、自己編成特性マップ(Self-Organi
zing Feature Maps)網及び自己編成ルーティング(Sel
f-Organizing Routing)網の各モデルによって使用され
る様子を示している。マニュアルAは発行されておら
ず、本特許出願の出願日時点においては一般向けとして
は入手できない。ここで上記各網モデルについて以下に
簡単に説明する。逆伝搬(Back Propagation)網モデル
は、最も一般的に用いられる神経網教育アルゴリズムで
ある。これは神経網を教育するのに実際の値の入出力ベ
クトル対を用いるフィード・フォワード(feed-forwar
d)モデルである。gradientdescent と呼ばれるエラー
最小化方法を用いて網の重みを調節することにより出力
エラーを軽減する。制約充分網モデルは、ホップフィー
ルド網を修正したものである。これは神経網の処理を制
御するのにバイアス重みと制約重みの入力を用いる、フ
ィードバック接続を備えた動的モデルである。神経網が
最小解を探索することはLyapunov関数によって保証され
る。この修正によって大局的最小解が局所的最小解にス
タックされている場合に、網が該大局的最小解を探索す
ることが維持される。適応性反響網モデルは、Stephen
Grossberg によって改良された。このアルゴリズムは、
分類型の網モデルであり、これによって2つのパターン
を類似するものとして網が分類するために必要な類似度
に、パラメータ定義を設定することが可能となる。教育
パターンが既存の特定の類似性の分類と一致しない場合
には、新しい出力ユニットが割り当てられる(コミット
される)。自己編成特性マップ(Self-Organizing Feat
ure Maps)網モデルは、入力ベクトル空間の確率密度マ
ップを発展させたものである。これはデータ縮小の際に
有用であり、n次元入力空間から2次元出力空間に射影
するマップを作成する。この出力空間は、神経網ユーテ
ィリティによって矩形空間に制約される。教育データは
実際の値の入力ベクトルである。♭自己編成ルーティン
グ(Self-Organizing Routing) 網モデルは、上記自己
編成特性マップ(Self-Organizing Feature Maps)網モ
デルを基礎とし、最短パスのルーティング問題を解くた
めに特別に設計された網モデルである。宛先セットに対
してX及びY座標のリストが与えられると、このルーテ
ィング網モデルはその宛先の周辺にある最短回路に関す
る好適な近似解を探し出す。教育データは実際の値の入
力ベクトルからなる。
【0021】データ構造50はヘッダ部60、パラメー
タ部85及び配列部90により構成される。
【0022】フィールド79は神経網モデル或いはタイ
プの名称を含む。神経網モデル名の例としては、逆伝搬
に対応して"*BKP"などとなる。この名称は後述され
るように、神経網作成ユーティリティ・プログラムによ
り決定される。
【0023】フィールド67は網バージョン識別子を含
む。この情報は神経網シェル・プログラムと神経網デー
タ構造間の不一致を回避するために使用される。ソフト
ウェアの新たなバージョン或いはリリースが開発される
と、現存の網との互換性が望まれる。拡張が基本的網デ
ータ構造の変更を要求する場合は、このフィールドはソ
フトウェア−データ間の不一致の検出を可能にする。ソ
フトウェアは変換ルーチンを呼び出し、データ構造のフ
ォーマットを更新するか、或いは低レベルのデータ構造
を受諾する。
【0024】フィールド81は網パラメータ部85内の
網パラメータ数を含む。フィールド82は網配列部90
内の網配列数を含む。フィールド83は網パラメータ部
85のサイズを含む。
【0025】データ構造50は神経網作成ユーティリテ
ィ・プログラムにより作成され、これは後に説明される
(図7A−図7I)。教育及び実行ユーティリティ・プ
ログラムはデータ構造50をアクセスし、神経網をトレ
ーニング及び実行する。
【0026】図5−図9は本発明のフロー図であり、こ
れは適切にプログラムされたCPU11及び/或いはコ
プロセッサ13により実行される。図5は神経網開発プ
ロセスにおける主要ステップの概要を示す。ブロック1
10は定義されるべき新たな神経網モデルが存在するか
を尋ねる。もし存在すれば、ブロック200が神経網モ
デル定義サブルーチン(図6)を呼び出す。存在しない
場合には、ブロック120でユーザが神経網データ構造
を作成することを望むかを尋ねる。神経網データ構造は
各神経網に対して作成される。例えば、ある神経網デー
タ構造は実施例の場合の硬貨の識別神経網のために作成
される。また、入力数が偶数か奇数かを決定するために
別の神経網を作成したい場合には、別の神経網データ構
造が作成される。ブロック120が肯定的に返答される
と、ブロック300が神経網データ構造作成サブルーチ
ン(図7)を呼び出す。否定の場合は、ブロック130
でユーザが神経網をトレーニングすることを望むかどう
か尋ねる。神経網はトレーニング・データにより訓練さ
れて、入力データと目標の出力結果の間の関係を学んだ
り、或いは入力データから適切な機能を摘出するように
なる。トレーニングを望む場合は、ブロック400が神
経網教育サブルーチン(図8)を呼び出す。望まない場
合は、ブロック140でユーザが神経網を実行すること
を望むか尋ねる。望む場合は、ブロック500が神経網
モデル実行サブルーチン(図9)を呼び出す。望まない
場合は、プログラムはブロック190で終了する。
【0027】図6A−図6Dは神経網モデル定義サブル
ーチン200を示す。このサブルーチンは、ユーザがカ
スタム的な神経網モデルを定義することを可能にするも
のである。これに関する詳細な説明は、以降マニュアル
Bとして参照される"神経網ユーティリティ/400:
プログラマズ・レファレンス(SC41−0032)"
に記載されている。マニュアルBは本特許出願日時点で
は出版されていない。
【0028】ブロック207はデータ構造50のフィー
ルド79に対して定義される、本モデルの特定な名称を
定義する。ブロック208はフィールド81及び82で
使用される網パラメータ数及び網配列数を定義する。ブ
ロック209は特定の神経網モデルで使用されるパラメ
ータ及び配列を定義し、データ構造50のパラメータ部
85及び配列部90に対して、これらのパラメータ及び
配列をマップ化する。ブロック209はまた、網パラメ
ータ・サイズ・フィールド83に対応するパラメータ部
85のサイズを計算する。
【0029】ブロック210は図6Bに示す神経網モデ
ル作成プログラム生成サブルーチンを呼び出す。図6B
を参照すると、サブルーチン210ではモデル特有のル
ーチンが組み込まれ、これらは後に神経網データ構造作
成サブルーチン(図7)により実行される。ブロック2
11は必要であれば、ユーザに対し、この神経網に特有
な付加的入力データ使用情報を促すための単純なルーチ
ンを提供する。例えば、ブロック211は神経網モデル
によっては、図12E−図12Iで示される画面と同様
な画面を用意するルーチンを提供する。
【0030】ブロック212はデフォルトのパラメータ
値を有する総称的な神経網データ構造を初期化するため
のルーチンを提供し、この神経網モデルのためのデフォ
ルト神経網データ構造を作成する。全ての神経網モデル
は同一の総称的な神経網データ構造を有する。各個々の
神経網モデルは固有のデフォルト・データ構造を有す
る。従って、同じ神経網モデル(例えば逆伝搬)を使用
する全ての神経網アプリケーション・プログラム(硬貨
識別、奇数/偶数識別など)は、同一のデフォルト神経
網データ構造に対し、特定のパラメータ値を入力する。
【0031】ブロック213は、サブルーチン210内
に生成された神経網モデル作成プログラムに特定の名称
を提供し、記憶装置12(図1)に書き込むことによ
り、これを保管する。実施例では、このプログラムはデ
ータ構造をアクセス可能ないずれの言語により記述され
てもよい。ブロック219は図6Aのブロック230に
戻る。
【0032】ブロック230は図6Cに示す神経網モデ
ル教育プログラム生成サブルーチンを呼び出す。図6C
を参照すると、サブルーチン230は後に神経網教育サ
ブルーチン(図8)により実行されるルーチンを提供す
る。ブロック233は神経網を初期化するためのルーチ
ンを提供する。ブロック233は神経網教育プログラム
によって使用されるカウンタ及び変数を初期化する。
【0033】ブロック234はこの神経網モデルのため
の単一の教育ステップを実行するためのルーチンを提供
する。このルーチンは神経網モデルに高く依存するメカ
ニズムを提供し、これはボディ90のデータ配列内のデ
ータ値を調整するために使用される。これにより網は目
標の機能を学習できる。当業者は重み調整処理に関する
神経網モデルの説明(マニュアルAで見い出される)を
得て、それぞれの選択によるコンピュータ言語を使用す
ることにより、この説明を簡単にプログラム化し、本発
明のデータ構造をアクセスすることであろう。
【0034】ブロック235はトレーニング・エポック
処理が完了した際に実行されるルーチンを提供する。こ
のルーチンは複雑な形式により、単一のクリーン・アッ
プ処理を変更する。例えば、神経網モデルによっては、
データ配列値を更に複雑に調整するように変数をリセッ
トしたりする。当業者はエポック処理の特定な終了に関
する神経網モデルの説明を得て、それぞれの選択による
コンピュータ言語を使用することにより、この説明を簡
単にプログラム化し、本発明のデータ構造をアクセスす
ることであろう。
【0035】ブロック236は、サブルーチン230内
に生成された神経網モデル教育プログラムに特定の名称
を提供し、記憶装置12(図1)に書き込むことによ
り、これを保管する。ブロック239は図6Aのブロッ
ク250に戻る。
【0036】ブロック250は図6Dに示す神経網モデ
ル実行プログラム生成サブルーチンを呼び出す。図6D
を参照すると、サブルーチン250は後に神経網実行サ
ブルーチン(図8)により実行されるルーチンを提供す
る。ブロック251は神経網を初期化する単純なルーチ
ンを提供する。ブロック253は入力データを神経網を
介してパスするルーチンを提供する。ブロック254は
出力結果を神経網実行サブルーチンに戻すためのルーチ
ンを提供する。ブロック255はサブルーチン250内
に生成された神経網モデル実行プログラムに特定な名称
を提供し、記憶装置12(図1)に書き込むことによ
り、これを保管する。ブロック259は図6Aのブロッ
ク260に戻る。
【0037】ブロック260は、神経網モデルの名称
(例えば逆伝搬に対する"*BKP"など)、及びブロッ
ク213、236及び255でそれぞれ保管されるこの
モデルの作成、教育及び実行プログラムの名称を記憶装
置12に記憶されるモデル定義ファイルに入力する。ブ
ロック270は図5のブロック120に戻る。
【0038】実施例では、次に示す神経網モデルはアプ
リケーション開発者或いはユーザのために予め定義され
る。すなわち、それらは逆伝搬(Back Propagation)
網、制約充足(Constraint Satisfaction)網、適応性
反響理論(Adaptive ResonanceTheory)網、自己編成特
性マップ(Self-Organizing Feature Maps)網、及び自
己編成ルーティング(Self-Organizing Routing) 網で
ある。従って、これらのモデルはユーザが神経網モデル
定義サブルーチンを使用して定義する必要はない。
【0039】残りのフロー図は、簡単に前述した硬貨識
別神経網の例に当てはめて説明される。ここでユーザが
硬貨に関する属性情報を含む入力データに基づき、硬貨
がペニー、ニッケル、ダイム、或いはクオータであるか
を判断するための神経網を作成することを望むものと仮
定する(この属性には銅貨或いは銀貨であるか、人物が
左右どちらを向いているか、或いはコイン上に建物、
鷲、木の葉もしくはたいまつが存在するかどうかなどが
ある)。ユーザは図5のブロック120で肯定的に返答
することにより、この神経網を作成し、ブロック300
において神経網データ構造作成サブルーチン(図7A)
を呼び出す。
【0040】ブロック3002は図11に示すように、
ユーザに問題のタイプを促す。ユーザは異なるタイプの
神経モデルに関する専門知識を有する必要はない。ユー
ザは非技術的な言語により、解きたい問題のタイプを選
択するように問われる。マニュアルAの第6章、付録A
及び付録Bでは、図11の問題のタイプについて更に詳
しく説明している。以下にこれらについて簡単に説明す
る。分類タイプの問題とは、例えば、信頼性評価に係る
ものをいう。その目的は、潜在的な顧客(対象物)の属
性情報を用いてかかる対象が望ましいものであるか望ま
しくないものであるかを分類することである。タイム・
シリーズ予測タイプの問題とは、例えば、販売予測に係
るものをいう。このタイプでは、過去の履歴のデータベ
ースを用いて、現在の状況を将来のある時点の状況の予
測に関連付けるためのモデルを作成する。スケジューリ
ング・タイプの問題とは、例えば、人事計画に係るもの
であり、いわば制約充足(Constraint Satisfaction)
問題のことをいう。このタイプでは、制約エディタを用
いて潜在的な資源(労働者)と業務(仕事)との関係を
定義し、かつ該エディタからの出力を用いて、現状況下
での制約を充足するような解にたどりつく動的神経網を
生成する。リソース割当てタイプの問題とは、例えば、
注文の処理に係るものをいう。このタイプでは、制約エ
ディタを用いて資源(在庫)、業務(注文)及び両者間
にある潜在的な制約を定義し、かつ該エディタから出力
を用いて、現状況下での制約を充足するような解にたど
りつく動的神経網を生成する。データ再構築タイプの問
題とは、例えば顧客の有する不完全な要求セットに基づ
いて神経網アプリケーションが網モデルを推薦するよう
な場合をいう。ファジィーマッチ(Fuzzy-Match)タイ
プともいう。クラスタ分析タイプの問題とは、例えば市
場データ分析に係るものをいう。このタイプでは、デー
タが一旦クラスタに分割されると、それを分析してある
特定の製品利益に寄与する属性を定義する。閉鎖パス・
タイプの問題とは、トラック・ルーティング(TruckRou
ting) に係るもの、例えば最短パスに係る問題をい
う。このタイプでは、潜在的な目的地が分かると、デー
タがその目的地のx及びy座標から構成され、これに基
づいて好適なパスが見つけられる。
【0041】本物施例の硬貨識別は分類問題であるので
(その特徴により米国硬貨のタイプを認識する)、ユー
ザはオプション1を選択する。
【0042】ブロック3004では、ユーザに図12A
−図12Bのフィールド・グループ1210及び122
0で示される入力データ・ファイル情報を促す。入力デ
ータ・ファイル情報はファイル・タイプ及び関連するフ
ァイル・パラメータと共に、入力データ・ファイルの名
称、ライブラリ及びメンバを含む。硬貨の例において
は、ユーザは入力データ・ファイルの名称、ライブラ
リ、及びメンバとして、"NNDATA、*CURLI
B、及びCOINDATA"を入力する。本実施例の入
力データ・ファイルの内容を図10に示す。
【0043】本実施例のファイルはAS/400テキス
ト・ファイルであるので、ユーザはTEXTとタイプ
し、ファイル・パラメータ・フィールド上のカーソルで
PF4を押す。この動作により図12Bに示すポップ・
アップ・ウィンドウが表示され、ユーザはレコード当た
りのフィールド数と使用する区切り文字を促される。実
施例では、ユーザはレコード当たりのフィールド数とし
て7(6入力フィールド及び1出力フィールド)を入力
し、区切り文字として"空白"を指定する(すなわちフィ
ールド間を互いに分離する)。このようにして、入力デ
ータ・ファイルが種々の技術、例えばスプレッド・シー
トからのデータ或いはデータベース・ファイルなどを用
いることにより種々の形式で構成され、ユーザにデータ
を再構築させること無く全てが神経網によって首尾良く
使用されることになる。
【0044】ブロック3005はユーザに対し、図12
Аに示すフィールド・グループ1230の任意選択のユ
ーザ・カスタム・インタフェース・プログラムを促す。
ユーザ・カスタム・インタフェース・プログラムが特定
されない場合は、デフォルトのカスタム・インタフェー
ス・プログラムが必要な変換を実行する。このデフォル
トのカスタム・インタフェース・プログラムは本発明の
範中外ではあるが、一般に権利譲渡されて本発明と同日
に出願された米国特許出願"Apparatus andMethod for F
acilitating Use of a Neural Network" (神経網の使
用を促進するための装置及び方法)において詳細に説明
されている。本実施例では、ユーザ・カスタム・インタ
フェース・プログラムは特定され、図10に示すように
このプログラムは記号入力データ・ファイルを数値入力
データ・ファイルに変換するために使用される。これは
単に各入力属性を"0"或いは"1"の2値ストリングに変
換して行われる。ここでユーザ・カスタム・インタフェ
ース・プログラムは、ユーザにより特定される単一の出
力フィールドを、4桁の2値出力フィールドに拡張する
点に注意を要する。本実施例において、これらは可能性
のある硬貨を表す。
【0045】ブロック3006はユーザにデータ・ファ
イル・オプションを促し、これは図12Aのフィールド
・グループ1240で示される。これらのデータ・ファ
イル・オプションは入力データ・ファイルが予め処理さ
れる様子を特定する(最大2個の記号入力データ・ファ
イル、2個の数値入力データ・ファイル、及び2個の2
進入力データ・ファイルに分けられる)。この処理はカ
スタム・インタフェース・プログラムにより実行される
変換オペレーションの完了以前に行われる。ユーザが入
力データ・ファイルを、トレーニング・ファイル(神経
網をトレーニングするために使用される)及びテスト・
ファイル(トレーニングの完了後に、このトレーニング
の効果をテストするために、網がロックされた後に使用
される)に分けることを望む場合は、この分割の割合が
フィールド1236及び1237に入力される。例え
ば、ユーザが入力データ・ファイルの70%をトレーニ
ング・データとして、30%をテスト・データとして使
用したい場合は、フィールド1236に70を、フィー
ルド1237に30(或いは*rest)を入力する。
ユーザはまた、100%より小さな割合を指示すること
により、入力データ・ファイルのサブセットだけが使用
されることを指示することもできる。
【0046】実施例では、ユーザはカスタム・インタフ
ェース・プログラムにより、入力データ・ファイルから
単一の数値出力ファイルだけが作成されることを指示し
た。
【0047】ブロック3008はユーザに図12C−図
12Iに示す入力データ使用情報を促す。図12Cは入
力データ・ファイル内のフィールドが、入力フィールド
或いは出力フィールドとして認識されるべきか、もしく
は無視されるべきかに関する情報を提供するように、ユ
ーザが問われる様子を示す。例えば、入力データ・ファ
イルがスプレッドシートの場合には、神経網処理に無関
係なフィールドを含むことであろう。これらは"ign
ore"としてマークされるタイプのフィールドに相当
する。ユーザはまた、各フィールドに対し、更に叙述的
な名称を提供する機会を与えられる。実施例では、ユー
ザはこの画面を図12Dで示される形式で終了する。
【0048】ブロック330は図7B及び図7Cのモデ
ル作成プログラム実行サブルーチンを呼び出す。ここで
図7B及び図7Cを参照すると、ブロック3031では
ユーザ・カスタム・インタフェース・プログラムがユー
ザにより選択されたかどうかの確認のチェックを行う。
選択されていない場合は、ブロック3035でデフォル
ト・カスタム・インタフェース・プログラムを使用し
て、自動的に入力データ・ファイルを変換する。
【0049】実施例ではユーザ・カスタム・インタフェ
ース・プログラムが特定されたので、ブロック3031
は肯定で返答され、制御はブロック3036に移行す
る。ブロック3036は特定されたユーザ・カスタム・
インタフェース・プログラムを実行し、入力データ・フ
ァイルを変換する。実施例では、ブロック3036は入
力データ・ファイルを図10で示されるように、記号形
式から数値形式に変換する。
【0050】ここで"ignore"と指定される入力デ
ータ・ファイル内のどのフィールドも(図12C参
照)、変換処理の間に除去される。実施例では"ign
ore"フィールドは存在しないため、図10に示す変
換処理の間に除去されるフィールドも存在しない。
【0051】ブロック3040は分類タイプのプログラ
ムかどうかを問う。これは図11で示される画面に対す
るユーザの返答を分析して決定される。ユーザがこれは
分類タイプの問題であると指示していると、ブロック3
100で分類タイプの問題に対応するモデル選択サブル
ーチンが呼び出される。
【0052】分類問題のタイプではない場合は、ブロッ
ク3045がタイム・シリーズ予測タイプの問題かどう
かを問う。ユーザがタイム・シリーズ予測タイプの問題
であると指示していると、ブロック3200でタイム・
シリーズ予測タイプの問題に対応するモデル選択サブル
ーチンが呼び出される。
【0053】もしこれがタイム・シリーズ予測タイプの
問題でない場合は、ブロック3050がスケジューリン
グ・タイプの問題かどうかを問う。ユーザがスケジュー
リング・タイプの問題であると指示していると、ブロッ
ク3300でスケジューリング・タイプの問題に対応す
るモデル選択サブルーチンが呼び出される。
【0054】これがスケジューリング・タイプの問題で
ない場合は、ブロック3055がリソース割当てタイプ
の問題かどうかを問う。ユーザがリソース割当てタイプ
の問題であると指示していると、ブロック3400でリ
ソース割当てタイプの問題に対応するモデル選択サブル
ーチンが呼び出される。
【0055】これがリソース割当てタイプの問題でない
場合は、ブロック3060がデータ再構築タイプの問題
かどうかを問う。ユーザがデータ再構築タイプの問題で
あると指示していると、ブロック3500でデータ再構
築タイプの問題に対応するモデル選択サブルーチンが呼
び出される。
【0056】これがデータ再構築タイプの問題でない場
合は、ブロック3065がクラスタ分析タイプの問題か
どうかを問う。ユーザがクラスタ分析タイプの問題であ
ると指示していると、ブロック3600でクラスタ分析
タイプの問題に対応するモデル選択サブルーチンが呼び
出される。
【0057】これがクラスタ分析タイプの問題でない場
合は、ブロック3070が閉鎖パス・タイプの問題かど
うかを問う。ユーザが閉鎖パス・タイプの問題であると
指示していると、ブロック3700で閉鎖パス・タイプ
の問題に対応するモデル選択サブルーチンが呼び出され
る。
【0058】これらの何れの問題のタイプも指摘されて
いない場合は、ユーザは不正値を入力し、エラー・メッ
セージがブロック3095で表示される。制御フローは
図7Aのブロック3010に戻り、ここでエラーが発生
したかどうかが問われる。実際にエラーが発生している
ので、フローはブロック3002に戻り、再びユーザに
対し情報を促すことになる。
【0059】再び図7B及び図7Cを参照すると、ブロ
ック3040でユーザが分類タイプの問題を選択したこ
とを示すと、ブロック3100で図7Dに示す分類タイ
プの問題に対応するモデル選択サブルーチンを呼び出
す。ここで図7Dを参照すると、ブロック3101は入
力データ・ファイルのサイズをチェックする。これはこ
のデータ・ファイルが、非常に数多くの(所定のしきい
値、例えば256よりも大きな数の)入力及び出力ユニ
ットを含むかどうかを問うことによって行われる。
【0060】ブロック3101において、本実施例の硬
貨識別の場合のように、データ・ファイルは非常に数多
くの入力及び出力ユニットを含んではいないと判断され
ると、ブロック3105は小数の入力及び出力ユニット
を有する識別問題に対応する最適なモデルとして、逆伝
搬(Back Propagation)神経網モデルを選択する。ブロ
ック3106は図6Bのブロック212で提供されるル
ーチンを実行することにより、この神経網モデル用のデ
フォルト神経網データ構造を作成する。ブロック311
0はこのモデルの入力パラメータ数を、変換後のデータ
入力ファイル内に存在する入力ユニット数に等しくセッ
トする。ここでカスタム・インタフェース・プログラム
により達成される変換処理は、変換後のデータ入力ファ
イル内の入力ユニット数を保管し、この数は図12Cで
示される画面でユーザが指定した数とは異なる点に注意
する必要がある。実施例では、この値は6である。ブロ
ック3115はこのモデルの第1の陰の(hidden)入力
パラメータ数を、変換後のデータ入力ファイル内の入力
数と、同じく変換後のデータ入力ファイル内の出力数と
の和にプラス1した値にセットする。実施例では、この
値は11(6+4+1)となる。ブロック3120はこ
のモデルの第2の陰の(hidden)入力パラメータ数をゼ
ロにセットし、ブロック3125はこのモデルの第3の
陰の(hidden)入力パラメータ数をゼロにセットする。
ブロック3130はこのモデルの出力パラメータ数を、
変換後のデータ入力ファイル内に存在する出力数に等し
くセットする。実施例では、この値は1である。ブロッ
ク3110−3130において作成される本神経網モデ
ル用のアーキテクチャは、この種の問題及びこの種の入
力データ形式に適するように決定された。本モデル及び
引き続いて説明されるモデル用の他のアーキテクチャも
また有効であり、当業者によって評価されることであろ
う。
【0061】上述の例から理解されるように、適切な神
経網モデル及びアーキテクチャが、神経網技術に関する
専門的な知識を要求することなく、ユーザのために自動
的に選択されたことになる。ユーザは各神経網モデルに
特有のパラメータを理解する必要がなく、或いはそれら
が存在することさえ知る必要がない。ユーザは単に、非
技術的な用語において、自身が解こうとしている問題の
タイプ、及び入力データに関するいくらかの使用情報を
知ることが必要なだけである。後者には、フィールドが
入力データ或いは出力データを含むかどうかなどが含ま
れる。サブルーチンはブロック3199で図7Cのブロ
ック3080に戻る。
【0062】本モデル及び引き続き説明されるモデル用
に作成される神経網データ構造は、ユーザにより特定さ
れる入力データ使用情報に基づくものと認識される。な
ぜなら、ユーザにより特定される情報は変換処理により
変更され、変換データ・ファイルを作成することが可能
であるからである(これはデータ構造のパラメータ値を
決定するために使用される)。"非技術的用語"による問
題のタイプの叙述は、問題のタイプを十分に説明する神
経網モデル名以外の用語を意味する。
【0063】ブロック3101が入力及び出力ユニット
数が大であると判定すると、ブロック3150が非常に
数多くの入力及び出力ユニットを有する分類問題に対応
する最適なモデルとして、学習ベクトル量子化(Learni
ng Vector Quantization)神経網モデルを選択する。実
施例ではこのモデルは予め定義されてはいないが、この
良く知られる神経網モデルは前述のように定義できる。
ブロック3151は図6Bのブロック212で提供され
るルーチンを実行することにより、本神経網モデル用の
デフォルト神経網データ構造を作成する。ブロック31
55はこのモデルの入力パラメータ数を、変換後のデー
タ入力ファイル内に存在する入力数に等しくセットす
る。ブロック3160はこのモデルの出力パラメータ数
を、変換後のデータ入力ファイル内に存在する出力数に
等しくセットする。ブロック3155及び3160にお
いて作成される本神経網モデル用のアーキテクチャは、
この種の問題及びこの種の入力データ形式に適するよう
に決定されたことになる。サブルーチンはブロック31
99で図7Cのブロック3080に戻る。
【0064】ここで再び図7B及び図7Cを参照する
と、もしブロック3045において、ユーザがタイム・
シリーズ予測タイプの問題を選択したことが示される
と、ブロック3200が図7Eに示すタイム・シリーズ
予測タイプの問題に対応するモデル選択サブルーチンを
呼び出す。図7Eを参照すると、ブロック3205はタ
イム・シリーズ予測問題に対応する最適なモデルとし
て、逆伝搬(BackPropagation) 神経網モデルを選択す
る。ブロック3206は図6Bのブロック212で提供
されるルーチンを実行することにより、この神経網モデ
ル用のデフォルト神経網データ構造を作成する。タイム
・シリーズ予測問題には付加的な入力データ使用情報が
要求されるため、ブロック3208は図12Eの画面で
示されるように、ユーザにこの付加的情報を促す。必要
な付加的情報は"ウィンドウ・サイズ"である。ユーザは
スライディング・ウィンドウのサイズ・データを指示す
る。これはタイム・シリーズ予測用に時間周期をセット
する。例えば、入力データが毎日終わり値ダウ・ジョー
ンズ株価平均を含み、神経網にこの平均が週単位でどの
ように推移するかを予測することを学習させたい場合に
は、ユーザはウィンドウ・サイズを5にセットすること
であろう(各週日に対応)。ブロック3210はこのモ
デルの入力パラメータ数を変換後データ入力ファイル内
に存在する入力数と等しくセットする。ブロック321
5はこのモデルの第1の陰の(hidden)入力パラメータ
数を、変換後データ入力ファイル内の入力数及び同ファ
イル内の出力数の和に1を加えた数にセットする。ブロ
ック3220はこのモデルの第2の陰の(hidden)入力
パラメータ数をゼロにセットし、ブロック3225はこ
のモデルの第3の陰の(hidden)入力パラメータ数をゼ
ロにセットする。ブロック3230はこのモデルの出力
パラメータ数を、変換後データ入力ファイル内の出力数
に等しくセットする。ブロック3235はこのモデルの
ウィンドウ・サイズ・パラメータを、ユーザにより指定
されるウィンドウ・サイズに等しくセットする。これは
図12Eで示される画面で行われる。ブロック3210
−3235で作成されるこのモデルのアーキテクチャ
は、この種の問題及びこの種の入力データ・ファイルに
適するように決定されたことになる。サブルーチンはブ
ロック3229において、図7Cのブロック3080に
戻る。
【0065】再び図7B及び図7Cを参照すると、ブロ
ック3050でユーザがスケジューリング問題を選択し
たと指示すると、ブロック3300は図7Fに示すスケ
ジューリング・タイプの問題に対応するモデル選択サブ
ルーチンを呼び出す。図7Fを参照すると、ブロック3
305はスケジューリング問題のための最適なモデルと
して、制約充足(Constraint Satisfaction) 神経網モ
デルを選択する。ブロック3306はこの神経網モデル
のためのデフォルト神経網データ構造を作成する。これ
は図6Bのブロック212で提供されるルーチンを実行
することにより達成される。付加的な入力データ使用情
報がスケジューリング問題において要求されるため、ブ
ロック3310ではユーザにこの付加的情報を促す。こ
れは図12H−図12Jで示される。このユーザによる
付加的な情報はブロック3310で処理され、マニュア
ルAの第4章で詳しく説明されるように、タスク数、リ
ソース数及び制約数を提供する。
【0066】ブロック3315はこのモデルのタスク・
パラメータ数を、ユーザがセットしたタスク数に等しく
セットする。これは図12Hで示される画面により達成
される。ブロック3320はこのモデルのリソース・パ
ラメータ数を、図12Hでユーザが指定したリソース数
にセットする。ブロック3330はこのモデルの制約パ
ラメータ数を、図12Jでユーザが指定した制約パラメ
ータ数にセットする。こうして、ブロック3315−3
330においてこのモデル用に作成されるアーキテクチ
ャは、この種の問題及びこの種の入力データ形式に適す
るように決定されたことになる。サブルーチンはブロッ
ク3399で図7Cのブロック3080に戻る。
【0067】ここで再び図7B及び図7Cを参照する
と、ブロック3055でユーザがリソース割当てタイプ
の問題を選択したことが指示されると、ブロック340
0は図7Gのリソース割当てタイプの問題に対応するモ
デル選択サブルーチンを呼び出す。ここで図7Gを参照
すると、ブロック3405はリソース割当て問題に最適
なモデルとして、制約充足(Constraint Satisfactio
n) 神経網モデルを選択する。ブロック3406はこの
モデルのためのデフォルト神経網データ構造を作成す
る。これは図6Bのブロック212で提供されるルーチ
ンを実行して達成される。付加的な入力データ使用情報
がリソース割当て問題において要求されるため、ブロッ
ク3410ではユーザにこの付加的情報を促す。これは
図12H−図12Jで示される。このユーザによる付加
的な情報はブロック3310で処理され、既に説明した
ように、タスク数、リソース数及び制約数を提供する。
ブロック3415はこのモデルのタスク・パラメータ数
を、ユーザがセットしたタスク数に等しくセットする。
これは図12Hで示される画面により達成される。ブロ
ック3420はこのモデルのリソース・パラメータ数
を、図12Hでユーザが指定したリソース数にセットす
る。ブロック3430はこのモデルの制約パラメータ数
を、図12Jでユーザが指定した制約パラメータ数にセ
ットする。こうして、ブロック3415−3430にお
いてこのモデル用に作成されるアーキテクチャは、この
種の問題及びこの種の入力データ形式に適するように決
定されたことになる。サブルーチンはブロック3499
で図7Cのブロック3080に戻る。
【0068】ここで再び図7B及び図7Cを参照する
と、ブロック3060でユーザがデータ再構築タイプの
問題を選択したことが指示されると、ブロック3500
は図7Hのデータ再構築タイプの問題に対応するモデル
選択サブルーチンを呼び出す。ここで図7Hを参照する
と、ブロック3505は2進入力データを有するデータ
再構築問題に最適なモデルとして、逆伝搬(Back Propa
gation)神経網モデルを選択する。ブロック3506は
このモデルのためのデフォルト神経網データ構造を作成
する。これは図6Bのブロック212で提供されるルー
チンを実行して達成される。ブロック3510はこのモ
デルの入力パラメータ数を、変換後データ入力ファイル
内に存在する入力数に等しくセットする。ブロック35
15はこのモデルの第1の陰の(hidden)入力パラメー
タ数を変換後データ入力ファイル内の入力数及び同ファ
イル内の出力数の和を2で割った数にセットする。この
結果が小数値の場合は、整数に切り上げられる(2.1
は3となる)。ブロック3520はこのモデルの第2の
陰の(hidden)入力パラメータ数をゼロにセットし、ブ
ロック3525はこのモデルの第3の陰の(hidden)入
力パラメータ数をゼロにセットする。ブロック3530
はこのモデルの出力パラメータ数を、変換後データ入力
ファイル内の出力数に等しくセットする。ブロック35
10−3530で作成されるこのモデルのアーキテクチ
ャは、この種の問題及びこの種の入力データ形式に適す
るように決定されたことになる。サブルーチンはブロッ
ク3599において、図7Cのブロック3080に戻
る。
【0069】再び図7B及び図7Cを参照すると、ブロ
ック3065でユーザがクラスタ分析タイプの問題を選
択したことが指示されると、ブロック3600は図7I
のクラスタ分析タイプの問題に対応するモデル選択サブ
ルーチンを呼び出す。ここで図7Iを参照すると、ブロ
ック3601は入力データ・ファイル内のデータが2進
数か或いは実数形式かを問う。
【0070】もし全てのデータが"0"或いは"1"である
場合は、入力データ・ファイル内のデータは2進数であ
る。また、あるデータが例えば0.25などのような0
と1の間の小数値である場合は、入力データ・ファイル
内のデータは実数である。ブロック3601は入力デー
タ・ファイルを走査することにより、実数値データを含
むフィールドを探す。実数値データが検出されない時は
(すなわち全てのフィールドが2値データを含む場合
は)、入力データ形式は"2進数"である。そうでない場
合は、入力データ形式は"実数"である。
【0071】ブロック3601で入力データ・ファイル
内のデータが2進数であると判定されると、ブロック3
605は2進入力データを有するクラスタ分析問題に最
適なモデルとして適応性反響(Adaptive Resonance)神
経網モデルを選択する。ブロック3600はこのモデル
のためのデフォルト神経網データ構造を作成する。これ
は図6Bのブロック212で提供されるルーチンを実行
して達成される。ブロック3610はこのモデルの入力
パラメータ数を、変換後データ入力ファイル内に存在す
る入力数に等しくセットする。ブロック3615はこの
モデルの出力パラメータ数を変換後データ入力ファイル
内の出力数に等しくセットする。ブロック3610−3
615で作成されるこのモデルのアーキテクチャは、こ
の種の問題及びこの種の入力データ形式に適するように
決定されたことになる。サブルーチンはブロック369
9において、図7Cのブロック3080に戻る。
【0072】ブロック3601で入力データ・ファイル
内のデータが実数であると判定されると、ブロック36
50は実数値入力データを有するクラスタ分析問題に最
適なモデルとして自己編成特性マップ(Self Organizin
g Feature Map) 神経網モデルを選択する。ブロック3
651はこのモデルのためのデフォルト神経網データ構
造を作成する。これは図6Bのブロック212で提供さ
れるルーチンを実行して達成される。付加的な入力デー
タ使用情報がクラスタ分析問題において要求されるた
め、ブロック3652ではユーザにこの付加的情報を促
す。これは図12Fで示される。必要となる付加的情報
は"クラスタ数"である。ブロック3655はこのモデル
の入力パラメータ数を、変換後データ入力ファイル内に
存在する入力数と等しくセットする。ブロック3660
はこのモデルの行パラメータ数を、図12Fでユーザが
指定するクラスタ数の平方根の最大値(切り上げられた
整数)に等しくセットする。ブロック3665はこのモ
デルの列パラメータ数を、図12Fでユーザが指定する
クラスタ数の平方根の最大値(切り上げられた整数)に
等しくセットする。ブロック3655−3665で作成
されるこの神経網モデル用のアーキテクチャは、この種
の問題及びこの種の入力データ形式に適するように決定
されたことになる。サブルーチンはブロック3699に
おいて、図7Cのブロック3080に戻る。
【0073】再び図7B及び図7Cを参照すると、ブロ
ック3070でユーザは閉鎖パス・タイプの問題を選択
したことが示されると、ブロック3700は図7Jに示
す閉鎖パス・タイプの問題に対応するモデル選択サブル
ーチンを呼び出す。ここで図7Jを参照すると、ブロッ
ク3705は閉鎖パス問題に最適なモデルとして自己編
成ルーティング(Self Organizing Routing) 神経網モ
デルを選択する。ブロック3706はこのモデルのため
のデフォルト神経網データ構造を作成する。これは図6
Bのブロック212で提供されるルーチンを実行して達
成される。付加的な入力データ使用情報が閉鎖パス問題
においては要求されるため、ブロック3710ではユー
ザにこの付加的情報を促す。これは図12Gで示され
る。必要となる付加的情報は"宛先の最大数"である。ブ
ロック3715はこのモデルの宛先パラメータの最大数
を、図12Gの画面でユーザが指定する宛先の最大数に
等しくセットする。ブロック3715で作成されるこの
神経網モデル用のアーキテクチャは、この種の問題及び
この種の入力データ形式に適するように決定されたこと
になる。サブルーチンはブロック3799において、図
7Cのブロック3080に戻る。
【0074】再び図7B及び図7Cを参照すると、これ
らサブルーチン3100−3700は全てリターン後に
ブロック3080に移行する。ブロック3080は入力
データ・ファイル(単数或いは複数)をトレーニング入
力データ・ファイル(単数或いは複数)及びテスト入力
データ・ファイル(単数或いは複数)に分割する。これ
は図12Aでユーザが指定する割合に基づく。実施例で
は、ユーザは入力ファイルの100%がトレーニング・
データ用に使用されるように指定した。従って、全ての
入力ファイルがトレーニング入力データ・ファイルとし
て使用されることになる。ブロック3082は、デフォ
ルト神経網データ構造内に、選択された神経網モデル用
に決定されるパラメータ及び配列を充足する。
【0075】ブロック3082が実行された後に、本実
施例の神経網データ構造は、この神経網(或いは6入力
及び4出力を有するいずれか他の網)に対し、硬貨の属
性を示す入力データからこれら硬貨を識別する方法を学
習させるために必要な情報を全て含むことになる。ブロ
ック3085はデータ構造にファイル名を割当て、記憶
装置12(図1)にこれを保管する。サブルーチンはブ
ロック399で図7Aのブロック3029に戻る。ブロ
ック3029は図5のブロック130に戻る。
【0076】神経網データ構造は1度作成されると、別
のコンピュータ・システムに転送されて、教育及び/或
いは実行される点に注意を要する。別のコンピュータ・
システムは完全に異なるアーキテクチャを有するもので
も良く、また神経網データ構造を作成したコンピュータ
・システムとは全く異なるオペレーティング・システム
を実行することも可能である。こうした柔軟性は、デー
タ構造が異種コンピュータ・システム間で全般的に使用
可能なデータを含むことにより達成される。
【0077】実施例では、ユーザは新たに作成された神
経網に硬貨を識別するようにトレーニングすることを希
望するので、図5のブロック130は肯定的に返答さ
れ、ブロック400で神経網教育サブルーチン(図8)
が呼び出される。図8Aを参照すると、ブロック401
は図14に示すようにユーザにこの神経網の名称及びラ
イブラリを促す。ユーザは神経網の名称として"COI
NNET"を、ライブラリ名として"*CURLIB"を
入力する。また、図14ではユーザが望めば、カスタム
・インタフェース・プログラム名を入力する機会を提供
する。これはユーザ特有の神経網の有用性を改善するた
めに、ユーザ自身が作成できる。更にユーザは、トレー
ニング結果をログ(記録)したいか或いは表示したいか
を問われ、更に(もしカスタム・インタフェース・プロ
グラムが存在する場合には)、トレーニング・データを
データ・セットから自動的に獲得したいか、もしくはユ
ーザが入力キーを押すことにより1ステップづつ入力し
たいかを問われる。ブロック402はブロック401で
指定されたデータ構造が存在するかどうか確認する。存
在しない場合は、エラーが通知され、ユーザは再びブロ
ック401に戻る。データ構造が存在する場合は、ブロ
ック403で図13に示すようにトレーニング・データ
が配置されているデータ・セット名を促す。ユーザはデ
ータ・セット名として"QANWCOIN"を、またトレ
ーニング・データが配置されるデータ・セット・メンバ
として"COINDEMO"を入力する。
【0078】図10は実施例で使用されるトレーニング
・データを示す。ここでデータは有用性の改善の支援、
及び定義済みデータベース形式、例えばSQL或いはd
BaseIIIなどを支援するために、記号(読出し可
能)形式で記憶される点に注意を要する。ブロック40
4はデータ・セットが存在するかどうかを決定し、存在
する場合は、ユーザにカスタム・インタフェース・プロ
グラム名を促す。記号データがデータ・セットに記憶さ
れていると、ユーザが指定したカスタム・インタフェー
ス・プログラムは(人間が理解できる)記号データを
(神経網が理解できる)数値データに変換する必要があ
る。実施例では、カスタム・インタフェース・プログラ
ムは図13でQNWGCOINと指定され、このプログ
ラムは図10で示されるように、記号トレーニング・デ
ータを数値トレーニング入力データ・ファイルに変換す
る。これは単に各入力属性を"0"或いは"1"の2値スト
リングに変換して行われる。4桁の2進数は実施例では
4つの可能な出力状態を表す。カスタム・インタフェー
ス・プログラムが指定されたが実際には存在しない場合
は、ブロック406は肯定的に返答され、制御フローは
再びブロック405に戻る。そうでない場合は、ブロッ
ク420が図8Bに示す本モデルのためのモデル教育プ
ログラム実行サブルーチンを呼び出す。モデル教育プロ
グラムは、前述のように、図6Cに示すモデル教育プロ
グラム生成サブルーチンにより用意される。
【0079】図8Bを参照すると、ブロック433は図
6Cで生成される初期化ルーチンを実行する。ブロック
421はカスタム・インタフェース・プログラムが指定
されたかどうかを確認する。実施例の場合のように指定
されると、ブロック422はカスタム・インタフェース
・プログラムからデータを取得する(このデータは図1
0に示す数値データである)。指定されない場合は、ト
レーニング・データがデータ・セットに数値形式で記憶
され、ブロック423はデータ・セットから直接データ
を取得する。ブロック424は図6Cのブロック234
で提供される神経網に依存するルーチンを実行すること
により1教育ステップを実行する。実施例では、ボディ
90内のデータ配列のデータ値は、目標の網出力と実際
の網出力の間の誤差を最小化するように調整される。ブ
ロック425は再びカスタム・インタフェース・プログ
ラムをチェックする。これが存在すれば、ブロック42
6でユーザがデータ構造内のデータ値を表示することを
望むかどうかを確認する。望む場合は、カスタム・イン
タフェース・プログラムにより生成されるカスタム画面
がブロック427で表示される。カスタム画面の例を図
19A−図19Dに示す。ユーザがデータを表示するこ
とを望むが、カスタム・インタフェース・プログラムが
存在しない場合は、デフォルト画面がブロック428で
表示される。デフォルト画面の例を図15に示す。
【0080】図8Cを参照すると、ブロック429はユ
ーザがデータをログすることを望むかを確認する。望む
場合は、ブロック430がカスタム或いはデフォルト・
データのログを実行する。どちらの場合も、ブロック4
34は1エポックが完了したかどうかを確認する。エポ
ックはデータ・セット内の全てのトレーニング・データ
が1度処理された時点で完了する。完了していない場合
は、制御はブロック421に戻り、次のトレーニング・
データを取得する。1つのエポックが完了すると、ブロ
ック435は図6Cのブロック235で組み込まれたエ
ポック終了処理ルーチンを実行する。
【0081】次に、ブロック431はユーザにより指定
された反復回数が完了したかどうかを確認する。完了す
るまでブロック431は否定で返答され、制御フローは
ブロック421に戻り、トレーニング・データを通じて
別の反復を実行する。トレーニング期間が完了すると、
ブロック431は肯定的に返答される。サブルーチンは
ブロック439で図8Aのブロック407に戻る。ブロ
ック407は図5のブロック150に戻る。
【0082】実施例では、ユーザは硬貨を識別するため
の新たにトレーニングされた神経網を実行することを望
むので、図5のブロック150は肯定的に返答され、ブ
ロック500で神経網実行サブルーチン(図9)が呼び
出される。この他にも、いずれのアプリケーション・プ
ログラムにおいても、図5をバイパスすることにより、
神経網実行サブルーチンを直接呼び出すことが可能であ
る。
【0083】図9Aを参照すると、ブロック501は図
6Dのブロック251で組み込まれた初期化ルーチンを
実行する。ブロック502はこの神経網の名称を決定す
る。ブロック530は図9Bに示すこのモデルのための
モデル実行プログラム実行サブルーチンを呼び出す。モ
デル実行プログラムは、前述のように、図6Dに示すモ
デル実行プログラム生成サブルーチンにより用意され
る。
【0084】図9Bを参照すると、ブロック531はこ
の神経網を通じて入力データを実行し、ブロック533
が図9Aのブロック519に戻った時点で、それを神経
網実行サブルーチン500に戻す。ブロック531は図
6Dのブロック253及び254で生成されるルーチン
を実行する。
【0085】サブルーチン500はブロック519で図
5のブロック190に戻る。ここでプログラムは終了す
るか、或いはこのプログラムを呼び出したアプリケーシ
ョン・プログラムに戻る。
【0086】図19A−図19Dは本実施例の硬貨識別
神経網がペニー、ニッケル、ダイム及びクオータを正し
く識別した様子を示す。図20は次に示す入力データ、
すなわち、BRONZE LEFT Y N N N (数値的には0110
00で表現される)がこの神経網を通じて実行された場
合の模様を示す。これは神経網に対し、左のプロファイ
ル及び建物を有し、一方、鷲、木の葉或いはたいまつを
有さない銅貨を識別するように依頼するものである。神
経網はこの硬貨がニッケルであると推測するが、ニッケ
ルの該当率は0.4865323しかない。神経網は
1.00000に近い値を取ると確実となる。実施例で
はこの硬貨がニッケルである確率はあまり確かでない。
実際に、こうした属性を有する硬貨は存在しないので、
神経網が高い不確定度合いを示したことは、この神経網
が正しく判定したことになる。
【0087】特定のタイプの問題に対応する特定の神経
網モデルの選択は、選択するモデルの数が増えるにつれ
て更に複雑化するものと思われる。選択処理は実数及び
2進データのタイプに加え、整数入力データのタイプに
基づいて行われる。入力データ・サイズは、ウィンドウ
・サイズ或いは宛先の最大数などの、他のユーザ特有の
パラメータのサイズに合わせて設定される。
【0088】
【発明の効果】以上説明したように、本発明によれば、
プログラミング労力或いは神経網に関する専門知識をほ
とんど必要としない、アプリケーション・プログラムの
ための拡張された神経網シェルを提供することができ
る。
【図面の簡単な説明】
【図1】本発明のコンピュータ・システムのブロック図
である。
【図2】大規模な並列ハードウェアで実行される神経網
がシリアルのフォン・ノイマン型コンピュータ・システ
ム上においてシミュレートされる様子を示す図である。
【図3A】本発明による計算環境の概念的フレームワー
クを示す図である。
【図3B】本発明による計算環境の概念的フレームワー
クを示す図である。
【図4】本発明による神経網データ構造を示す図であ
る。
【図5】本発明のフロー図である。
【図6A】本発明のフロー図である。
【図6B】本発明のフロー図である。
【図6C】本発明のフロー図である。
【図6D】本発明のフロー図である。
【図7A】本発明のフロー図である。
【図7B】本発明のフロー図である。
【図7C】本発明のフロー図である。
【図7D】本発明のフロー図である。
【図7E】本発明のフロー図である。
【図7F】本発明のフロー図である。
【図7G】本発明のフロー図である。
【図7H】本発明のフロー図である。
【図7I】本発明のフロー図である。
【図7J】本発明のフロー図である。
【図8A】本発明のフロー図である。
【図8B】本発明のフロー図である。
【図8C】本発明のフロー図である。
【図9A】本発明のフロー図である。
【図9B】本発明のフロー図である。
【図10】模範的記号トレーニング・データが数値トレ
ーニング・データに変換される様子を示す図である。
【図11】本発明を使用する神経網の例を作成、トレー
ニング、及び実行するために、ユーザに表示される画面
を示す図である。
【図12A】本発明を使用する神経網の例を作成、トレ
ーニング、及び実行するために、ユーザに表示される画
面を示す図である。
【図12B】本発明を使用する神経網の例を作成、トレ
ーニング、及び実行するために、ユーザに表示される画
面を示す図である。
【図12C】本発明を使用する神経網の例を作成、トレ
ーニング、及び実行するために、ユーザに表示される画
面を示す図である。
【図12D】本発明を使用する神経網の例を作成、トレ
ーニング、及び実行するために、ユーザに表示される画
面を示す図である。
【図12E】本発明を使用する神経網の例を作成、トレ
ーニング、及び実行するために、ユーザに表示される画
面を示す図である。
【図12F】本発明を使用する神経網の例を作成、トレ
ーニング、及び実行するために、ユーザに表示される画
面を示す図である。
【図12G】本発明を使用する神経網の例を作成、トレ
ーニング、及び実行するために、ユーザに表示される画
面を示す図である。
【図12H】本発明を使用する神経網の例を作成、トレ
ーニング、及び実行するために、ユーザに表示される画
面を示す図である。
【図12I】本発明を使用する神経網の例を作成、トレ
ーニング、及び実行するために、ユーザに表示される画
面を示す図である。
【図12J】本発明を使用する神経網の例を作成、トレ
ーニング、及び実行するために、ユーザに表示される画
面を示す図である。
【図13】本発明を使用する神経網の例を作成、トレー
ニング、及び実行するために、ユーザに表示される画面
を示す図である。
【図14】本発明を使用する神経網の例を作成、トレー
ニング、及び実行するために、ユーザに表示される画面
を示す図である。
【図15】本発明を使用する神経網の例を作成、トレー
ニング、及び実行するために、ユーザに表示される画面
を示す図である。
【図16】本発明を使用する神経網の例を作成、トレー
ニング、及び実行するために、ユーザに表示される画面
を示す図である。
【図17】本発明を使用する神経網の例を作成、トレー
ニング、及び実行するために、ユーザに表示される画面
を示す図である。
【図18】本発明を使用する神経網の例を作成、トレー
ニング、及び実行するために、ユーザに表示される画面
を示す図である。
【図19A】本発明を使用する神経網の例を作成、トレ
ーニング、及び実行するために、ユーザに表示される画
面を示す図である。
【図19B】本発明を使用する神経網の例を作成、トレ
ーニング、及び実行するために、ユーザに表示される画
面を示す図である。
【図19C】本発明を使用する神経網の例を作成、トレ
ーニング、及び実行するために、ユーザに表示される画
面を示す図である。
【図19D】本発明を使用する神経網の例を作成、トレ
ーニング、及び実行するために、ユーザに表示される画
面を示す図である。
【図20】本発明を使用する神経網の例を作成、トレー
ニング、及び実行するために、ユーザに表示される画面
を示す図である。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 シヨウン・マイケル・オーストボイド アメリカ合衆国ミネソタ州、ロチエスタ ー、アパートメント ナンバー 109、ノ ース・ウエスト、シツクステイーンス・ア ベニユー 4812番地 (72)発明者 ジヨセフ・フイリツプ・ビガス アメリカ合衆国ミネソタ州、ロチエスタ ー、ノース・ウエスト、チヤレツト・ビユ ー・レーン 3424番地 (72)発明者 ジヨナサン・デビツド・ヘンケル アメリカ合衆国ミネソタ州、ロチエスタ ー、ノース・イースト、イレブンス・アベ ニユー 207番地 (72)発明者 ポール・アラン・ホスパース アメリカ合衆国ミネソタ州、ロチエスタ ー、ロングボート・ロード 5704番地

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】神経網のための神経網データ構造を作成す
    る方法において、 ユーザに対し問題のタイプを促すステップと、 前記ユーザに対し入力データ形式を有する入力データ・
    ファイルを促すステップと、 前記問題のタイプ及び前記入力データ形式に基づき神経
    網モデルを選択するステップと、 前記ユーザに対し入力データ使用情報を促すステップ
    と、 前記選択ステップにより選択される前記神経網モデルの
    ための前記神経網データ構造を前記入力データ使用情報
    に基づき作成するステップとを具備することを特徴とす
    る方法。
  2. 【請求項2】神経網のための神経網データ構造を作成す
    る方法において、 ユーザに対し問題のタイプを促すステップと、 前記ユーザに対し入力データ・ファイル・サイズを有す
    る入力データ・ファイルを促すステップと、 前記問題のタイプ及び前記入力データ・ファイル・サイ
    ズに基づき神経網モデルを選択するステップと、 前記ユーザに対し入力データ使用情報を促すステップ
    と、 前記選択ステップにより選択される前記神経網モデルの
    ための前記神経網データ構造を前記入力データ使用情報
    に基づき作成するステップとを具備することを特徴とす
    る方法。
  3. 【請求項3】神経網のための神経網データ構造を作成す
    る方法において、 ユーザに対し問題のタイプを促すステップと、 前記ユーザに対し入力データ形式及び入力データ・ファ
    イル・サイズを有する入力データ・ファイルを促すステ
    ップと、 前記問題のタイプ、前記入力データ形式及び前記入力デ
    ータ・ファイル・サイズに基づき神経網モデルを選択す
    るステップと、 前記ユーザに対し入力データ使用情報を促すステップ
    と、 前記選択ステップにより選択される前記神経網モデルの
    ための前記神経網データ構造を前記入力データ使用情報
    に基づき作成するステップとを具備することを特徴とす
    る方法。
  4. 【請求項4】神経網のための神経網データ構造を作成す
    る方法において、 ユーザに対し非技術的用語で表現される問題のタイプを
    促すステップと、 前記問題のタイプに基づき神経網モデルを選択するステ
    ップと、 前記ユーザに対し入力データ使用情報を促すステップ
    と、 前記選択ステップにより選択される前記神経網モデルの
    ための前記神経網データ構造を前記入力データ使用情報
    に基づき作成するステップとを具備することを特徴とす
    る方法。
  5. 【請求項5】神経網のための神経網データ構造を作成す
    るコンピュータ・システムにおいて、 ユーザに対し問題のタイプを促す手段と、 前記ユーザに対し入力データ形式を有する入力データ・
    ファイルを促す手段と、 前記問題のタイプ及び前記入力データ形式に基づき神経
    網モデルを選択する手段と、 前記ユーザに対し入力データ使用情報を促す手段と、 前記選択手段により選択される前記神経網モデルのため
    の前記神経網データ構造を前記入力データ使用情報に基
    づき作成する手段とを具備することを特徴とするコンピ
    ュータ・システム。
  6. 【請求項6】神経網のための神経網データ構造を作成す
    るコンピュータ・システムにおいて、 ユーザに対し問題のタイプを促す手段と、 前記ユーザに対し入力データ・ファイル・サイズを有す
    る入力データ・ファイルを促す手段と、 前記問題のタイプ及び前記入力データ・ファイル・サイ
    ズに基づき神経網モデルを選択する手段と、 前記ユーザに対し入力データ使用情報を促す手段と、 前記選択手段により選択される前記神経網モデルのため
    の前記神経網データ構造を前記入力データ使用情報に基
    づき作成する手段とを具備することを特徴とするコンピ
    ュータ・システム。
  7. 【請求項7】神経網のための神経網データ構造を作成す
    るコンピュータ・システムにおいて、 ユーザに対し問題のタイプを促す手段と、 前記ユーザに対し入力データ形式及び入力データ・ファ
    イル・サイズを有する入力データ・ファイルを促す手段
    と、 前記問題のタイプ、前記入力データ形式及び前記入力デ
    ータ・ファイル・サイズに基づき神経網モデルを選択す
    る手段と、 前記ユーザに対し入力データ使用情報を促す手段と、 前記選択手段により選択される前記神経網モデルのため
    の前記神経網データ構造を前記入力データ使用情報に基
    づき作成する手段とを具備することを特徴とするコンピ
    ュータ・システム。
  8. 【請求項8】神経網のための神経網データ構造を作成す
    るコンピュータ・システムにおいて、 ユーザに対し非技術的言語で表現される問題のタイプを
    促す手段と、 前記問題のタイプに基づき神経網モデルを選択する手段
    と、 前記ユーザに対し入力データ使用情報を促す手段と、 前記選択手段により選択される前記神経網モデルのため
    の前記神経網データ構造を前記入力データ使用情報に基
    づき作成する手段とを具備することを特徴とするコンピ
    ュータ・システム。
  9. 【請求項9】コンピュータ・システムにおける神経網の
    ための神経網データ構造を作成するプログラム製品にお
    いて、 ユーザに対し問題のタイプを促す手段と、 前記ユーザに対し入力データ形式を有する入力データ・
    ファイルを促す手段と、 前記問題のタイプ及び前記入力データ形式に基づき神経
    網モデルを選択する手段と、 前記ユーザに対し入力データ使用情報を促す手段と、 前記選択手段により選択される前記神経網モデルのため
    の前記神経網データ構造を前記入力データ使用情報に基
    づき作成する手段とを具備することを特徴とするプログ
    ラム製品。
JP4050116A 1991-04-18 1992-03-09 神経網データ構造を作成する方法及びコンピュータ・システム Expired - Fee Related JP2673144B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US07/687,582 US5235673A (en) 1991-04-18 1991-04-18 Enhanced neural network shell for application programs
US687582 1991-04-18

Publications (2)

Publication Number Publication Date
JPH0567067A true JPH0567067A (ja) 1993-03-19
JP2673144B2 JP2673144B2 (ja) 1997-11-05

Family

ID=24760988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4050116A Expired - Fee Related JP2673144B2 (ja) 1991-04-18 1992-03-09 神経網データ構造を作成する方法及びコンピュータ・システム

Country Status (6)

Country Link
US (2) US5235673A (ja)
EP (1) EP0509949B1 (ja)
JP (1) JP2673144B2 (ja)
BR (1) BR9201308A (ja)
CA (1) CA2061012C (ja)
DE (1) DE69227648T2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6690913B2 (en) 2001-12-20 2004-02-10 Kabushiki Kaisha Toshiba Correction support apparatus, correction support method, correction support program, and correction support system
WO2023038300A1 (ko) * 2021-09-10 2023-03-16 삼성전자 주식회사 인공지능 서비스를 제공하는 디바이스 및 그 동작 방법

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5463718A (en) * 1991-11-08 1995-10-31 Hitachi, Ltd. Learning method and apparatus
US5361201A (en) * 1992-10-19 1994-11-01 Hnc, Inc. Real estate appraisal using predictive modeling
US5432887A (en) * 1993-03-16 1995-07-11 Singapore Computer Systems Neural network system and method for factory floor scheduling
US5704012A (en) * 1993-10-08 1997-12-30 International Business Machines Corporation Adaptive resource allocation using neural networks
US5659666A (en) * 1994-10-13 1997-08-19 Thaler; Stephen L. Device for the autonomous generation of useful information
US5799134A (en) * 1995-03-13 1998-08-25 Industrial Technology Research Institute One dimensional systolic array architecture for neural network
US6901392B1 (en) * 1995-09-04 2005-05-31 Matsushita Electric Industrial Co., Ltd. Information filtering method and apparatus for preferentially taking out information having a high necessity
US6035300A (en) * 1995-12-15 2000-03-07 International Business Machines Corporation Method and apparatus for generating a user interface from the entity/attribute/relationship model of a database
US5845271A (en) * 1996-01-26 1998-12-01 Thaler; Stephen L. Non-algorithmically implemented artificial neural networks and components thereof
US5734797A (en) * 1996-08-23 1998-03-31 The United States Of America As Represented By The Secretary Of The Navy System and method for determining class discrimination features
GB2321362A (en) * 1997-01-21 1998-07-22 Northern Telecom Ltd Generic processing capability
US6035057A (en) * 1997-03-10 2000-03-07 Hoffman; Efrem H. Hierarchical data matrix pattern recognition and identification system
US6057837A (en) * 1997-07-15 2000-05-02 Microsoft Corporation On-screen indentification and manipulation of sources that an object depends upon
US7003475B1 (en) 1999-05-07 2006-02-21 Medcohealth Solutions, Inc. Computer implemented resource allocation model and process to dynamically and optimally schedule an arbitrary number of resources subject to an arbitrary number of constraints in the managed care, health care and/or pharmacy industry
US7426551B1 (en) * 2000-05-31 2008-09-16 Mcafee, Inc. System, method and computer program product for dynamic system adaptation using contracts
US8458082B2 (en) 2001-11-13 2013-06-04 Interthinx, Inc. Automated loan risk assessment system and method
US6965885B2 (en) * 2002-01-22 2005-11-15 Koninklijke Philips Electronics N.V. Self-organizing feature map with improved performance by non-monotonic variation of the learning rate
CN103942922A (zh) * 2014-03-17 2014-07-23 湖南五舟检测科技有限公司 一种基于演化神经网络的尾矿安全监测方法
US11270198B2 (en) 2017-07-31 2022-03-08 Syntiant Microcontroller interface for audio signal processing
CN109919308B (zh) * 2017-12-13 2022-11-11 腾讯科技(深圳)有限公司 一种神经网络模型部署方法、预测方法及相关设备
CN110515531A (zh) * 2019-08-28 2019-11-29 广东工业大学 一种智能辅助绘画系统
US20230214629A1 (en) * 2021-12-30 2023-07-06 Microsoft Technology Licensing, Llc Transformer-based autoregressive language model selection

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5142665A (en) * 1990-02-20 1992-08-25 International Business Machines Corporation Neural network shell for application programs

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NTIS TECH NOTES=1980 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6690913B2 (en) 2001-12-20 2004-02-10 Kabushiki Kaisha Toshiba Correction support apparatus, correction support method, correction support program, and correction support system
WO2023038300A1 (ko) * 2021-09-10 2023-03-16 삼성전자 주식회사 인공지능 서비스를 제공하는 디바이스 및 그 동작 방법

Also Published As

Publication number Publication date
DE69227648D1 (de) 1999-01-07
CA2061012C (en) 1999-07-13
DE69227648T2 (de) 1999-07-01
EP0509949A2 (en) 1992-10-21
EP0509949A3 (en) 1993-05-26
BR9201308A (pt) 1992-12-01
US5235673A (en) 1993-08-10
EP0509949B1 (en) 1998-11-25
JP2673144B2 (ja) 1997-11-05
US5444824A (en) 1995-08-22
CA2061012A1 (en) 1992-10-19

Similar Documents

Publication Publication Date Title
JP2673144B2 (ja) 神経網データ構造を作成する方法及びコンピュータ・システム
Benchaji et al. Using genetic algorithm to improve classification of imbalanced datasets for credit card fraud detection
Ciaburro et al. Neural Networks with R: Smart models using CNN, RNN, deep learning, and artificial intelligence principles
EP0581828B1 (en) Improvements in neural networks
US6119112A (en) Optimum cessation of training in neural networks
US5142665A (en) Neural network shell for application programs
US5450529A (en) Neural network shell for application programs
Sun et al. Label-and-learn: Visualizing the likelihood of machine learning classifier's success during data labeling
Hodnett et al. R Deep Learning Essentials: A step-by-step guide to building deep learning models using TensorFlow, Keras, and MXNet
CN110427560A (zh) 一种应用于推荐系统的模型训练方法以及相关装置
El-Amir et al. Deep learning pipeline: building a deep learning model with TensorFlow
Gallagher Multi-layer perceptron error surfaces: visualization, structure and modelling
Fountain Parallel Computing: Principles and Practice
El-Amir et al. Deep learning pipeline
Gautrais et al. Human-machine collaboration for democratizing data science
Saleh The The Deep Learning with PyTorch Workshop: Build deep neural networks and artificial intelligence applications with PyTorch
Hodnett et al. Deep Learning with R for Beginners: Design neural network models in R 3.5 using TensorFlow, Keras, and MXNet
Subair et al. Implementations and applications of machine learning
Sanchez Reconstructing our past˸ deep learning for population genetics
Ikram A benchmark for evaluating Deep Learning based Image Analytics
CN113191527A (zh) 一种基于预测模型进行人口预测的预测方法及装置
US11341363B1 (en) In-process engine implementation using SDK extensions
KR20210090902A (ko) Rnn-gan 시뮬레이션을 이용한 시장리스크 관리 시스템
Bulitko et al. Adaptive image interpretation: A spectrum of machine learning problems
US20230368035A1 (en) Multi-level time series forecasting using artificial intelligence techniques

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees