JPH04216163A - 神経網を構築する方法及び神経網モデルを定義する方法 - Google Patents

神経網を構築する方法及び神経網モデルを定義する方法

Info

Publication number
JPH04216163A
JPH04216163A JP3040551A JP4055191A JPH04216163A JP H04216163 A JPH04216163 A JP H04216163A JP 3040551 A JP3040551 A JP 3040551A JP 4055191 A JP4055191 A JP 4055191A JP H04216163 A JPH04216163 A JP H04216163A
Authority
JP
Japan
Prior art keywords
neural network
data
data structure
training
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3040551A
Other languages
English (en)
Other versions
JP2659867B2 (ja
Inventor
Joseph P Bigus
ジョセフ・フィリップ・ビガス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JPH04216163A publication Critical patent/JPH04216163A/ja
Application granted granted Critical
Publication of JP2659867B2 publication Critical patent/JP2659867B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Devices For Executing Special Programs (AREA)
  • Stored Programmes (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、データ処理の分野に関
するものである。とりわけ、本発明は、適用業務プログ
ラムが、神経網を利用して、計算を行なえるようにする
神経網シェルに関するものである。
【0002】
【従来の技術】人間の頭脳は、神経網をなすように互い
に接続された神経装置のグループから構成されている。 我々が何かを学ぶ時、この神経装置間において、新しい
接続が行なわれたり、あるいは、既存の接続に修正が加
えられたりする。神経網は、適応重みによって接続され
た多くの単純なプロセッサから成る人間の頭脳の大規模
な並列計算モデルである。神経網は、人工知能に関連し
た用途で利用されている。並列神経網は、しばしば、プ
ロセッサがプログラム・コードでシミュレートされ、接
続がデータによってモデル化された、直列コンピュータ
においてシミュレートされる。
【0003】神経網は、教師ありの場合も、あるいは、
教師なしの場合もあり得る。教師あり神経網は、プログ
ラマがアルゴリズム・コードを書いて、データ処理の方
法を教えるのではないという点で、従来のプログラムと
は異なっている。代りに、ユーザは、所望の入力/出力
関係のトレーニング・データを提示することによって、
神経網のトレーニングを行なう。単純な例示として、神
経網が、入力される整数が奇数か、偶数かの判定を行な
うことを必要としているものと仮定する。神経網に対す
るトレーニング・データの提示は、次のような形で行な
われる。“1、ODD”、“2、EVEN”、“5、O
DD”、“121、ODD”等。神経網は、一様に2で
割ることのできる121以下の全ての正の整数が“EV
EN”であり、121以下の他の全ての正の整数が“O
DD”であることを学習することになる。従って、トレ
ーニング・セッションが完了してから、ユーザが、神経
網に対して入力データとして“7”を提示すると、出力
結果は、“ODD”になる。入力データとして神経網に
“−14”を提示すると、トレーニング・データは、神
経網に対し負の整数について何も“教育”していなかっ
たので、神経網は、これが偶数であることが分る場合も
あれば、分らない場合もある。神経網は、−14が偶数
であることを正確に当てるかもしれないが、おそらく、
ユーザに対し、正確な答に達したことに多少の疑いを抱
いていることを知らせることになる。さらに、神経網は
、トレーニング・データには大きい数が含まれていなか
ったので、123232123121といった数が奇数
であることは分らない。従って、神経網の質は、トレー
ニング・データの質によって決まる。
【0004】教師なし神経網は、入力データから統計的
に重要な特徴を抽出することができる。これは、トレー
ニング時に神経網に提示されるのが入力データだけとい
う点で、教師あり神経網とは異なる。
【0005】ラベル神経網に分類される多くの異なるタ
イプの計算モデルがある。これらの異なるモデルは、独
特なネットワーク・トポロジ及び学習メカニズムを備え
ている。既知の神経網の例には、逆伝播モデル、適応共
鳴理論モデル、特徴マップ自己編成モデル、TSPネッ
トワーク自己編成モデル、及び、双方向性連想メモリ・
モデルがある。神経網の分野は、極めて活発であり、新
しい神経網モデルの提案がしばしば行なわれる。
【0006】神経網モデルは、興味深く、理論的に有力
ではあるが、融通性がなく、利用が困難である。1つの
神経網モデルの機能を具体化する特殊化された適用業務
プログラムを書くためには、神経網の知識を有し、高度
な技能を備えたプログラマが必要になる。こうしたカス
タムの設計が施された適用業務プログラムは、セールス
・マンの移動距離を最小限におさえるのと同様、1つの
特定の計算しかできないので、極めて高価で、かつ、機
能が限定される。異なる計算が必要な場合、おそらく、
この神経網モデルに精通した異なる高度な技能を有する
プログラマによって、おそらく、別の全く似ていない神
経網モデルを具体化する異なる適用業務プログラムが作
成されなければならない。
【0007】これらの適用業務プログラムを異なるコン
ピュータ・システムで実行することが所望の場合、複雑
な神経網成分を含む適用業務プログラム全体を書き直さ
なければならない場合がよくある。これは、明らかに望
ましいことではなく、貴重なプログラミング資源の浪費
になる。書直しに加え、神経網成分は、再トレーニング
も必要である。
【0008】神経網に関する知識がほとんどないか、全
くない通常のプログラマまたはユーザによって、各種コ
ンピュータ言語で書かれた通常の適用業務プログラムで
は、1つ以上の神経網モデルの能力を利用して、広範囲
にわたる計算を実施することはできない。
【0009】先行技術では、上述の問題を十分に取り扱
うことはできなかった。先行技術は、主として、商業環
境には不適当な理論的及び経験的用途に制限される。
【0010】
【発明が解決しようとする課題】本発明の主たる目的は
、適用業務プログラムが、神経網モデルを用いて計算を
行なえるようにする単純な方法を提供することにある。
【0011】本発明のもう1つの目的は、適用業務プロ
グラムと複数の神経網モデルのインターフェイスを行な
う神経網シェルを提供することにある。
【0012】本発明のもう1つの目的は、異なる計算言
語で書かれた、あるいは、異なるコンピュータ・システ
ムで実行する適用業務プログラムによって利用可能な、
神経網データ構造を含む神経網シェルを提供することに
ある。
【0013】
【課題を解決するための手段】神経網シェルは、適用業
務プログラムに対する定義されたインターフェイスを備
えている。神経網シェルとのインターフェイスによって
、どの適用業務プログラムも、神経網適用業務プログラ
ムになる。神経網シェルには、神経網データ構造にデー
タを転送し、神経網データ構造からデータ転送を受ける
1組のユーティリティ・プログラムが含まれている。 この1組のユーティリティ・プログラムによって、適用
業務プログラムは、新しい神経網モデルを定義し、神経
網データ構造を生成し、神経網にトレーニングを施し、
神経網を実行することが可能になる。トレーニングが施
されると、神経網データ構造は、他のコンピュータ・シ
ステムに対し、または、同様の、あるいは、異なるコン
ピュータ・システムで実行する、異なるコンピュータ言
語で書かれた適用業務プログラムに対して移送(tra
nsport)することが可能になる。
【0014】神経網データ構造には、ヘッダとボディが
含まれている。ヘッダには、特定の神経網モデルに固有
の神経網の名前、神経網モデルの名前、神経網の状況、
及び、各種パラメータが含まれている。神経網データ構
造のボディには、特定の神経網モデルに固有のデータ・
アレイが含まれている。本発明の神経網データ構造に対
して、多種多様な既知の神経網や未知の、または、まだ
開発されていない神経網のマッピングを行なうことが可
能である。
【0015】神経網に関する入力データ及び出力結果は
、記号または数値フォーマットで外部記憶装置に保持す
ることができる。データが、記号フォーマットで保持さ
れる場合、神経網による処理のため、数値のフォーマッ
トに変換される。次に、数値出力の結果が、変換されて
、所望の記号フォーマットに戻される。ユーザは、カス
タムインターフェイス・プログラムと呼ばれる既存の変
換プログラムを指定するか、または、ユーザの神経網適
用業務の要求に合わせたユーザ自身のインターフェイス
・プログラムを書くことができる。
【0016】トレーニング・プロセス時には、所望の場
合、神経網データ構造からの関連データが、ユーザに表
示され、かつ、登録されるか、あるいは、その一方が行
なわれる。
【0017】
【実施例】図1には、本発明のコンピュータ・システム
のブロック図が示されている。コンピュータ・システム
10は、記憶装置12に接続された主演算処理装置すな
わち中央演算処理装置11から構成される。記憶装置1
2は、RAMのような1次メモリ、または、磁気または
光学記憶装置のような2次メモリとすることができる。 CPU11は、望ましい実施例の場合、コ・プロセッサ
13に接続される。コ・プロセッサ13は、一般的な数
理計算機能(数理コ・プロセッサ)または特殊化神経網
ハードウェア支援機能(神経網プロセッサ)を提供する
ことができる。CPU11に、集中的計算作業負荷を扱
うのに十分な処理能力が備わっていて、許容できない性
能劣化がなければ、コ・プロセッサ13は不要である。 CPU11は、ユーザ・インターフェイス14にも接続
される。ユーザ・インターフェイス14によって、開発
者及びユーザは、通常、プログラマブル・ワークステー
ションを介して、コンピュータ・システム10との通信
を行なうことが可能になる。
【0018】望ましい実施例の場合、どんなコンピュー
タ・システムでも利用可能であるが、コンピュータ・シ
ステム10は、IBMアプリケーション・システム/4
00ミッド・レンジ・コンピュータである。コ・プロセ
ッサ13は、アプリケーション・システム/400ミッ
ド・レンジ・コンピュータのプロセッサであることが望
ましいが、IBM  PS/2のようなパーソナル・コ
ンピュータに見受けられる数理コ・プロセッサ13でも
かまわない。この場合、CPU11及びコ・プロセッサ
13は、IBM  PCサポートを介して互いに通信す
ることになる。
【0019】図2には、フォン・ノイマン(直列)・プ
ロセッサ・システムで、神経網(並列)コンピュータの
シミュレーションを行なうことの可能な方法が示される
。異なる接続トポロジ及び処理装置属性を備えた、多く
の異なる神経網モデルが存在する。ただし、それらは、
一般に適応(変更可能)重み22によって接続される多
くの「数十、数百、または、数千の)単純な処理装置2
1から構成された、計算システムとして分類することが
できる。処理装置及び重み以外に、神経網モデルは、ト
レーニングの各反復後に、重みを更新することによって
有効に働く学習メカニズム23を備えていなければなら
ない。
【0020】神経網モデルは、プログラム及びデータに
従ってデジタル・コンピュータでシミュレートすること
ができる。プログラム26は、神経網処理装置21によ
って実行される処理機能をシミュレートし、適応接続重
み22は、データ27に含まれている。プログラム28
は、学習または接続重み適応メカニズム23を実現する
のに利用される。
【0021】図3には、本発明の概念レイアウト及びそ
れと適用業務ソフトウェアとを関連づける方法が示され
ている。最高レベルは、適用業務プログラミング・イン
ターフェイス31(API)である。API31は、神
経網の専門知識に欠けた適用業務開発が、ユーティリテ
ィ・プログラム、及び、適用業務プログラムにおける神
経網シェル32のデータ構造にアクセスし、利用するこ
とができるようにする、正式に指定されたインターフェ
イスである。
【0022】神経網シェル32は、1組のユーティリテ
ィ・プログラム33と、神経網データ構造50から構成
される。神経網シェル32は、従来の計算システムで、
適用業務における神経網を容易かつ効率的に定義し、生
成し、トレーニングし、実行する能力を提供する。
【0023】例えば、モデル35〜38のような神経網
モデルは、神経網シェル32における全てのユーティリ
ティ・プログラムがアクセス可能な一般的神経網データ
構造50を定義する形で、神経網シェル32の支援を受
けることができる。各神経網モデルは、図5に詳述する
この一般的神経網データ構造にマップされる。各神経網
モデルに固有のプログラムは、後述のように、神経網ユ
ーティリティ・プログラム33に呼び出される。
【0024】図4には、通常の適用業務プログラム41
は、神経網シェル32における1つ以上の神経網ユーテ
ィリティ・プログラム45〜48とインターフェイスす
ることによって、神経網適用業務プログラム40になる
。ユーティリティ・プログラム45〜48は、データ構
造50とインターフェイスする。神経網適用業務プログ
ラム40(本書では“神経網”とも呼ぶ)によって処理
すべきデータは、入力42から入る。神経網によるデー
タの実行がすむと、その結果が出力43から送り出され
る。適用業務プログラム41及びユーティリティ・プロ
グラム45〜48は、適当にプログラムされたCPU1
1とコ・プロセッサ13の両方または一方に常駐してい
る(図1)。データ構造50は、CPU11とコ・プロ
セッサ13の両方または一方における記憶装置12と内
部記憶装置の両方または一方に常駐している。
【0025】図5には、本発明の神経網データ構造50
が示されている。データ構造50は、適用業務プログラ
ムでの利用に合わせて神経網モデルを定義できるように
する共通のフレーム・ワークを提供するものである。こ
の共通のフレーム・ワークは、モデルに固有のパラメー
タに関して神経網データ構造50におけるいくつかのフ
ィールドを規定することによって実現する。 AS/4
00 Neural Network Utility
: User’s Guide and Refere
nce PRPQ P84189”と題する添付の付録
 1(注文番号SC21−8202−0)のページ10
3〜105には、データ構造50のモデルに固有のフィ
ールドが、逆伝播、ART、特徴自己編成マップ、TS
P、及び、BAM神経網モデルによっていかに利用され
るかが示されている。付録 1は、本特許出願の提出日
現在において一般に公開されておらず、また、入手もで
きなかった。
【0026】データ構造50は、ヘッダ部分60とボデ
ィ部分90から構成される。ヘッダ部分60には、フィ
ールド61〜79が含まれている。フィールド61及び
62は、もしあれば、他の神経網データ構造に対するポ
インタである。神経網が、直列データ処理に備えて、連
係リストをなすように構成されている場合、第1のポイ
ンタは、前の神経網に連係している。この連係を利用し
て、より大きい神経網内における前のサブ・ネットから
出力を得ることができる。第2のポインタは、次の神経
網に対するポインタである。サブ・ネット・ワークの収
集に基づいて、これらの連係のいずれか、または両方が
、いくつかのサブ・ネット・ワークから構成される複合
(ハイブリッド)神経網において、用いられることにな
る。
【0027】神経網データ構造を互いに連鎖させること
により、適用業務プログラムのフレキシビリティを増し
、機能を高めることができる。さらに2つの神経網に対
して連係し得るようにすることによって、神経網のモジ
ュールから“超”神経網を構成することが可能になる。
【0028】フィールド63は、ボディ部分90におけ
る次の自由空間に対するバイトのオフセットである。フ
ィールド64は、神経網データ構造の端部に対するバイ
トのオフセットである。ボディ部分90は、可変長のデ
ータ領域であるため、データ構造及び次に利用可能な自
由空間のトラック及びサイズをボディ部分90に保持す
る必要がある。
【0029】フィールド65には、神経網の名前が含ま
れている。コインに関する属性情報を含む入力データ(
コインが銅と銀のいずれであるか、人物が左を向いてい
るか、右を向いているか、及び、コインに建物、イーグ
ル、葉、または、トーチが彫刻されているか否か)に基
づいて、コインが、ペニーか、5セント白銅貨か、ダイ
ムか、あるいは、25セント銀貨かを判定する神経網の
一例について、後述する。この神経網の名前は、COI
NNETであり、この名前は、後述するように、神経網
生成ユーティリティ・プログラムによってフィールド6
5に納められる。
【0030】フィールド66には、神経網が位置指定さ
れ、望ましい実施例において必要とされるライブラリの
名前が含まれている。AS/400の場合、プログラム
は、ライブラリに納められる。ライブラリは、パーソナ
ル・コンピュータ環境におけるサブ・ディレクトリに似
ている。フィールド66は、ライブラリのない計算環境
では不要である。フィールド67には、神経網バージョ
ン識別子が含まれている。この情報は、神経網シェル・
プログラムと神経網データ構造の間の不一致を防ぐため
に用いられる。新しいバージョンすなわち新たにリリー
スされるソフトウェアを開発する際には、既存の神経網
と適合させることが望ましい。エンハンスメントが、基
本的な神経網データ構造に対する変更を必要とする場合
、このフィールドによって、ソフトウェアとデータの不
一致を検出することが可能になる。ソフトウェアは、変
換ルーチンを呼び出して、データ構造のフォーマットを
更新したり、あるいは、ダウン・レベルのデータ構造を
受け入れることができる。
【0031】フィールド79には、神経網モデルまたは
タイプの名前が含まれている。神経網モデル名の一例が
、逆伝播に対する“BKP”である。
【0032】フィールド68には、神経網の現在の状況
が含まれている。可能性のある状態は、神経網が生成中
の場合は、‘INITIALIZE’、神経網がトレー
ニング中の場合は、‘TRAINING’、または、ト
レーニングが完了したか、その実行準備が整っている場
合は、“LOCKED’になる。
【0033】フィールド69は、所望の場合、モデルに
固有の英数字フィールドを記憶する任意選択フィールド
である。フィールド70は、経過した神経網のトレーニ
ング時間を秒単位で記憶している。
【0034】フィールド71〜74には、特定の神経網
モデルによってさまざまに用いられるさまざまなタイプ
のパラメータが含まれている。フィールド71には、4
つまでの神経網ブール・パラメータが含まれている。例
えば、逆伝播神経網モデルは、エポック更新及びランダ
ム入力を許可するか、禁止するかの判定を行なうのに、
これらのパラメータのうちの2つを利用する。神経網ブ
ール・パラメータは、神経網フラグとしても知られてい
る。もちろん、所望の場合には、フィールド71(に加
え、データ構造50の他のフィールドも)、望ましい実
施例に用いられるパラメータ数の増減に適応するように
、拡大したり、縮小したりすることができる。フィール
ド72には、神経網サイズのパラメータが含まれている
。このフィールドには、5つまでのモデルに固有の神経
網サイズの整数パラメータが含まれている。フィールド
73には、5つまでのモデルに固有の神経網に関する牽
引の整数パラメータが含まれている。フィールド74に
は、学習速度、モーメンタム、エポック誤差等のような
、6つまでのモデルに固有の神経網に関するトレーニン
グの実パラメータが含まれる。
【0035】フィールド75は、神経網のトレーニング
・エポック数を記憶している(エポックは、完全な組を
なすトレーニング・データの繰返しである)。フィール
ド76には、ボディ部分90における各モデルに固有の
アレイの始端に対するバイトで表わすオフセットのアレ
イが含まれている。フィールド77には、ボディ部分9
0における各モデルに固有のアレイの始端に対する分解
ポインタのアレイが含まれている。フィールド78には
、各アレイに保持されたデータ・タイプを表わすパラメ
ータのアレイが含まれている。例えば、神経網モデルに
は、2進入力しか受けつけないものもある。望ましい実
施例の場合、フィールド78のパラメータに“1”が含
まれている場合、その対応するアレイには、ビット・マ
ップされたデータが含まれている。パラメータが“2”
の場合、その対応するアレイには、単一の精密浮動小数
点データ(デフォルト)が含まれている。“3”の場合
、その対応するアレイには、固定小数点ゾーンの10進
データが含まれている。これらのパラメータを利用する
ことによって、記憶装置がより効率的に用いられること
になる。
【0036】ここで、データ構造50におけるボディ部
分90の内容について論考する。ボディ部分90は、あ
る数の(望ましい実施例の場合、16)モデルに固有の
アレイを含む可変長データ領域である。付録 1のペー
ジ103〜105には、例示の各神経網モデル毎に、ヘ
ッダ部分60とボディ部分90にマップされたアレイが
示されている。例えば、逆伝播モデルは、ボディ部分9
0に対し、ページ103に“アレイ・マッピング”の見
出しで示されている、活動、重み、しきい値、重みデル
タといった11のアレイをマップする。
【0037】データ構造50は、後述するように(図1
1、図12)、神経網生成ユーティリティ・プログラム
によって生成される。教育及び実行ユーティリティ・プ
ログラムは、ヘッダ情報にアクセスし、データ領域アレ
イに対するポインタを初期設定する。さらに、データ領
域アレイのデータは、神経網のトレーニング及び計算プ
ロセスのシミュレーションに用いられる。
【0038】図6〜図17には、適正にプログラムされ
たCPU11とコ・プロセッサ13の両方または一方に
よって実施される本発明のフロー・チャートが示されて
いる。図6には、神経網適用業務プログラムの開発プロ
セスにおける主たるステップの概要が示されている。ブ
ロック110では、定義すべき新しい神経網モデルが存
在するか否かについて質問する。存在する場合、ブロッ
ク200で、神経網モデル定義サブ・ルーチン(図7〜
図10)を呼び出す、存在しなければ、ブロック120
において、ユーザが、神経網データ構造の生成を望むか
否かの質問を行なう。神経網データ構造は、各神経網毎
に生成される。例えば、コイン識別神経網に関して、1
つの神経網データ構造が生成される。また、入力数が奇
数か、偶数かを判定するために、もう1つの神経網を生
成したいという場合には、もう1つの神経網データ構造
が生成される。ブロック120での答が肯定の場合、ブ
ロック300で、神経網データ構造生成サブ・ルーチン
(図11〜図12)が呼び出される。否定の場合には、
ブロック130で、ユーザが神経網のトレーニングを望
むか否かの質問を行なう。神経網には、トレーニング・
データでトレーニングを施して、入力データと所望の出
力結果の関係を学習したり、あるいは、入力データから
関連する特徴を抽出したりできるようにする必要がある
。肯定の場合には、ブロック400で、神経網教育サブ
・ルーチン(図13〜図15)が呼び出される。否定の
場合、ブロック140において、ユーザが神経網の実行
を望むか否かの質問を行なう。肯定の場合、ブロック5
00において、神経網モデル実行サブ・ルーチン(図1
6及び図17)が呼び出される。否定の場合、プログラ
ムは、ブロック190において終了する。
【0039】図7〜図10には、神経網モデル定義サブ
・ルーチン200が示されている。例示のため、適用業
務開発者が、逆伝播神経網モデルの定義を望むものと仮
定する。所望の場合、ブロック201において、神経網
ストリング・フィールド69に対し神経網モデルに固有
の意味が割り当てられる。本例の場合、このフィールド
は不要であり、従って、空白ストリングが割り当てられ
る。ブロック202において、ブール・パラメータ・フ
ィールド71に対し神経網モデルに固有の意味が割り当
てられる。本例の場合、2つのブール・パラメータ、す
なわち、エポック更新(Y/N)及びランダム入力(Y
/N)が割り当てられる。ブロック203では、神経網
サイズ・パラメータ・フィールド72に対して神経網モ
デルに固有の意味が割り当てられる。本例の場合、5つ
のパラメータ、すなわち、入力数、隠れ層1における単
位数、隠れ層2における単位数、出力数、及び、処理装
置数が割り当てられる。ブロック204において、神経
網に関する牽引のパラメータ・フィールド13に対し神
経網モデルに固有の意味が割り当てられる。本例の場合
、第1の隠れユニット1、最後の隠れユニット1、第1
の隠れユニット2、最後の隠れユニット2、及び、第1
の出力といったパラメータが割り当てられる。ブロック
205では、神経網のトレーニングに関するパラメータ
・フィールド74に対し神経網モデルに固有の意味が割
り当てられる。本例の場合、学習速度、モーメンタム、
パターン誤差、エポック誤差、及び、公差といったパラ
メータが割り当てられる。ブロック206では、神経網
アレイ・オフセット・フィールド76に対し神経網モデ
ルに固有の意味が割り当てられる。逆伝播神経網モデル
において、定義すべき11のデータ・アレイが存在する
ので、このフィールドには、ボディ部分90に位置指定
された11のアレイのそれぞれに関する第1の要素に対
するバイト・オフセットが含まれる。
【0040】ブロック210では、図8の神経網モデル
生成プログラム構築サブ・ルーチンが呼び出される。こ
こで、図8を参照すると、サブ・ルーチン210は、モ
デルに固有のルーチンを構築して、後で、神経網データ
構造生成サブ・ルーチン(図11)によって実行できる
ようにする必要がある。ブロック211では、ユーザに
神経網に固有のパラメータ情報に関する指示メッセージ
を与え、エラーのある、一致性のないパラメータ値につ
いてチェックする単純なルーチンを規定する。例えば、
ブロック211では、図20と同様のスクリーンを作成
するルーチンを規定する。とりわけ、図20のスクリー
ンは、入力ユニット数、隠れユニットL1の数、隠れユ
ニットL2の数、及び、出力数値数に関する情報につい
てユーザに指示メッセージを与える。
【0041】ブロック212では、一般的神経網データ
構造に対しデフォルトパラメータ値を初期設定し、この
神経網モデルに関するデフォルト神経網データ構造を生
成するルーチンを規定する。全ての神経網モデルは、同
じ一般的神経網データ構造を備えている。各神経網モデ
ルは、それぞれ、それ自体に固有のデフォルトデータ構
造を備えている。従って、同じ神経網モデル(逆伝播の
ような)を用いる全ての神経網適用業務プログラム(コ
イン識別、偶数/奇数識別等)が、固有のパラメータ値
を同じ神経網データ構造に入力することになる。
【0042】ブロック213では、サブ・ルーチン21
0で構築された神経網モデル生成プログラムに固有の名
前を与え、記憶装置12(図1)に書き込んで、その保
管を行なう。望ましい実施例の場合、このプログラムは
、データ構造に対するアクセス能力を備えた、所望の言
語で書くことが可能である。ブロック219から図7の
ブロック230に戻る。
【0043】ブロック230では、図9の神経網モデル
教示プログラム構築サブ・ルーチンが呼び出される。こ
こで図9を参照すると、サブ・ルーチン230は、モデ
ルに固有のルーチンが、後で、神経網教育サブ・ルーチ
ン(図13〜図15)によって実行できるように書かれ
ることを必要とする。ブロック231では、図5のフィ
ールド77において神経網アレイ・ポインタの初期設定
を行なう単純なルーチンが規定される。ブロック232
では、神経網サイズ、牽引、及び、トレーニング・パラ
メータ(フィールド72−74)を局所変数に複写する
ためのルーチンが規定される。これは、性能及びプログ
ラミングの信頼性を高めるために行なわれる。ブロック
233では、神経網を初期設定するルーチンが規定され
る。ブロック233では、神経網教育プログラムによっ
て用いられるカウンタ及び変数の初期設定が行なわれる
。神経網状況フィールド68が“初期設定”の場合、ブ
ロック233において、データ・アレイ値(接続重み)
の初期設定も行なわれ、フィールド68における状況が
“初期設定”から“トレーニング”に変更される。
【0044】ブロック234では、この神経網モデルに
関する単一の教育ステップを実施するルーチンが規定さ
れる。このルーチンによって、ボディ90のデータ・ア
レイにおけるデータ値に調整を加え、神経網が所望の機
能を学習できるようにするのに用いられる、神経網モデ
ルに対する依存性の高いメカニズムが得られる。当該技
術の熟練者であれば、その重み調整手順に関する神経網
モデルの説明(付録Iのページviii及びixに引用
した学術論文に見られるような)を理解し、彼らが選択
したコンピュータ言語を用いて、この説明を本発明のデ
ータ構造にアクセスするプログラムに変換するのは簡単
なことである。
【0045】ブロック235では、エポック処理のトレ
ーニングが完了すると実施するルーチンが規定される。 このルーチンは、神経網モデルに従って、変数をリセッ
トするような単純なクリーン・アップ手順からより複雑
なデータ・アレイ値の調整まで複雑さが多様になる可能
性がある。当該技術の熟練者であれば、エポック処理に
固有の目的に関する神経網モデルの説明を理解し、彼ら
が選択したコンピュータ表記を用いて、この説明を本発
明のデータ構造にアクセスするプログラムに変換するの
は簡単なことである。
【0046】ブロック236では、サブ・ルーチン23
0で構築された神経網モデル教育プログラムに固有の名
前を与え、記憶装置12(図1)に書き込んで保管する
。ブロック239から図7のブロック250に戻る。
【0047】ブロック250では、図10の神経網モデ
ル実行プログラム構築サブ・ルーチンが呼び出される。 ここで図10を参照すると、サブ・ルーチン250は、
モデルに固有のルーチンが、後で、神経網実行サブ・ル
ーチン(図13〜図15)によって実行できるように書
かれることを必要とする。ブロック251では、図5の
フィールド77において神経網アレイ・ポインタの初期
設定を行なう単純なルーチンが規定される。ブロック2
52では、神経網サイズ、牽引、及び、トレーニング・
パラメータ(フィールド72〜74)を局所変数に複写
するためのルーチンが規定される。ブロック253では
、神経網に入力データを通すルーチンが規定される。 ブロック254では、出力結果を神経網実行サブ・ルー
チンを戻すルーチンが規定される。ブ255では、サブ
・ルーチン250で構築された神経網モデル実行プログ
ラムに固有の名前を与え、記憶装置12(図1)に書き
込んで保管する。ブロック259から図7のブロック2
50に戻る。
【0048】望ましい実施例の場合、適用業務開発者ま
たはユーザの便宜上、5つの神経網モデルが事前定義さ
れる。この事前に定義されるモデルは、逆伝播、適応共
鳴理論、特徴自己編成マップ、TSP自己編成神経網、
及び、双方向性連想メモリである。従って、これらのモ
デルは、ユーザが神経網モデル定義サブ・ルーチンを用
いて定義する必要はない。
【0049】残りのフロー・チャートについては、簡単
に既述のコイン識別神経網の例に関連して述べることに
する。ユーザが、コインに関する属性情報を含む入力デ
ータ(銅貨か、銀貨か、人物が左を向いているか、右を
向いているか、及び、コインに彫刻されているのが、建
物、イーグル、葉、トーチのいずれであるか)に基づい
て、コインがペニーか、白銅貨か、ダイムか、あるいは
、25セント銀貨かの判定を行なう神経網の生成を望ん
でいるものと仮定する。ユーザは、図6のブロック12
0で肯定応答し、ブロック300において神経網データ
構造生成サブ・ニーチン(図11、12)を呼び出すこ
とによってこの神経網を生成する。ここで図11を参照
すると、ブロック301において、図19に示すように
、神経網の名前及びテキスト記述情報に関する指示メッ
セージがユーザに与えられる。ユーザは、神経網の名前
として“COINNET”、テキスト記述として“Te
stBKP network for Coin ID
P roblem (コイン識別問題に関するBKP神
経網をテストする)”を入力する。ブロック302では
、ユーザに対し神経網モデルの名前について指示メッセ
ージが与えられる。図19に示すように、ユーザは、逆
伝播神経網モデルに対する略語である“★BKP”を入
力する。ブロック303では、図7のブロック260に
おいてモデル定義ファイルにモデル“★BKP”の定義
が行なわれたか否かのチェックを行ない、確認する。定
義が行なわれていなければ、ブロック304において、
エラー・メッセージが通知され、ユーザに対し、ブロッ
ク301で神経網モデルの名前を再入力するように要求
される。本例の場合、モデル定義ファイルには、“★B
KP”が含まれており、ブロック330において、図1
2のこのモデルに関するモデル生成プログラム実行サブ
・ルーチンが呼び出される。既述のように、モデル生成
プログラムは、図8のモデル生成プログラム構築サブ・
ルーチンで作成された。このプログラムの名前は、この
モデルに関する教育及び実行プログラムの名前と共に、
全て、モデル定義ファイルに含まれている。
【0050】ここで、図12を参照すると、ブロック3
31において、図8のブロック212で規定されたルー
チンを実行することによって、この神経網に関するデフ
ォルト神経網データ構造が生成される。ブロック332
では、図20に示されるように、ユーザに対し神経網に
固有のパラメータに関する指示メッセージが与えられる
。本例の場合、ユーザは、6つの入力ユニット(コイン
の色、コインの半面像、建物、イーグル、葉、及び、ト
ーチのそれぞれに1つ)、2つの隠れユニット(本例の
神経網にとって最適)、4つの出力ユニット(25セン
ト銀貨、ダイム、白銅貨、及び、ペニーのそれぞれに1
つ)を指定する。ブロック333においてチェックを行
ない、ユーザによって与えられたパラメータが許容でき
るか否かが確められる。これらのパラメータについてユ
ーザに指示メッセージを与える図8のブロック211で
規定されたルーチンによって、ユーザの入力に対し1−
1000の出力ユニットといった制限が加えられる点に
留意されたい。ユーザが、これらの範囲外の値を入力す
ると、ブロック333において否定応答が行なわれ、ブ
ロック334ではエラー・メッセージが通知され、ブロ
ック332で、ユーザに対しデータの再入力が要求され
る。さらに、ユーザが一致しないパラメータ情報を入力
すると、やはり、エラー・メッセージが通知される。 本例の場合、ユーザが与えるパラメータは、全て、許容
可能であり、従って、ブロック335では、ユーザによ
って与えられたパラメータの全てが、ブロック331で
生成されたデフォルトデータ構造に記入される。ブロッ
ク336では、現在データ構造に常駐しているデータに
基づき、神経網牽引パラメータ・フィールド73及び神
経網アレイ・オフセット・フィールド76に記入するた
めの計算が行なわれる。ブロック337では、フィール
ド71におけるブール・パラメータ(本例の場合、両方
とも“N”に対するもの)と、フィールド74における
トレーニング・パラメータ(本例の場合、図23に示す
値に対するもの)の初期設定が行なわれる。ブロック3
38では、ボディ部分90に位置指定されるデータ・ア
レイ・フィールドの割当て、及び、初期設定が行なわれ
る。逆伝播神経網モデルの場合、活動、重み、しきい値
、重みデルタ、しきい値デルタ、教育、エラー、デルタ
、神経網入力、重み導関数、及び、しきい値導関数とい
ったアレイが、割り当てられる。これらの値は、全て、
ブロック338において初期設定される(神経網モデル
による決定に従って)。ブロック338が実行されると
、本例の神経網データ構造には、神経網に対し、極性に
ついて明らかにする入力データからコイン(または、6
つの入力と4つの出力を備えた他の神経網)を識別する
方法を教育するのに必要な全ての情報が含まれることに
なる。サブ・ルーチンは、ブロック339から図11の
ブロック305に戻る。ブロック305から図6のブロ
ック130に戻る。
【0051】神経網データ構造が生成されると、別のコ
ンピュータ・システムに移送して、教育と実行の両方ま
たは一方を行なうことができるという点に留意のこと。 他のコンピュータ・システムは、該神経網データ構造を
生成したコンピュータ・システムとは全く異なるアーキ
テクチャを備えることができ、全く異なるオペレーティ
ング・システムを実行することができる。このフレキシ
ビリティは、データ構造に、異なるコンピュータ・シス
テム間で普遍的に用いることが可能なデータが含まれて
いるために、可能になる。
【0052】ユーザは、彼が新しく生成した神経網にト
レーニングを施して、コインの識別が行なえるようにす
ることを望んでいるので、図6のブロック130で肯定
応答を行ない、ブロック400において神経網教育サブ
・ルーチン(図13〜図15)を呼び出す。ここで第1
3図を参照すると、ブロック401において、ユーザに
対し、図22に示すように神経網及びライブラリの名前
に関する指示メッセージが与えられる。ユーザは、神経
網の名前として“COINNET”、ライブラリ名前と
して“★CURLIB”を入力する。図22には、所望
の場合、ユーザが彼の特定の神経網の使用性を向上させ
るために書くことができる、カスタムのインターフェイ
ス・プログラムの名前を入力する機会も与えられる。さ
らに、ユーザに対し、トレーニング結果の記録または表
示を望むか否かについて、また、(カスタムインターフ
ェイス・プログラムが存在する場合)トレーニング・デ
ータが、データ・セットから自動的に取り出されるのと
、ユーザが入力キーを押すと、1度に1ステップずつ取
り出されるのと、どちらを望むかについて質問が行なわ
れる。ブロック402では、ブロック401で指定のデ
ータ構造が存在するか否かを確める。存在しなければ、
エラーが通知され、ユーザは、ブロック401に戻され
る。存在する場合、ブロック403では、トレーニング
・データが位置指定されているデータ・セットの名前に
関する指示メッセージがユーザに与えられる。図22に
示すように、ユーザは、トレーニング・データが位置指
定されているデータ・セットとして“QANWCOIN
”、データ・セット・メンバとして“COINDEMO
”を入力する。
【0053】図18には、本例で用いられているトレー
ニング・データが示されている。該データは、使用性を
向上させ、SQLまたはd Base IIIのような
定義されたデータ・ベース・フォーマットを支援するた
め、記号(読取り可能)フォーマットで記憶されている
点に留意されたい。ブロック404では、データ・セッ
トの存在が確められ、その結果、ブロック405では、
もしあれば、カスタムインターフェイス・プログラムの
名前に関する指示メッセージがユーザに与えられる。デ
ータ・セットに記号データが記憶されている場合、ユー
ザによって指定されたカスタムのインターフェイス・プ
ログラムは、記号データ(人間が理解する)を数値デー
タ(神経網が理解する)に変換するのに必要である。本
例の場合、図21において、カスタムインターフェイス
・プログラムが指定されているが(QNWGCOIN)
、このプログラムは、各入力属性を2進ストリングの“
0”または“1”に変換するだけで、図18に示す記号
トレーニング・データを図18に示す数値トレーニング
・データに変換した。4桁の出力2進ストリングは、本
例において可能性のある4つの出力状態を表わしている
。カスタムインターフェイスを指定したが、存在しない
という場合、ブロック406で肯定応答が行なわれ、制
御の流れは、ブロック405に戻る。別様の場合、ブロ
ック420において、図14のこのモデルに関するモデ
ル教育プログラム実行サブ・ルーチンが呼び出される。 モデル教育プログラムは、既述のように、図9のモデル
教育プログラム構築サブ・ルーチンで作成されたもので
ある。
【0054】ここで図14を参照すると、ブロック43
3においては、図9のブロック231、232、及び、
233で構築された初期設定ルーチンが実行される。ブ
ロック421でチェックを行ない、カスタムインターフ
ェイス・プログラムの指定が行なわれたか否かが確めら
れる。行なわれている場合、本例がそうであるが、ブロ
ック422において、カスタムインターフェイス・プロ
グラムからデータを得る(図18に示す数値データ)。 別様の場合、トレーニング・データは、数値フォーマッ
トでデータ・セットに記憶され、ブロック423におい
て、そのデータ・セットから直接データが取り出される
。ブロック424では、図9のブロック234で規定さ
れた神経網モデル従属ルーチンを実行することによって
、教育ステップの1つが実行される。本例の場合、ボデ
ィ90におけるデータ・アレイのデータ値は、所望の神
経網の出力と実際の神経網の出力との誤差が最小限にお
さまるように調整される。ブロック425において、再
び、カスタムインターフェイス・プログラムについてチ
ェックが行なわれる。それが存在する場合、ブロック4
26においてチェックを行ない、ユーザがデータ構造に
おけるデータ値の表示を望むか否かが確められる。望む
場合には、ブロック427において、カスタムインター
フェイス・プログラムによって発生するカスタムスクリ
ーンが表示される。図27〜図30には、カスタムスク
リーンが例示されている。カスタムインターフェイス・
プログラムは存在しないが、ユーザがデータ表示を望む
場合には、ブロック428で、デフォルトスクリーンが
表示される。図23に、デフォルトスクリーンが例示さ
れている。
【0055】もう1度図14を参照すると、ブロック4
29においてチェックを行ない、ユーザがデータの登録
を望むか否かが確められる。望む場合、ブロック430
で、データのカスタムまたはデフォルト登録が実施され
る。本件のコイン識別例について登録されるデータの一
例が、付録IIに示されている。どちらにせよ、ブロッ
ク434でチェックを行ない、1つのエポックが完了し
たか否かが確められる。エポックは、データ・セットに
おける全てのトレーニング・データについての処理が1
回行なわれると、完了したことになる。完了していなけ
れば、制御は、ループをたどってブロック421に戻り
、次のトレーニングデータが取り出される。1つのエポ
ックが完了している場合、ブロック435において、図
9のブロック235で構築されたエポック処理ルーチン
の目的が実施される。本例の場合、エポック処理ルーチ
ンの目的は、全トレーニング・データに関して、どの出
力ユニットも、実際の出力と所望の出力との差が指定の
公差未満か否かを確認することにある(フィールド74
におけるトレーニング・パラメータの1つ)。公差未満
であれば、フィールド68における神経網の状況が“ロ
ック”にセットされる。神経網の状況が“ロック”され
ると、データ・アレイの値は、変更できなくなる。
【0056】次に、ブロック431でチェックを行ない
、ユーザの指定した反復数が完了したか否かが確められ
る。完了するまで、ブロック431で否定応答が行なわ
れ、流れがブロック421へ戻って、もう1回トレーニ
ング・データを反復することになる。トレーニング期間
が終了すると、ブロック431で肯定応答が行なわれ、
サブ・ルーチンが、ブロック407から図13のブロッ
ク407へ戻る。また、ブロック407から図6のブロ
ック140へ戻る。
【0057】ユーザは、彼が新しくトレーニングを施し
た神経網を実行し、コインの識別を行なうことを望んで
いるので、図6のブロック140において肯定応答を行
ない、ブロック500で神経網実行サブ・ルーチンを呼
び出す(図16、17)。代替案として、適用業務プロ
グラムが神経網実行サブ・ルーチンを直接呼び出し、そ
れによって、図6をバイパスすることも可能である。
【0058】ここで、図16を参照すると、ブロンク5
01において、図10のブロック251及び252で構
築された初期設定ルーチンが実行される。ブロック50
2で、神経網の名前が決定される。ブロック530では
、図17のこのモデルに関するモデル実行プログラム実
行サブ・ルーチンが呼び出される。このモデル実行プロ
グラムは、既述のように、図10のモデル実行プログラ
ム構築サブ・ルーチンで作成されたものである。
【0059】ここで図17を参照すると、ブロック53
1において、神経網で入力データを実行し、ブロック5
33がブロック510(図16)に戻る時、それを神経
網実行サブ・ルーチンに送り返す。ブロック531では
、図10のブロック253及び254で構築されたルー
チンを実行する。
【0060】サブ・ルーチン500は、ブロック519
から図6のブロック190へ戻り、そこで、プログラム
を終了するか、あるいは、その代りに、それを呼び出し
た適用業務プログラムに戻る。
【0061】図27〜図30には、本例のコイン識別神
経網が、いかにしてペニー、白銅貨、ダイム、及び、2
5セント銀貨の正確な識別を行なったかが示されている
。図32には、この神経網で、BRONZE  LEF
T  YNNN(数値では011000で表わされる)
といった入力データを実行した場合、どうなるかが示さ
れている。該神経網に求められているのは、左半面像と
建物はあるが、イーグル、葉、あるいは、トーチは彫刻
されていない銅貨の識別である。神経網は、このコイン
が白銅貨であると推量するが、白銅貨の推量が当たって
いる確率は0.4865323にしかすぎない。神経網
が最も確信できるのは、当たっている確率が、1.00
000に近い場合である。この例の場合、このコインが
白銅貨であることにあまり確信がもてないのは、明らか
である。実際には、こうした属性を備えたようなコイン
はなく、従って、該神経網が、かなりの概念を示したの
は正しかった。
【0062】
【発明の効果】本発明は、適用業務プログラムが、神経
網モデルを用いて計算を行なうための簡単な方法を提供
するものである。
【図面の簡単な説明】
【図1】本発明のコンピュータ・システムのブロック図
である。
【図2】大規模な並列ハードウェアで実現される神経網
を直列フォン・ノイマン・ベース・コンピュータ・シス
テムでシミュレートできるようにする方法を示す図であ
る。
【図3】本発明の計算環境の概念フレーム・ワークを示
す図である。
【図4】本発明の計算環境の概念フレーム・ワークを示
す図である。
【図5】本発明の神経網データ構造を示す図である。
【図6】本発明のフロー・チャートである。
【図7】本発明のフロー・チャートである。
【図8】本発明のフロー・チャートである。
【図9】本発明のフロー・チャートである。
【図10】本発明のフロー・チャートである。
【図11】本発明のフロー・チャートである。
【図12】本発明のフロー・チャートである。
【図13】本発明のフロー・チャートである。
【図14】本発明のフロー・チャートである。
【図15】本発明のフロー・チャートである。
【図16】本発明のフロー・チャートである。
【図17】本発明のフロー・チャートである。
【図18】本発明に用いられる記号トレーニング・デー
タの例を示す図である。
【図19】ユーザに対して表示される、本発明を利用し
た例示の神経網の生成、トレーニング、及び、実行に関
するスクリーンの1つを示す図である。
【図20】ユーザに対して表示される、本発明を利用し
た例示の神経網の生成、トレーニング、及び、実行に関
するスクリーンの1つを示す図である。
【図21】ユーザに対して表示される、本発明を利用し
た例示の神経網の生成、トレーニング、及び、実行に関
するスクリーンの1つを示す図である。
【図22】ユーザに対して表示される、本発明を利用し
た例示の神経網の生成、トレーニング、及び、実行に関
するスクリーンの1つを示す図である。
【図23】ユーザに対して表示される、本発明を利用し
た例示の神経網の生成、トレーニング、及び、実行に関
するスクリーンの1つを示す図である。
【図24】ユーザに対して表示される、本発明を利用し
た例示の神経網の生成、トレーニング、及び、実行に関
するスクリーンの1つを示す図である。
【図25】ユーザに対して表示される、本発明を利用し
た例示の神経網の生成、トレーニング、及び、実行に関
するスクリーンの1つを示す図である。
【図26】ユーザに対して表示される、本発明を利用し
た例示の神経網の生成、トレーニング、及び、実行に関
するスクリーンの1つを示す図である。
【図27】ユーザに対して表示される、本発明を利用し
た例示の神経網の生成、トレーニング、及び、実行に関
するスクリーンの1つを示す図である。
【図28】ユーザに対して表示される、本発明を利用し
た例示の神経網の生成、トレーニング、及び、実行に関
するスクリーンの1つを示す図である。
【図29】ユーザに対して表示される、本発明を利用し
た例示の神経網の生成、トレーニング、及び、実行に関
するスクリーンの1つを示す図である。
【図30】ユーザに対して表示される、本発明を利用し
た例示の神経網の生成、トレーニング、及び、実行に関
するスクリーンの1つを示す図である。
【図31】ユーザに対して表示される、本発明を利用し
た例示の神経網の生成、トレーニング、及び、実行に関
するスクリーンの1つを示す図である。
【符号の説明】
10.コンピュータ・システム 11.中央演算処理装置 12.記憶装置 13.コ・プロセッサ 14.ユーザ・インターフェイス 21.神経網処理装置 22.適応重みメカニズム 23.学習メカニズム。

Claims (21)

    【特許請求の範囲】
  1. 【請求項1】(a)神経網モデル識別フィールドと、(
    b)神経網が、初期設定モードにあるか、トレーニング
    ・モードにあるか、ロック・モードにあるかを表示する
    状況フィールドと、 (c)前記神経網モデルに固有の複数のパラメータを記
    憶するパラメータ・フィールドと、 (d)前記神経網モデルに固有のデータ・アレイを記憶
    するアレイ・フィールドとから構成される、神経網デー
    タ構造を操作することにより、適用業務プログラムが神
    経網モデルを実行できるようにし、それによって、神経
    網となるようにするデータ処理方法。
  2. 【請求項2】(a)前記パラメータ・フィールドが、さ
    らに、前記神経網モデルに固有の複数のトレーニング・
    パラメータを含むトレーニング・パラメータ・フィール
    ドを備えていることを特徴とする、請求項1に記載の方
    法。
  3. 【請求項3】(a)前記パラメータ・フィールドが、さ
    らに、前記神経網モデルに固有の複数のブール・パラメ
    ータを含むブール・パラメータ・フィールドを備えてい
    ることを特徴とする、請求項2に記載の方法。
  4. 【請求項4】(a)前記パラメータ・フィールドが、さ
    らに前記神経網モデルに固有の複数の神経網サイズ・パ
    ラメータを含む神経網サイズ・パラメータ・フィールド
    を備えていることを特徴とする、請求項3に記載の方法
  5. 【請求項5】(a)前記アレイ・フィールドに、前記神
    経網モデルに固有の複数のデータ・アレイが含まれるこ
    とを特徴とする、請求項4に記載の方法。
  6. 【請求項6】(a)前記神経網モデルが、逆伝播神経網
    モデルであることを特徴とする、請求項5に記載の方法
  7. 【請求項7】前記複数のブール・パラメータが、(a)
    エポック更新パラメータと、 (b)ランダム入力パラメータと、をさらに備えている
    ことを特徴とする、請求項6に記載の方法。
  8. 【請求項8】前記複数のトレーニング・パラメータが、
    (a)学習速度パラメータと、 (b)モーメンタム・パラメータと、 (c)パターン誤差パラメータと、 (d)エポック誤差パラメータと、 (e)公差パラメータと、をさらに備えていることを特
    徴とする、請求項7に記載の方法。
  9. 【請求項9】前記複数の神経網サイズ・パラメータが、
    (a)入力数パラメータと、 (b)隠れユニット数パラメータと、 (c)出力数パラメータと、をさらに備えていることを
    特徴とする、請求項8に記載の方法。
  10. 【請求項10】適用業務プログラムが、複数の定義され
    た神経網モデルの1つを実行できるようにし、それによ
    って、データに関する入力と結果に関する出力を備えた
    神経網になるようにするデータ処理方法において、(a
    )前記複数の定義された神経網モデルのうち選択された
    1つに固有の複数のパラメータと、複数のデータ・アレ
    イを備えた神経網データ構造を生成するステップと、 (b)前記神経網の前記入力において、トレーニング・
    データを提示することにより、前記神経網に教育を施し
    、前記出力における前記結果が、正しい結果の公差内に
    なるまで、前記複数のデータ・アレイの値を繰返し調整
    するステップと、 (c)前記入力において前記実際のデータを提示するこ
    とによって前記神経網を実行し、前記神経網の前記出力
    からその結果を検索するステップと、から構成される方
    法。
  11. 【請求項11】適用業務プログラムが、神経網モデルを
    実行できるようにし、それによって、データに関する入
    力と結果に関する出力を備えた神経網になるようにする
    データ処理方法において、 (a)対応するデフォルト神経網データ構造を備えた、
    前記神経網に関する複数の定義された神経網モデルから
    1つの神経網モデルを選択するステップと、複数のデー
    タ・アレイに関する初期値を前記デフォルト神経網デー
    タ構造に入力することによって、前記選択ステップにお
    いて選択された前記神経網モデルに関して前記対応する
    デフォルト神経網データ構造の初期設定を行なうステッ
    プと、前記神経網に固有の複数のパラメータに関して指
    示メッセージを与えるステップと、前記複数のパラメー
    タを前記デフォルト神経網データ構造に入力するステッ
    プと、から成る神経網データ構造を生成するステップと
    、 (b)前記神経網の前記入力においてトレーニング・デ
    ータを提示するステップと、前記出力における前記結果
    が正確な結果の公差内になるまで、前記複数のデータ・
    アレイの値を繰返し調整するステップと、前記調整ステ
    ップに応答して、前記複数のデータ・アレイの値をロッ
    クするステップと、から成る前記神経網に教育を施すス
    テップと、 (c)前記神経網の前記入力において実際のデータを提
    示するステップと、前記神経網の出力から結果を検索す
    るステップと、から成る前記神経網を実行するステップ
    と、から構成される方法。
  12. 【請求項12】(a)対応するデフォルト神経網データ
    構造を備えた、神経網に関する複数の定義された神経網
    モデルから1つの神経網モデルを選択するステップと、
    (b)複数のデータ・アレイに関する初期値を前記デフ
    ォルト神経網データ構造に入力することによって、前記
    選択ステップにおいて選択された前記神経網モデルに関
    して、前記対応するデフォルト神経網データ構造の初期
    設定を行なうステップと、 (c)前記神経網に固有の複数のパラメータに関して指
    示メッセージを与えるステップと、 (d)前記複数のパラメータを前記デフォルト神経網デ
    ータ構造に入力するステップと、から構成される、神経
    網に関する神経網データ構造を生成する方法。
  13. 【請求項13】入力と、結果に関する出力と、複数のデ
    ータ・アレイを備えた神経網データ構造を有する神経網
    の教育を施す方法において、 (a)前記神経網の前記入力においてトレーニング・デ
    ータを提示するステップと、 (b)前記出力における前記結果が正確な結果の公差内
    になるまで、前記複数のデータ・アレイの値を繰返し調
    整するステップと、 (c)前記調整ステップに応答して、前記複数のデータ
    ・アレイの値をロックするステップと、から構成される
    方法。
  14. 【請求項14】適用業務プログラムが、複数の定義され
    た神経網モデルの1つを実行できるようにし、それによ
    って、データに関する入力と結果に関する出力を備えた
    神経網になるようにするデータ処理システムにおいて、
    (a)前記複数の定義された神経網モデルのうち選択さ
    れた1つに固有の複数のパラメータと、複数のデータ・
    アレイを備えた神経網データ構造を生成する手段と、(
    b)前記神経網の前記入力においてトレーニング・デー
    タを提示することにより、前記神経網に教育を施し、前
    記出力における前記結果が、正しい結果の公差内になる
    まで、前記複数のデータ・アレイの値を繰返し調整する
    手段と、 (c)前記入力において実際のデータを提示することに
    よって前記神経網を実行し、前記神経網の前記出力から
    その結果を検索する手段と、から構成されるシステム。
  15. 【請求項15】(a)対応するデフォルト神経網データ
    構造を備えた、前記神経網に関する複数の定義された神
    経網モデルから1つの神経網モデルを選択する手段と、
    (b)複数のデータ・アレイに関する初期値を前記デフ
    ォルト神経網データ構造に入力することによって、前記
    選択手段によって選択された前記神経網モデルに関して
    前記対応するデフォルト神経網データ構造の初期設定を
    行なう手段と、 (c)前記神経網に固有の複数のパラメータに関し指示
    メッセージを与える手段と、 (d)前記複数のパラメータを前記デフォルト神経網デ
    ータ構造に入力する手段と、から構成される、神経網に
    関する神経網データ構造を生成するためのシステム。
  16. 【請求項16】入力と、結果に関する出力と、複数のデ
    ータ・アレイを備えた神経網データ構造を有する神経網
    に教育を施すためのシステムにおいて、(a)前記神経
    網の前記入力においてトレーニング・データを提示する
    手段と、 (b)前記出力における前記結果が正確な結果の公差内
    になるまで、前記複数のデータ・アレイの値を繰返し調
    整する手段と、 (c)前記調整手段に応答して、前記複数のデータ・ア
    レイの値をロックする手段と、から構成される、システ
    ム。
  17. 【請求項17】第1の記憶装置を備え、第1の操作シス
    テムを実行する第1のコンピュータ・システムから、第
    2の記憶装置を備え、第2の操作システムを実行する第
    2のコンピュータ・システムへ、入力と、結果に関する
    出力を備えた神経網を移送する方法において、(a)前
    記第1のコンピュータ・システムが、複数の定義された
    神経網モデルのうち選択された1つに固有の複数のパラ
    メータと、複数のデータ・アレイを備えた神経網データ
    構造を生成するステップと、 (b)前記第1のコンピュータ・システムが、前記神経
    網の前記入力においてトレーニング・データを提示する
    ことにより、前記神経網に教育を施し、前記出力におけ
    る前記結果が、正しい結果の公差内になるまで、前記複
    数のデータ・アレイの値を繰返し調整するステップと、
    (c)前記第1のコンピュータ・システムにおける前記
    第1の記憶装置から前記第2のコンピュータ・システム
    における前記第2の記憶装置へ前記神経網データ・構造
    を複写するステップと、 (d)前記第2のコンピュータ・システムが、前記入力
    において実際のデータを提示することによって前記神経
    網を実行し、前記神経網の前記出力からその結果を検索
    するステップと、から構成される方法。
  18. 【請求項18】入力と、結果に関する出力を備えた神経
    網によって用いられる神経網モデルを定義する方法にお
    いて、 (a)複数の神経網モデルに共通した一般的神経網デー
    タ構造にアクセスするステップと、 (b)前記定義対象の神経網モデルに固有のデフォルト
    神経網データ構造を構築するステップとから成り、前記
    構築ステップが、さらに (c)前記定義対象の神経網モデルに固有の複数のパラ
    メータを前記一般的神経網データ構造に入力するステッ
    プを含むことを、特徴とする方法。
  19. 【請求項19】前記構築ステップが、さらに、(a)前
    記定義対象の神経網モデルに固有の複数のデータ・アレ
    イを前記一般的神経網データ構造に入力するステップを
    含むことを特徴とする、請求項18に記載の方法。
  20. 【請求項20】(a)前記出力における前記結果が正確
    な結果の公差内になるまで、前記複数のデータ・アレイ
    の値を繰返し調整するためのルーチンを規定するステッ
    プが、さらに含まれていることを特徴とする、請求項1
    9に記載の方法。
  21. 【請求項21】(a)前記調整ステップに応答して、前
    記複数のデータ・アレイの値をロックするステップが、
    さらに含まれていることを特徴とする、請求項20に記
    載の方法。
JP3040551A 1990-02-20 1991-02-13 神経網を構築する方法及び神経網モデルを定義する方法 Expired - Fee Related JP2659867B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US07/482,450 US5142665A (en) 1990-02-20 1990-02-20 Neural network shell for application programs
US482450 1990-02-20

Publications (2)

Publication Number Publication Date
JPH04216163A true JPH04216163A (ja) 1992-08-06
JP2659867B2 JP2659867B2 (ja) 1997-09-30

Family

ID=23916133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3040551A Expired - Fee Related JP2659867B2 (ja) 1990-02-20 1991-02-13 神経網を構築する方法及び神経網モデルを定義する方法

Country Status (3)

Country Link
US (1) US5142665A (ja)
EP (1) EP0443976A3 (ja)
JP (1) JP2659867B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003029973A (ja) * 1996-05-31 2003-01-31 Toshiba Corp システム構築装置
CN105088595A (zh) * 2015-09-11 2015-11-25 河海大学常州校区 基于神经网络模型的印染在线配色设备及方法
CN109976809A (zh) * 2017-12-28 2019-07-05 北京中科寒武纪科技有限公司 调度方法及相关装置

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3260357B2 (ja) 1990-01-24 2002-02-25 株式会社日立製作所 情報処理装置
US5485546A (en) * 1990-04-27 1996-01-16 Neurosciences Research Foundation, Inc. Discrimination and testing methods and apparatus employing adaptively changing network behavior based on spatial and heterocellular modification rules
US5282261A (en) * 1990-08-03 1994-01-25 E. I. Du Pont De Nemours And Co., Inc. Neural network process measurement and control
US5241620A (en) * 1991-01-03 1993-08-31 Promised Land Technologies, Inc. Embedding neural networks into spreadsheet applications
JPH04262453A (ja) * 1991-02-15 1992-09-17 Hitachi Ltd ニュ−ロ学習制御方法及び装置
US5235673A (en) * 1991-04-18 1993-08-10 International Business Machines Corporation Enhanced neural network shell for application programs
CA2060554A1 (en) * 1991-04-18 1992-10-19 Shawn Michael Austvold Apparatus and method for facilitating use of a neural network
DE69223447T2 (de) * 1991-05-24 1998-06-04 Koninkl Philips Electronics Nv Lernverfahren für neuronales Netzwerk und Klassifizieranlage zum Anwenden dieses Verfahrens
EP0551524A4 (en) * 1991-08-05 1994-08-10 Kawasaki Steel Co Signal processor and learning method thereof
US5463718A (en) * 1991-11-08 1995-10-31 Hitachi, Ltd. Learning method and apparatus
US5361326A (en) * 1991-12-31 1994-11-01 International Business Machines Corporation Enhanced interface for a neural network engine
KR0131754B1 (en) * 1992-03-19 1998-04-24 Fujitsu Ltd Neuro processing service system
US5442730A (en) * 1993-10-08 1995-08-15 International Business Machines Corporation Adaptive job scheduling using neural network priority functions
GB9321572D0 (en) * 1993-10-19 1993-12-08 Diagnostic Instr Ltd Diagnostic monitor system
US5524238A (en) * 1994-03-23 1996-06-04 Breakout I/O Corporation User specific intelligent interface which intercepts and either replaces or passes commands to a data identity and the field accessed
US5583964A (en) * 1994-05-02 1996-12-10 Motorola, Inc. Computer utilizing neural network and method of using same
US6463438B1 (en) * 1994-06-03 2002-10-08 Urocor, Inc. Neural network for cell image analysis for identification of abnormal cells
US5485908A (en) * 1994-07-12 1996-01-23 Coin Acceptors, Inc. Pattern recognition using artificial neural network for coin validation
US6400683B1 (en) 1998-04-30 2002-06-04 Cisco Technology, Inc. Adaptive clock recovery in asynchronous transfer mode networks
US6152246A (en) * 1998-12-02 2000-11-28 Noble Drilling Services, Inc. Method of and system for monitoring drilling parameters
DE69826298T2 (de) * 1998-12-29 2005-11-17 International Business Machines Corp. Verfahren und Vorrichtung zur Klassifikation von Netzwerkeinheiten in virtuellen LANs
DE10105516A1 (de) * 2001-02-07 2002-08-08 Hannes Max Hapke Verfahren zur Berechnung neuronaler Netze
US6848103B2 (en) * 2001-02-16 2005-01-25 Telefonaktiebolaget Lm Ericsson Method and apparatus for processing data in a multi-processor environment
EP1504412B1 (en) * 2002-04-19 2018-04-11 CA, Inc. Processing mixed numeric and/or non-numeric data
US7777743B2 (en) * 2002-04-19 2010-08-17 Computer Associates Think, Inc. Viewing multi-dimensional data through hierarchical visualization
US8648867B2 (en) * 2006-09-25 2014-02-11 Neurala Llc Graphic processor based accelerator system and method
CN105279552B (zh) * 2014-06-18 2018-06-22 清华大学 一种基于字的神经网络的训练方法和装置
CN104598969B (zh) * 2014-11-13 2018-02-23 中国南方电网有限责任公司超高压输电公司检修试验中心 一种基于神经网络的高压电器运行质量评估方法及系统
CN104463324A (zh) * 2014-11-21 2015-03-25 长沙马沙电子科技有限公司 一种基于大规模高性能集群的卷积神经网络并行处理方法
CN106250661B (zh) * 2016-09-06 2019-05-21 京微齐力(北京)科技有限公司 一种实现存储器扩展的逻辑电路设计方法
CN106779052A (zh) * 2016-11-30 2017-05-31 国网江苏省电力公司南京供电公司 一种基于bp神经网络的配电电缆绝缘层实时温度计算方法
CN109919308B (zh) * 2017-12-13 2022-11-11 腾讯科技(深圳)有限公司 一种神经网络模型部署方法、预测方法及相关设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NORTH-HOLLAND MICROCESSING AND MICROPROGRAMMING=1989 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003029973A (ja) * 1996-05-31 2003-01-31 Toshiba Corp システム構築装置
CN105088595A (zh) * 2015-09-11 2015-11-25 河海大学常州校区 基于神经网络模型的印染在线配色设备及方法
CN109976809A (zh) * 2017-12-28 2019-07-05 北京中科寒武纪科技有限公司 调度方法及相关装置

Also Published As

Publication number Publication date
EP0443976A2 (en) 1991-08-28
JP2659867B2 (ja) 1997-09-30
US5142665A (en) 1992-08-25
EP0443976A3 (en) 1993-05-26

Similar Documents

Publication Publication Date Title
JP2659867B2 (ja) 神経網を構築する方法及び神経網モデルを定義する方法
US5613043A (en) Neural network shell for application programs
EP0509949B1 (en) Enhanced neural network shell for application programs
Zell et al. SNNS (stuttgart neural network simulator)
Harel et al. Algorithmics: The spirit of computing
EP0581828B1 (en) Improvements in neural networks
US20050005266A1 (en) Method of and apparatus for realizing synthetic knowledge processes in devices for useful applications
Lim et al. Implementing fuzzy rule-based systems on silicon chips
Miller et al. Python programming in context
Fanty Learning in structured connectionist networks
Anderson et al. Java Illuminated
US5546505A (en) Program product for facilitating use of a neural network
Hrendus et al. Developing an Intelligent Online Learning System for Foreign Language Vocabulary Training Based on Gamification.
WO2020046159A1 (ru) Система и способ для хранения и обработки данных
van Camp A users guide for the Xerion neural network simulator version 3.1
Mok A Feasible Schema Design Strategy for Amazon DynamoDB: A Nested Normal Form Approach
US20050075994A1 (en) E-brain, data structure thereof and knowledge processing method therewith
McCune The PSI Program Model Builder-synthesis of very high-level programs
Sward Extracting functionally equivalent object-oriented designs from legacy imperative code
Watson Programming in SCHEME: Learn SHEME Through Artificial Intelligence Programs
Arroyo et al. A Multi-agent Model for Cell Population
Erbas A General-Purpose Machine Reasoning Engine
Demidova et al. Using Docker to deploy computing software.
Mengel Using neural networks to predict student behavior in intelligent tutoring systems
Huang A machine learning approach to automated construction of knowledge bases for expert systems for remote sensing image analysis with GIS data

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees