JP2809791B2 - モジュール割当方法 - Google Patents

モジュール割当方法

Info

Publication number
JP2809791B2
JP2809791B2 JP4449190A JP4449190A JP2809791B2 JP 2809791 B2 JP2809791 B2 JP 2809791B2 JP 4449190 A JP4449190 A JP 4449190A JP 4449190 A JP4449190 A JP 4449190A JP 2809791 B2 JP2809791 B2 JP 2809791B2
Authority
JP
Japan
Prior art keywords
module
neural network
modules
divided
groups
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP4449190A
Other languages
English (en)
Other versions
JPH03248259A (ja
Inventor
滋 小柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP4449190A priority Critical patent/JP2809791B2/ja
Priority to US07/656,682 priority patent/US5148045A/en
Publication of JPH03248259A publication Critical patent/JPH03248259A/ja
Application granted granted Critical
Publication of JP2809791B2 publication Critical patent/JP2809791B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は、相互結合型のニューラルネットワークを用
いて、複数のモジュールの複数のセルへの最適な割当て
を求めるためのモジュール割当方法に関する。
(従来の技術) 組み合わせ最適化問題の1つに、m個のモジュールを
n個のセルに最適に割当てると云う問題がある。このよ
うな組み合わせ最適化問題の解を求めることは、例えば
LSI設計においてモジュール配置を決定する為の処理と
して非常に重要である。
然し乍ら、上述した組み合わせ最適化問題におけるモ
ジュールとセルとの組み合わせの数はnm個にも及ぶ。こ
れ故、これらの組み合わせの中から最適な組み合わせを
求めることは、実用規模においては甚だ困難である。こ
の為、実際には適当なヒューリスティクスを用いて、そ
の近似解を求めているのが実状である。
ところで最近、ニューラルネットワークを用いて上述
した組み合わせ最適化問題を解くことが種々試みられて
いる。その代表的な手法の1つにホップフィールド[Ho
pfield]が提唱した手法がある。この手法は、例えば下
記の文献に詳しく紹介されている。
『Hopfield and Tank;“Biological Cybernetics,52"
pp141〜152,1985』 このホップフィールドが提唱した手法は、例えばn個
の都市を回る巡回セールスマン問題を、n2個のニューロ
ン素子を備えたニューラルネットワークを用いて次のよ
うに解決するものである。
即ち、セールスマンが都市xをi回目に訪問するか否
かを表す各ニューロン素子の出力をVxiとし、[Vxi
1]のときにはその都市xに訪問し、[Vxi=0]のと
きには訪問しないことを示すようにする。この場合、n2
個のニューロン素子を用いて構成されるニューラルネッ
トワークの全体的なエネルギーEは、次のようになる。
但し、上式においてA,B,C,Dはそれぞれ定数であり、d
xyは都市xと都市yとの間の距離を表している。そして
右辺第1項は同一都市を2度に亘って繰り返し訪問しな
い為の制約、また右辺第2項は同一の順序で異なる都市
を割当てない為の制約である。また右辺第3項はn個の
都市の全てを訪問する為の制約、そして右辺第4項は訪
問経路の総距離を表している。
このようにして複数のニューロン素子からの出力値の
2次形式でニューラルネットワークのエネルギー関数を
定義すると、各ニューロン素子間の重み(結合係数)や
外部入力を計算することが可能となる。そしてこれらの
値を設定し、ニューラルネットワークが収束したときに
は前記エネルギーEが極小値を取るので、これを前記最
適化問題の解として求めることが可能となる。
ところがこのようにしてニューラルネットワークを用
いて組み合わせ最適化問題を解くにしても、実際的には
次のような問題がある。即ち、このような組み合わせ最
適化問題を解くには、問題規模nの2乗(n2)のニュー
ロン素子を必要とする。
しかもこれらのニューロン素子間は全結合であるの
で、その結合の数は前記問題規模nの4乗(n4)とな
る。これ故、ニューラルネットワークの構成規模が非常
に大きくなり、その計算量も膨大となる。
またエネルギー関数の中に制約条件と最適化評価関数
とが混在し、その和の形で最適解が求められるので、そ
の制約条件の数が多い場合には前述した定数(パラメー
タ)を適切に設定することが困難となる。
ところで上述したホップフィールドの手法を用いてLS
Iのモジュール配置を行うことが下記の文献等に提供さ
れている。
『伊達,林;電子情報通信学会,研資VLD89−46』 このLSIモジュールの配置問題は、複数のモジュール
からなる回路図が与えられたとき、上記各モジュールを
メッシュ上に並べられた複数のセル上に、その仮想配線
長が最小となるように配置する問題である。この例で
は、モジュールx,y間の結線をRxy,セルi,j間の距離をd
ij,セルiに配置可能なモジュール数をCAP1とし、ニュ
ーロン素子の出力Vxiにてモジュールxをセルiに配置
するか否かを表現するようにする。具体的には[Vxi
1]のときモジュールxをセルiに配置し、[Vxi
0]のときセルiにはモジュールxを配置しないことを
表現する。
このようなLSIモジュール配置問題を解くニューラル
ネットワークの全体的なエネルギーEは、次のようにな
る。
但し、右辺第1項は各ニューロン素子の出力Vxi
[1]または[0]にする為の制約、また右辺第2項は
各モジュールxは1つのセルにだけ配置する為の制約で
ある。また右辺第3項は各セルにはその容量分のモジュ
ールを配置可能であることを示す制約、そして右辺第4
項は仮想配線長を最小とする条件を表している。
このようなエネルギー評価関数を解決することで前記
LSIモジュール配置問題の最適解を求めることが可能と
なる。
然し乍ら、上述したLSIモジュール配置問題の解法に
は前述したホップフィールドの解決手法における欠点が
そのまま持ち込まれる。即ち、LSIモジュール配置問題
の処理に必要なニューロン素子の数はモジュール数とセ
ル数との積となり、その計算量が膨大化する。また前述
した3つの制約条件と1つの評価関数の和によりエネル
ギー関数が表現されるので、制約条件を満たさない不当
な解が出力される虞れが多い。従ってこの手法を実用希
望の問題に適用するには問題がある。
(発明が解決しようとする課題) このように割当て型組み合わせ最適化問題をニューラ
ルネットワークを用いて解決しようとする従来の装置に
あっては、ニューラルネットワークのエネルギー関数が
制約条件と最適化評価関数との和で表現されるので、上
記制約条件を満たさない不当な解が出力されることが多
いと云う問題がある。また問題解決を行うには非常に多
くのニューロン素子を必要とし、ニューラルネットワー
クの構成が大規模化すると共に、その計算量が膨大化す
ると云う不具合があった。
本発明は、上記事情を考慮してなされたもので、構成
規模の小さい相互結合型のニューラルネットワークを用
いて、複数のモジュールの複数のセルへの最適な割当て
を効率的に求めることのできるモジュール割当方法を提
供することを目的とする。
[発明の構成] (課題を解決するための手段) 本発明は、複数のモジュールを複数のセルに割当てる
ためのモジュール割当方法において、前記モジュールに
1対1に対応させたニューロン素子を相互結合させたニ
ューラルネットワークを、前記複数のモジュールを2つ
のグループに分割するための結合係数を用いて実行し、
前記ニューラルネットワークの実行によって前記ニュー
ロン素子の出力が収束してグループ分割結果が得られた
場合に、その結果における複数のグループそれぞれをさ
らに2つのグループに分割するための結合係数を用いて
前記ニューラルネットワークを再実行すること、を所定
回数繰返し行い、前記モジュールが最終的に属すること
となったグループに対応するセルを、該モジュールを割
当てるべきセルとすることを特徴とする。
また、本発明は、複数のモジュールを複数のセルに割
当てるためのモジュール割当方法において、前記モジュ
ールに1対2に対応させたニューロン素子を相互結合さ
せたニューラルネットワークを、前記複数のモジュール
を4つのグループに分割するための結合係数を用いて実
行し、前記ニューラルネットワークの実行によって前記
ニューロン素子の出力が収束してグループ分割結果が得
られた場合に、その結果における複数のグループそれぞ
れをさらに4つのグループに分割するための結合係数を
用いて前記ニューラルネットワークを再実行すること、
を所定回数繰返し行い、前記モジュールが最終的に属す
ることとなったグループに対応するセルを、該モジュー
ルを割当てるべきセルとすることを特徴とする。
(作 用) 本発明によれば、モジュール数に対応した数のニュー
ロン素子を用いてニューラルネットワークを構成するの
で、モジュールを2分割もしくは4分割する処理を繰り
返し実行するので、セルの数に依存することなく小規模
なニューラルネットワークによりモジュールとセルとの
割当て型問題を効率的に実行することができる。しかも
モジュールの2分割処理もしくは4分割処理を繰り返し
行うだけなので、割当てに関する制御条件を1項だけと
することができ、そのパラメータ設定の容易化を図るこ
とができる。この結果、割当て型問題を解く為の計算量
を少なくし、その最適解を効率的に求めることを可能と
する等の実用的に有効な解決手法を実現することが可能
となる。
(実施例) 以下、図面を参照して本発明によるニューラルネット
ワークを用いた問題解決方法を適用した一実施例に係る
割当て型問題解決装置について説明する。
この実施例装置は、基本的にはn個のモジュールとm
個のセルとの割当て型問題を解決してその組み合わせの
最適解を求めるべく、上記n個のモジュールにそれぞれ
対応したn個のニューロン素子を相互に結合したニュー
ラルネットワークを構築して実現される。
そしてこのニューラルネットワークを用いて複数のモ
ジュールの2分割する処理を繰り返し行うようにする。
即ち、n個のモジュールを前記ニューラルネットワーク
を用いて2分割し、この分割されたモジュールを前記ニ
ューラルネットワークを用いて更に2分割する。このよ
うなニューラルネットワークを用いた2分割処理を繰り
返し実行することで前記n個のモジュールをm分割し、
m個のセルにそれぞれ対応付けるようにしたことを特徴
としている。
具体的には第2図に例示するように面積の等しい16個
のモジュールを縦・横に2分割する処理を4回に亘って
繰り返し実行することで24(=16)分割し、複数のセル
にそれぞれ対応付けることを特徴としている。
このニューラルネットワークを用いたモジュールの2
分割は、例えば面積均等でモジュール間の相互接続本数
が最小となるように行われる。具体的には、 Sx ;モジュールxの面積 Txy:モジュールx,y間の接続本数 Ux ;モジュールxのセル上端との外部接続本数 Dx ;モジュールxのセル下端との外部接続本数 Lx ;モジュールxのセル左端との外部接続本数 Rx ;モジュールxのモジュールxのセル右端との外部接
続本数 とし、各モジュールxに対応するニューロン素子の出力
を[1]または[−1]とする。そしてこれらの出力値
から、その出力値が[1]となるニューロン素子のグル
ープと、出力値が[−1]となるニューロン素子のグル
ープとに2分割する。
このような2分割処理を実行するニューラルネットワ
ークのエネルギー関数Eは、次のように表される。
このエネルギー関数Eにおける右辺第1項は2つのグ
ループ間の相互結合が最小になることを表している。こ
の右辺第1項はモジュールx,yが同じグループに属する
場合にはペナルティ[0]となり、モジュールx,yが異
なるグループに属する場合にはペナルティ[Txy]とな
る。
また右辺第2項は分割された2つのグループ間の面積
が均等になることを表している。この例では分割された
2つのグループ間の面積の差の2乗がペナルティとして
用いられる。
更に右辺第3項は外部との接続本数を最小化すること
を示している。この例では、モジュールを上下に2分割
する例を示しており、ニューロン素子の出力値が[1]
ならば上側に、また[−1]ならば下側に分類されるこ
とが示される。
モジュールの左右に2分割する場合には、例えばこの
第3項は として与えられ、ニューロン素子の出力値が[1]なら
ば左側に、また[−1]ならば右側に分類される。
このように表現されるエネルギー関数Eは、前述した
ホップフィールドの手法を用いてニューラルネットワー
クで取り扱うことができる。そしてこの例では、ニュー
ロン素子間の重み(結合係数)wxyとその外部入力I
xは、それぞれ次のように表現できる。
このようにして求められる重み(結合係数)wxyとそ
の外部入力Ixとを用いてニューラルネットワークを起動
することにより、最適なモジュール分割(2分割)を行
うことができる。
さてこのようにして2分割された各モジュールのグル
ープをそれぞれ更に2分割し、これによって前記各モジ
ュールを4つのグループに分割する場合には、基本的に
は上述した2分割処理を繰り返し実行すれば良い。具体
的には第3図に示すように複数のモジュールを2分割し
てなるグループAを更に2分割してグループC,Dを形成
する。またグループBについても更に2分割してグルー
プE,Fを形成する。しかしこの場合、前記グループAB間
で結合のあるモジュールについては、グループCとグル
ープEとに、或いはグループDとグループFとにそれぞ
れ分類される方が望ましい。
換言すれば、2分割されたモジュールのグループA,B
をそれぞれ2分割する際、互いに関連するモジュールに
ついては同じ向きに分類することが望ましい。このこと
は互いに関連するモジュールの結び付きを示す線の交差
が最小となるようにモジュールの分類配置を進めること
が望ましい。
このような交差数をペナルティとして前記エネルギー
関数に組み込むと、そのエネルギー関数Fは次のように
表される。
このように表現されるエネルギー関数Fからニューロ
ン間の重みwxyを外部入力Ixを求め、これらをニューラ
ルネットワークに設定して該ニューラルネットワークを
起動することにより、前述した如く2分割されたモジュ
ールのグループがそれぞれ2分割され、結局、モジュー
ルの4分割が最適に行われることになる。
このようにして4分割してなるモジュールのグループ
をそれぞれ2分割し、総合的にモジュールを8分割する
場合には、上述した4分割の場合と同様な考え方に立脚
してエネルギー関数を設定してニューロン間の重みwxy
を外部入力Ixを求め、これらをニューラルネットワーク
に設定して該ニューラルネットワークを再起動するよう
にすれば良い。
このようにしてニューラルネットワークによるモジュ
ールの2分割処理を繰り返すことにより、第2図にその
分割処理の概念を示すように複数のモジュールが順次繰
り返し2分割されていく。そしてこのニューラルネット
ワークを用いたモジュールの2分割処理をn回繰り返す
ことにより、前記モジュールの最大で2n分割が行われる
ことになる。
さてこのようなモジュールの分割処理に供されるニュ
ーラルネットワークは、例えば第1図に示すように構成
される。このニューラルネットワークはn個のモジュー
ルに対応するn個のニューロン素子1a,1b,〜1nを、結合
係数部2を介して相互に結合して構成される。結合係数
部2は、各ニューロン素子1a,1b,〜1nの出力値にそれぞ
れ所定の重み(結合係数)wijを乗じて前記各ニューロ
ン素子1a,1b,〜1nに与える役割を果たす。
しかして各ニューロン素子1a,1b,〜1nは、前記重みw
ijがそれぞれ乗じられた他のニューロン素子からの力値
の和、つまり前記ニューロンの出力値と係合係数wij
の荷重和を計算する。そして計算された荷重和と、前記
結合係数部2の外部入力端子3を介して与えられる外部
入力Ixとの間で閾値演算を施し、例えばシグモイド関数
を適用してその出力値を決定する。
これらのニューロン素子1a,1b,〜1nによる演算処理
は、全てのニューロン素子1a,1b,〜1nからの出力値が収
束するまで、つまり各ニューロン素子1a,1b,〜1nの出力
値が[1]または[−1]にそれぞれ安定し、各ニュー
ロン素子1a,1b,〜1nに対応付けられたモジュールが2分
割されるまで繰り返し実行される。
このニューラルネットワークの出力である前記各ニュ
ーロン素子1a,1b,〜1nの出力値が収束したか否か、つま
り全てのニューロン素子1a,1b,〜1nの状態が平衡状態に
達したか否かの判定は、収束判定部4によりなされる。
この収束判定部4にて前記各ニューロン素子1a,1b,〜1n
が平衡状態に達したこと(2分割されたこと)が検出さ
れたとき、これらの各ニューロン素子1a,1b,〜1nの出力
値(2分割結果)がメモリ部5に格納される。
この実施例装置は、上述したニューラルネットワーク
から、その収束した出力結果が得られる都度、その収束
出力結果に従って新たに前記ニューラルネットワークを
起動する。この際、重み計算部6を用い、前記メモリ部
5に格納された収束結果に従って前記結合係数部2に新
たに結合係数を設定する。
第4図は上述した第1図に示すニューラルネットワー
クを用いてモジュールの分割処理(セルに対する割り当
て処理)を実行する為の処理手続きの流れを示す図であ
る。この処理手続きは、ニューラルネットワークによる
2分割処理を繰り返し実行する為の制御パラメータkを
零[0]に初期設定することから開始される(ステップ
a)。しかして制御パラメータkが[0]に設定される
と、次に前述したエネルギー関数に従ってニューラルネ
ットワーク(結合係数部2)に結合係数wijを設定し
(ステップb)、ニューラルネットワークを起動する
(ステップc)。
この状態で前記収束判定部4にて前記ニューロン素子
1a,1b,〜1nの出力値が収束したか否かを判定し(ステッ
プd)、その収束(平衡化)が検出されるまで前記ニュ
ーラルネットワークによるモジュールの2分割処理を繰
り返し進める。そして前記収束判定部4にて前記ニュー
ロン素子1a,1b,〜1nの出力値の収束が検出されたとき、
次にその収束したニューロン素子1a,1b,〜1nの各出力値
を前記メモリ部5に格納し、前記ニューラルネットワー
クを用いたモジュールの2分割処理を終了する(ステッ
プe)。
しかる後、前記制御パラメータkをインクリメントす
る(ステップf)。そしてインクリメントした制御パラ
メータkの値が、前記モジュールを分割しようとするセ
ルの数mに関連した値、具体的にはセルの数mにモジュ
ールを分割するに必要な2分割処理の繰り返し回数log2
mに達したか否かを判定する(ステップg)。そして制
御パラメータkの値がlog2mに満たない場合には、上述
した如く分割されたモジュールのグループを更に分割す
る必要があると判断し、モジュール分割を再度実行する
べく新たなエネルギー関数を求め、このエネルギー関数
から求められる結合係数wijを前記ニューラルネットワ
ークに再設定する(ステップh)。そして再結成された
結合係数wijの下で前記ニューラルネットワークを再度
起動し(ステップc)、前述した処理手続きと同様にし
てモジュールの2分割を行う。
このようにしてニューラルネットワークを繰り返し起
動し、複数のモジュールを順次2分割していくことによ
り、これらのモジュールは2分割,4分割,8分割,16分
割,……されて行く。
そしてこのニューラルネットワークの繰り返し起動を
制御する前記制御パラメータkの値が、モジュールをセ
ルの数mに分割するに必要な2分割処理の繰り返し回数
log2mに達したことが前記判定処理により検出されたと
き(ステップg)、このニューラルネットワークを繰り
返し起動して行われるモジュールの分割処理を終了す
る。そして前記メモリ部5に格納された各分割処理段階
でのモジュール分割の情報から、例えば複数のセル(m
個)に対してそれぞれ分配するモジュールを決定する
(ステップi)。
かくしてこのようにして複数のモジュールを2分割す
る処理を繰り返し実行する本装置によれば、モジュール
の数に対応した数のニューロン素子だけを用いた簡易な
構成のニューラルネットワークを有効に用いて上記複数
のモジュールの複数のセルに対する割当てを効果的に行
うことができる。しかも上述した簡易な構成のニューラ
ルネットワークを繰り返し起動することにより、モジュ
ールの分割を効率的に行うことができる。特に分割数を
規定するセルの数に依存することなく、モジュール数に
対応した数のニューロン素子だけを用いてニューラルネ
ットワークを構成するので、複数のニューロン素子を相
互に結合する為の結合数も少なくすることができる。ま
た割当てに関する制御条件を1項だけとすることがで
き、そのパラメータ設定の容易化を図ることができる。
この結果、割当て型問題を解決する為の計算量を少なく
し、その最適解を効率的に求めることを可能とする。従
って実用規模の問題に適用するに非常に好適である。
尚、本発明は上述した実施例に限定されるものではな
い。実施例ではセルがメッシュ上に配列されている場合
を例に説明したが、長方形エリアにセルが配列されてい
る場合や、大きさの異なるエリアが混在している場合で
も、同様にして上述した2分割処理を基本としてセルに
対するモジュールの割当てを進めることができる。
またここでは2分割を基本としてモジュールの分割を
繰り返し行うようにしたが、例えば2個のニューロン素
子を対にして表現することにより、4分割を基本として
モジュールの分割処理を進めることも可能である。
即ち、セルの構造に依存することなくモジュールを分
割してセルに対する割当てを進めることができ、また分
割単位も特に限定されない。そしてモジュール全体のセ
ルに対する割当てが、モジュール分割の単位操作の繰り
返しで表現されるような場合には、前述した手法と同様
にしてその割当て処理を進めること可能となる。更には
実施例で示したLSIのモジュール配置の問題解決に限ら
ず、種々の割当て型最適化問題に対して同様に適用可能
である。その他、本発明はその要旨を逸脱しない範囲で
種々変形して実施することができる。
[発明の効果] 以上説明したように本発明によれば、LSIモジュール
の配置問題等の種々の割当て最適化問題を、モジュール
の数に対応したニューロン素子を用いて構成される簡易
な構成のニューラルネットワークを用いて効率的に解決
し、その最適解を求めることができ、実用規模の問題を
解決するのに非常に好適である等の実用上多大なる効果
が奏せられる。
【図面の簡単な説明】
図は本発明の一実施例に係る割当て型問題解決装置につ
いて示すもので、第1図はニューラルネットワークを用
いて構成される実施例装置の概略構成図、第2図および
第3図はそれぞれ本発明の処理概念を示す図、第4図は
実施例装置における処理手続きの流れを示す図である。 1a,1b,〜1n……ニューロン素子、2……係合係数部、3
……外部入力端子、4……収束判定部、5……メモリ
部、6……重み計算部。
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G06F 15/18 JICST科学技術文献データベース

Claims (2)

    (57)【特許請求の範囲】
  1. 【請求項1】複数のモジュールを複数のセルに割当てる
    ためのモジュール割当方法において、 前記モジュールに1対1に対応させたニューロン素子を
    相互結合させたニューラルネットワークを、前記複数の
    モジュールを2つのグループに分割するための結合係数
    を用いて実行し、 前記ニューラルネットワークの実行によって前記ニュー
    ロン素子の出力が収束してグループ分割結果が得られた
    場合に、その結果における複数のグループそれぞれをさ
    らに2つのグループに分割するための結合係数を用いて
    前記ニューラルネットワークを再実行すること、を所定
    回数繰返し行い、 前記モジュールが最終的に属することとなったグループ
    に対応するセルを、該モジュールを割当てるべきセルと
    することを特徴とするモジュール割当方法。
  2. 【請求項2】複数のモジュールを複数のセルに割当てる
    ためのモジュール割当方法において、 前記モジュールに1対2に対応させたニューロン素子を
    相互結合させたニューラルネットワークを、前記複数の
    モジュールを4つのグループに分割するための結合係数
    を用いて実行し、 前記ニューラルネットワークの実行によって前記ニュー
    ロン素子の出力が収束してグループ分割結果が得られた
    場合に、その結果における複数のグループそれぞれをさ
    らに4つのグループに分割するための結合係数を用いて
    前記ニューラルネットワークを再実行すること、を所定
    回数繰返し行い、 前記モジュールが最終的に属することとなったグループ
    に対応するセルを、該モジュールを割当てるべきセルと
    することを特徴とするモジュール割当方法。
JP4449190A 1990-02-27 1990-02-27 モジュール割当方法 Expired - Fee Related JP2809791B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP4449190A JP2809791B2 (ja) 1990-02-27 1990-02-27 モジュール割当方法
US07/656,682 US5148045A (en) 1990-02-27 1991-02-19 Apparatus and method for assigning a plurality of elements to a plurality of cells

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4449190A JP2809791B2 (ja) 1990-02-27 1990-02-27 モジュール割当方法

Publications (2)

Publication Number Publication Date
JPH03248259A JPH03248259A (ja) 1991-11-06
JP2809791B2 true JP2809791B2 (ja) 1998-10-15

Family

ID=12693022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4449190A Expired - Fee Related JP2809791B2 (ja) 1990-02-27 1990-02-27 モジュール割当方法

Country Status (2)

Country Link
US (1) US5148045A (ja)
JP (1) JP2809791B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2246895B (en) * 1990-07-12 1994-03-30 Mitsubishi Electric Corp Neural network system
US5247606A (en) * 1990-12-26 1993-09-21 Intel Corporation Adaptively setting analog weights in a neural network and the like
JP3521844B2 (ja) * 1992-03-30 2004-04-26 セイコーエプソン株式会社 ニューラルネットワークを用いた認識装置
US5256911A (en) * 1992-06-10 1993-10-26 Intel Corporation Neural network with multiplexed snyaptic processing
US5420939A (en) * 1992-12-31 1995-05-30 Intel Corporation Method and apparatus for a focal neuron system
US5621862A (en) * 1993-07-29 1997-04-15 Matsushita Electric Industrial Co., Ltd. Information processing apparatus for implementing neural network
JPH07200512A (ja) * 1993-09-13 1995-08-04 Ezel Inc 最適化問題解決装置
US7606776B1 (en) * 2005-09-28 2009-10-20 Actenum Corporation Flexible constraint propagation engine for combinatorial optimization applications
KR102143225B1 (ko) * 2013-05-06 2020-08-11 삼성전자주식회사 뉴로모픽 칩의 스파이크 이벤트 정보 전송 방법 및 장치, 및 뉴로모픽 칩
US11586900B2 (en) 2020-04-20 2023-02-21 Macronix International Co., Ltd. Training algorithm in artificial neural network (ANN) incorporating non-ideal memory device behavior

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4874963A (en) * 1988-02-11 1989-10-17 Bell Communications Research, Inc. Neuromorphic learning networks
US5040134A (en) * 1989-05-26 1991-08-13 Intel Corporation Neural network employing leveled summing scheme with blocked array

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
並列処理シンポジウム JSPP’90 平成2年5月 P.393−400
菊池豊彦著 「入門ニューロコンピュータ」 オーム社 平成2年1月20日 第1版第1刷 P.70−74

Also Published As

Publication number Publication date
JPH03248259A (ja) 1991-11-06
US5148045A (en) 1992-09-15

Similar Documents

Publication Publication Date Title
CN107578098B (zh) 基于脉动阵列的神经网络处理器
EP3698313B1 (en) Image preprocessing for generalized image processing
CN113449857B (zh) 一种数据处理方法和数据处理设备
Carrillo et al. Scalable hierarchical network-on-chip architecture for spiking neural network hardware implementations
Kleinrock Distributed systems
Papadrakakis et al. Reliability-based structural optimization using neural networks and Monte Carlo simulation
JPH08508838A (ja) 有限要素法の新しい解析法及び解析器
JP2809791B2 (ja) モジュール割当方法
CN107943756A (zh) 一种计算方法及相关产品
Orozco et al. Arrangement of reinforcement in variable density timber slab systems for multi-story construction
Bahreininejad et al. Finite element mesh partitioning using neural networks
Hidalgo et al. A parallel compact genetic algorithm for multi-FPGA partitioning
Takenaka et al. A proposal of neuron filter: A constraint resolution scheme of neural networks for combinatorial optimization problems
Alfaris et al. The generative multi-performance design system
Aykanat et al. A fast neural-network algorithm for VLSI cell placement
Miller et al. Simulating essential pyramids
De Leone et al. A successive overrelaxation backpropagation algorithm for neural-network training
Xu et al. Neural networks and graph theory
Kaveh et al. A hybrid graph–neural method for domain decomposition
EP0435208B1 (en) Neuro-computer
Hidalgo et al. Multi-FPGA systems synthesis by means of evolutionary computation
Beebe et al. Digraph visualization using a neural algorithm with a heuristic activation scheme
Carothers et al. Single phase algorithm for hierarchical graph visualization
Schumacher et al. An accelerator for k-th nearest neighbor thinning based on the IMORC infrastructure
Reski Mapping and parallel simulation of synchronous neural networks on multiprocessors

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees