JPH03248259A - モジュール割当方法 - Google Patents

モジュール割当方法

Info

Publication number
JPH03248259A
JPH03248259A JP2044491A JP4449190A JPH03248259A JP H03248259 A JPH03248259 A JP H03248259A JP 2044491 A JP2044491 A JP 2044491A JP 4449190 A JP4449190 A JP 4449190A JP H03248259 A JPH03248259 A JP H03248259A
Authority
JP
Japan
Prior art keywords
neural network
modules
coupling coefficient
module
divided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2044491A
Other languages
English (en)
Other versions
JP2809791B2 (ja
Inventor
Shigeru Koyanagi
滋 小柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP4449190A priority Critical patent/JP2809791B2/ja
Priority to US07/656,682 priority patent/US5148045A/en
Publication of JPH03248259A publication Critical patent/JPH03248259A/ja
Application granted granted Critical
Publication of JP2809791B2 publication Critical patent/JP2809791B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明はニューラルネットワークを用いて割当て型の組
み合わせ最適化問題を解くに有用な割当て型問題解決装
置に関する。
(従来の技術) 組み合わせ最適化問題の1つに、m個のモジュールをn
個のセルに最適に割当てると云う問題がある。このよう
な組み合わせ最適化問題の解を求めることは、例えばL
SI設計においてモジュール配置を決定する為の処理と
して非常に重要である。
然し乍ら、上述した組み合わせ最適化問題におけるモジ
ュールとセルとの組み合わせの数はn“個にも及ぶ。こ
れ故、これらの組み合わせの中から最適な組み合わせを
求めることは、実用規模においては甚だ困難である。こ
の為、実際には適当なヒユーリスティクスを用いて、そ
の近似解を求めているのが実状である。
ところで最近、ニューラルネットワークを用いて上述し
た組み合わせ最適化問題を解くことが種々試みられてい
る。その代表的な手法の1つにホップフィールド[Ho
pf’1eld]が提唱した手法がある。
この手法は、例えば下記の文献に詳しく紹介されている
rHopfield and Tank;”Biolo
gical Cybernetics、52 ’pp1
41〜152 、1985     Jこのホップフィ
ールドが提唱した手法は、例えばn個の都市を回る巡回
セールスマン問題を、02個のニューロン素子を備えた
ニューラルネットワークを用いて次のように解決するも
のである。
即ち、セールスマンが都市Xをi回目に訪問するか否か
を表す各ニューロン素子の出力をv、1とし、[V、I
−1]のときにはその都市Xに訪問し、[V、、−0]
のときには訪問しないことを示すようにする。この場合
 n2個のニューロン素子を用いて構成されるニューラ
ルネットワークの全体的なエネルギーEは、次のように
なる。
但し、上式においてA、B、C,Dはそれぞれ定数であ
り、d XFは都市Xと都市yとの間の距離を表してい
る。そして右辺第1項は同−都市を2度に亘って繰り返
し訪問しない為の制約、また右辺第2項は同一の順序で
異なる都市を割当てない為の制約である。また右辺第3
項はn個の都市の全てを訪問する為の制約、そして右辺
第4項は訪問経路の総距離を表している。
このようにして複数のニューロン素子からの出力値の2
次形式でニューラルネットワークのエネルギー関数を定
義すると、各ニューロン素子間の重み(結合係数)や外
部入力を計算することが可能となる。そしてこれらの値
を設定し、ニューラルネットワークが収束したときには
前記エネルギーEが極小値を取るので、これを前記最適
化問題の解として求めることが可能となる。
ところがこのようにしてニューラルネットワークを用い
て組み合わせ最適化問題を解くにしても、実際的には次
のような問題がある。即ち、このような組み合わせ最適
化問題を解くには、問題規模nの2乗(R2)のニュー
ロン素子を必要とする。
しかもこれらのニューロン素子間は全結合であるので、
その結合の数は前記問題規模nの4乗(R4)となる。
これ故、ニューラルネットワークの構成規模が非常に大
きくなり、その計算量も膨大となる。
またエネルギー関数の中に制約条件と最適化評価関数と
が混在し、その和の形で最適解が求められるので、その
制約条件の数が多い場合には前述した定数(パラメータ
)を適切に設定することが困難となる。
ところで上述したホップフィールドの手法を用いてLS
Iのモジュール配置を行うことが下記の文献等に提唱さ
れている。
「伊達、林; 電子情報通信学会、新前V L D 89−48 Jこ
のLSIモジュールの配置問題は、複数のモジュールか
らなる回路図が与えられたとき、上記各モジュールをメ
ツシュ上に並べられた複数のセル上に、その仮想配線長
が最小となるように配置する問題である。この例では、
モジュールX、フ間の結線をR82,セルi、j間の距
離をdll+ セルiに配置可能なモジュール数をCA
P、とし、ニューロン素子の出力V!1にてモジュール
Xをセルiに配置するか否かを表現するようにする。具
体的には[v、+−i]のときモジュールXをセルiに
配置し、[V −1−OEのときセルiにはモジュ−ル
Xを配置しないことを表現する。
このようなLSIモジュール配置問題を解くニューラル
ネットワークの全体的なエネルギーEは、次のようにな
る。
但し、右辺第1項は各ニューロン素子の出力Vx1を[
1コまたは[0コにする為の制約、また右辺第2項は各
モジュールXは1つのセルにだけ配置する為の制約であ
る。また右辺第3項は各セルにはその容量分のモジュー
ルを配置可能であることを示す制約、そして右辺第4項
は仮想配線長を最小とする条件を表している。
このようなエネルギー評価関数を解決することで前記L
SIモジュール配置問題の最適解を求めることが可能と
なる。
然し乍ら、上述したLSIモジュール配置問題の解法に
は前述したホップフィールドの解決手法における欠点が
そのまま持ち込まれる。即ち、LSIモジュール配置問
題の処理に必要なニューロン素子の数はモジュール数と
セル数との積となり、その計算量が膨大化する。また前
述した3つの制約条件と1つの評価関数の和によりエネ
ルギー関数が表現−されるので、制約条件を満たさない
不当な解が出力される虞れが多い。従ってこの手法を実
用規模の問題に適用するには問題がある。
(発明が解決しようとする課題) このように割当て型組み合わせ最適化問題をニューラル
ネットワークを用いて解決しようとする従来の装置にあ
っては、ニューラルネットワークのエネルギー関数が制
約条件と最適化評価関数との和で表現されるので、上記
制約条件を満たさない不当な解が出力されることが多い
と云う問題がある。また問題解決を行うには非常に多く
のニューロン素子を必要とし、ニューラルネットワーク
の構成が大規模化すると共に、その計算量が膨大化する
と云う不具合があった。
本発明はこのような事情を考慮してなされたもので、そ
の目的とするところは、LSIのモジュール配置等の割
当て型組み合わせ最適化問題を、ニューラルネットワー
クを用いて効率的に解くことのできる構成規模の小さい
割当て型問題解決装置を提供することにある。
[発明の構成] (課題を解決するための手段) 本発明は、複数のモジュールを複数のセルに割当てる為
の割当て型問題の最適解を求める割当て型問題解決装置
に係り、 前記モジュールの数に対応したニューロン素子を相互に
結合したニューラルネットワークを用い、このニューラ
ルネットワークのニューロン素子間に所定の結合係数を
設定して上記ニューラルネットワークを起動すると共に
、このニューラルネットワークの出力の収束が検出され
る都度、前記結合係数の値を変更して前記ニユーラルネ
ツトワ−りを繰り返し起動するようにしたことを特徴と
するものである。
特にニューラルネットワークの収束した出力値に従って
前記モジュールを2分割し、この処理を繰り返すことで
、セルの数だけモジュールの分割を行うようにしたこと
を特徴としている。
(作 用) 本発明によれば、モジュール数に対応した数のニューロ
ン−素子を用いてニューラルネットワークを構成するの
で、モジュールを2分割する処理を繰り返し実行するの
で、セルの数に依存することなく小規模なニューラルネ
ットワークによりモジュールとセルとの割当て型問題を
効率的に実行することができる。しかもモジュールの2
分割処理を繰り返し行うだけなので、割当てに関する制
約条件を1項だけとすることができ、そのパラメータ設
定の容易化を図ることができる。この結果、割当て型問
題を解く為の計算量を少なくし、その最適解を効率的に
求めることを可能とする等の実用的に有効な解決手法を
実現することが可能となる。
(実施例) 以下、図面を参照して本発明の一実施例に係る割当て型
問題解決装置について説明する。
この実施例装置は、基本的にはn個のモジュールとm個
のセルとの割当て型問題を解決してその組み合わせの最
適解を求めるべく、上記n個のモジュールにそれぞれ対
応したn個のニューロン素子を相互に結合したニューラ
ルネットワークを構築して実現される。
そしてこのニューラルネットワークを用いて複数のモジ
ュールの2分割する処理を繰り返し行うようにする。即
ち、n個のモジュールを前記ニューラルネットワークを
用いて2分割し、この分割されたモジュールを前記ニュ
ーラルネットワークを用いて更に2分割する。このよう
なニューラルネットワークを用いた2分割処理を繰り返
し実行することで前記n個のモジュールをm分割し、m
個のセルにそれぞれ対応付けるようにしたことを特徴と
している。
具体的には第2図に例示するように面積の等しい16個
のモジュールを縦・横に2分割する処理を4回に亘って
繰り返し実行することで2’  (−16)分割し、複
数のセルにそれぞれ対応付けることを特徴としている。
このニューラルネットワークを用いたモジュールの2分
割は、例えば面積均等でモジュール間の相互接続本数が
最小となるように行われる。具体的には、 S8 ;モジュールXの面積 T K F ;モジュールXrY間の接続本数U8 ;
モジュールXのセル上端との外部接続本数D8 ;モジ
ュールXのセル下端との外部接続本数L8 ;モジュー
ルXのセル左端との外部接続本数Rx ;モジュールX
のモジュールXのセル右端との外部接続本数 とし、各モジュールXに対応するニューロン素子の出力
を[1]または[−1コとする。そしてこれらの出力値
から、その出力値が[1]となるニューロン素子のグル
ープと、出力値が[−1]となるニューロン素子のグル
ープとに2分割する。
このような2分割処理を実行するニューラルネットワー
クのエネルギー関数Eは、次のように表される。
E−−ΣΣT!、(1−VxV、)  x  y +J(Σ S、V、)2 に +−Σ [U、(1−V、)+D、(1+V、)]2、
l (但し、J、には正の定数) このエネルギー関数Eにおける右辺第1項は2つのグル
ープ間の相互結合が最小になることを表している。この
右辺第1項はモジュールX+Yが同じグループに属する
場合にはペナルティ [0]となり、モジュールx、y
が異なるグループに属する場合にはペナルティ [T、
y]となる。
また右辺第2項は分割された2つのグループ間の面積が
均等になることを表している。この例では分割された2
つのグループ間の面積の差の2乗がペナルティとして用
いられる。
更に右辺第3項は外部との接続本数を最小化することを
示している。この例では、モジュールを上下に2分割す
る例を示しており、ニューロン素子の出力値が[1]な
らば上側に、また[−1コならば下側に分類されること
が示される。
モジュールを左右に2分割する場合には、例えばこの第
3項は として与えられ、ニューロン素子の出力値が[1コなら
ば左側に、また[−1コならば右側に分類される。
このように表現されるエネルギー関数Eは、前述したホ
ップフィールドの手法を用いてニューラルネットワーク
で取り扱うことができる。そしてこの例では、ニューロ
ン素子間の重み(結合係数)w8.とその外部式カニ、
は、それぞれ次のように表現できる。
W、、−に−2J S、 S。
このようにして求められる重み(結合係数)w8.とそ
の外部人力I8とを用いてニューラルネットワークを起
動することにより、最適なモジュール分割(2分割)を
行うことができる。
さてこのようにして2分割された各モジュールのグルー
プをそれぞれ更に2分割し、これによって前記各モジュ
ールを4つのグループに分割する場合には、基本的には
上述した2分割処理を繰り返し実行すれば良い。具体的
には第3図に示すように複数のモジュールを2分割して
なるグループAを更に2分割してグループC,Dを形成
する。
またグループBについても更に2分割してグループE、
Fを形成する。しかしこの場合、前記グループAB間で
結合のあるモジュールについては、グループCとグルー
プEとに、或いはグループDとグループFとにそれぞれ
分類される方が望ましい。
換言すれば、2分割されたモジュールのグループA、B
をそれぞれ2分割する際、互いに関連するモジュールに
ついては同じ向きに分類することが望ましい。このこと
は互いに関連するモジュールの結び付きを示す線の交差
が最小となるようにモジュールの分類配置を進めること
が望ましい。
このような交差数をペナルティとして前記エネルギー関
数に組み込むと、そのエネルギー関数Fは次のように表
される。
このように表現されるエネルギー関数Fからニューロン
間の重みW□と外部人力I8を求め、これらをニューラ
ルネットワークに設定して該ニューラルネットワークを
起動することにより、前述した如く2分割されたモジュ
ールのグループがそれぞれ2分割され、結局、モジュー
ルの4分割が最適に行われることになる。
このようにして4分割してなるモジュールのグループを
それぞれ2分割し、総合的にモジュールを8分割する場
合には、上述した4分割の場合と同様な考え方に立脚し
てエネルギー関数を設定してニューロン間の重みW□と
外部人力I8を求め、これらをニューラルネットワーク
に設定して該ニューラルネットワークを再起動するよう
にすれば良い。
このようにしてニューラルネットワークによるモジュー
ルの2分割処理を繰り返すことにより、第2図にその分
割処理の概念を示すように複数のモジュールが順次繰り
返し2分割されていく。そしてこのニューラルネットワ
ークを用いたモジュールの2分割処理をn回繰り返すこ
とにより、前記モジュールの最大で2″分割が行われる
ことになる。
さてこのようなモジュールの分割処理に供されるニュー
ラルネットワークは、例えば第1図に示すように構成さ
れる。このニューラルネットワークはn個のモジュール
に対応するn個のニューロン素子1a、 lb、〜1n
を、結合係数部2を介して相互に結合して構成される。
結合係数部2は、各ニューロン素子1a、 lb、〜i
nの出力値にそれぞれ所定の重み(結合係数)W、Jを
乗じて前記各ニューロン素子1a、 lb、〜1nに与
える役割を果たす。
しかして各ニューロン素子1a、 lb、〜1nは、前
記重みW+lが、それぞれ乗じられた他のニューロン素
子からの力値の和、つまり前記ニューロンの出力値と結
合係数w14との荷重和を計算する。そして計算された
荷重和と、前記結合係数部2の外部入力端子3を介して
与えられる外部人力l!との間で閾値演算を施し、例え
ばシグモイド関数を適用してその出力値を決定する。
これらのニューロン素子1a、 lb、〜1nによる演
算処理は、全てのニューロン素子1a、 lb、〜1n
からの出力値が収束するまで、つまり各ニューロン素子
1a、 lb、 〜inの出力値が[1]または[−1
]にそれぞれ安定し、各ニューロン素子1a、 lb、
〜Inに対応付けられたモジュールが2分割されるまで
繰り返し実行される。
このニューラルネットワークの出力である前記各ニュー
ロン素子1a、 lb、〜1nの出力値が収束したか否
か、つまり全てのニューロン素子1a、 lb。
〜1nの状態が平衡状態に達したか否かの判定は、収束
判定部4によりなされる。この収束判定部4にて前記各
ニューロン素子1a、 lb、〜1nが平衡状態に達し
たこと(2分割されたこと)が検出されたとき、これら
の各ニューロン素子1a、 lb、〜1nの出力値(2
分割結果)がメモリ部5に格納される。
この実施例装置は、上述したニューラルネットワークか
ら、その収束した出力結果が得られる都度、その収束出
力結果に従って新たに前記ニューラルネットワークを起
動する。この際、重み計算部6を用い、前記メモリ部5
に格納された収束結果に従って前記結合係数部2に新た
な結合係数を設定する。
第4図は上述した第1図に示すユニ一うルネットワーク
を用いてモジュールの分割処理(セルに対する割り当て
処理)を実行する為の処理手続きの流れを示す図である
。この処理手続きは、ニューラルネットワークによる2
分割処理を繰り返し実行する為の制御パラメータkを零
[0コに初期設定することから開始される(ステップa
)。しかして制御パラメータkが[0]に設定されると
、次に前述したエネルギー関数に従ってニューラルネッ
トワーク−(結合係数部2)に結合係数Wllを設定し
くステップb)、ニューラルネットワークを起動する(
ステップC)。
この状態で前記収束判定部4にて前記ニューロン素子1
a、 lb、〜1nの出力値が収束したか否かを判定し
くステップd)、その収束(平衡化)が検出されるまで
前記ニューラルネットワークによるモジュールの2分割
処理を繰り返し進める。そして前記収束判定部4にて前
記ニューロン素子1a。
lb、〜1nの出力値の収束が検出されたとき、次にそ
の収束したニューロン素子1a、 lb、〜1nの各出
力値を前記メモリ部5に格納し、前記ニューラルネット
ワークを用いたモジュールの2分割処理を終了する(ス
テップe)。
しかる後、前記制御パラメータkをインクリメントする
(ステップf)。そしてインクリメントした制御パラメ
ータにの値が、前記モジュールを分割しようとするセル
の数mに関連した値、具体的にはセルの数mにモジュー
ルを分割するに必要な2分割処理の繰り返し回数log
2mに達したか否かを判定する(ステップg)。そしテ
制御パラメータにの値がlog2mに満たない場合には
、上述した如く分割されたモジュールのグループを更に
分割する必要があると判断し、モジュール分割を再度実
行するべく新たなエネルギー関数を求め、このエネルギ
ー関数から求められる結合係数Wを前記ニューラルネッ
トワークに再設定する(ステップh)。そして再設定さ
れた結合係数W、の下で前記ニューラルネットワークを
再度起動しくステップC)、前述した処理手続きと同様
にしてモジュールの2分割を行う。
このようにしてニューラルネットワークを繰り返し起動
し、複数のモジュールを順次2分割していくことにより
、これらのモジュールは2分割。
4分割、8分割、16分割、・・・・・・されて行く。
そしてこのニューラルネットワークの繰り返し起動を制
御する前記制御パラメータにの値が、モジュールをセル
の数mに分割するに必要な2分割処理の繰り返し回数l
og2mに達したことが前記判定処理により検出された
とき(ステップg)、このニューラルネットワークを繰
り返し起動して行われるモジュールの分割処理を終了す
る。そして前記メモリ部5に格納された各分割処理段階
でのモジュール分割の情報から、例えば複数のセル(m
個)に対してそれぞれ分配するモジュールを決定する(
ステップi)。
かくしてこのようにして複数のモジュールを2分割する
処理を繰り返し実行する本装置によれば、モジュールの
数に対応した数のニューロン素子だけを用いた簡易な構
成のニューラルネットワークを有効に用いて上記複数の
モジュールの複数のセルに対する割当てを効果的に行う
ことができる。
しかも上述した簡易な構成のニューラルネットワークを
繰り返し起動することにより、モジュールの分割を効率
的に行うことができる。特に分割数を規定するセルの数
に依存することなく、モジュール数に対応した数のニュ
ーロン素子だけを用いてニューラルネットワークを構成
するので、複数のニューロン素子を相互に結合する為の
結合数も少なくすることができる。また割当てに関する
制約条件を1項だけとすることができ、そのパラメータ
設定の容易化を図ることができる。この結果、割当て型
問題を解決する為の計算量を少なくし、その最適解を効
率的に求めることを可能とする。
従って実用規模の問題に適用するに非常に好適である。
尚、本発明は上述した実施例に限定されるものではない
。実施例ではセルがメツシュ上に配列されている場合を
例に説明したが、長方形エリアにセルが配列されている
場合や、大きさの異なるエリアが混在している場合でも
、同様にして上述した2分割処理を基本としてセルに対
するモジュールの割当てを進めることができる。
またここでは2分割を基本としてモジュールの分割を繰
り返し行うようにしたが、例えば2個のニューロン素子
を対にして表現することにより、4分割を基本としてモ
ジュールの分割処理を進めることも可能である。
即ち、セルの構造に依存することなくモジュールを分割
してセルに対する割当てを進めることができ、また分割
単位も特に限定されない。そしてモジュール全体のセル
に対する割当てが、モジュール分割の単位操作の繰り返
しで表現されるような場合には、前述した手法と同様に
してその割当て処理を進めること可能となる。更には実
施例で示したLSIのモジュール配置の問題解決に限ら
ず、種々の割当て型最適化問題に対して同様に適用可能
である。その他、本発明はその要旨を逸脱しない範囲で
種々変形して実施することができる。
[発明の効果コ 以上説明したように本発明によれば、LSIモジュール
の配置問題等の種々の割当て最適化問題を、モジュール
の数に対応した二ニーロン素子を用いて構成される簡易
な構成のニューラルネットワークを用いて効率的に解決
し、その最適解を求めることができ、実用規模の問題を
解決するのに非常に好適である等の実用上多大なる効果
が奏せられる。
【図面の簡単な説明】
図は本発明の一実施例に係る割当て型問題解決装置につ
いて示すもので、第1図はニューラルネットワークを用
いて構成される実施例装置の概略構成図、第2図および
第3図はそれぞれ本発明の処理概念を示す図、第4図は
実施倒置における処理手続きの流れを示す図である。 la、 lb、〜1n・・・ニューロン素子、2・・・
係合係数部、3・・・外部入力端子、4・・・収束判定
部、5・・・メモリ部、6・・・重み計算部。

Claims (3)

    【特許請求の範囲】
  1. (1)複数のモジュールを複数のセルに最適に割当てる
    為の割当て型問題の解を求める割当て型問題解決装置に
    おいて、 前記モジュールの数に対応したニューロン素子を相互に
    結合したニューラルネットワークと、このニューラルネ
    ットワークのニューロン素子間に所定の結合係数を設定
    して上記ニューラルネットワークを起動する手段と、前
    記ニューラルネットワークのニューロン素子間に与える
    結合係数の値を変更する手段と、前記ニューラルネット
    ワークの出力が収束する毎に前記ニューラルネットワー
    クを繰り返し起動する手段とを具備したことを特徴とす
    る割当て型問題解決装置。
  2. (2)ニューラルネットワークのニューロン素子間に与
    える結合係数の値は、ニューラルネットワークの出力が
    収束したとき、その収束結果に基づいて変更されること
    を特徴とする請求項(1)に記載の割当て型問題解決装
    置。
  3. (3)ニューラルネットワークは、ニューロン素子の出
    力値に従ってモジュールの2分割を行うように起動され
    ることを特徴とする請求項(1)に記載の割当て型問題
    解決装置。
JP4449190A 1990-02-27 1990-02-27 モジュール割当方法 Expired - Fee Related JP2809791B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP4449190A JP2809791B2 (ja) 1990-02-27 1990-02-27 モジュール割当方法
US07/656,682 US5148045A (en) 1990-02-27 1991-02-19 Apparatus and method for assigning a plurality of elements to a plurality of cells

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4449190A JP2809791B2 (ja) 1990-02-27 1990-02-27 モジュール割当方法

Publications (2)

Publication Number Publication Date
JPH03248259A true JPH03248259A (ja) 1991-11-06
JP2809791B2 JP2809791B2 (ja) 1998-10-15

Family

ID=12693022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4449190A Expired - Fee Related JP2809791B2 (ja) 1990-02-27 1990-02-27 モジュール割当方法

Country Status (2)

Country Link
US (1) US5148045A (ja)
JP (1) JP2809791B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000352994A (ja) * 1992-03-30 2000-12-19 Seiko Epson Corp 神経細胞素子、ニューラルネットワークを用いた認識装置およびその学習方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2246895B (en) * 1990-07-12 1994-03-30 Mitsubishi Electric Corp Neural network system
US5247606A (en) * 1990-12-26 1993-09-21 Intel Corporation Adaptively setting analog weights in a neural network and the like
US5256911A (en) * 1992-06-10 1993-10-26 Intel Corporation Neural network with multiplexed snyaptic processing
US5420939A (en) * 1992-12-31 1995-05-30 Intel Corporation Method and apparatus for a focal neuron system
US5621862A (en) * 1993-07-29 1997-04-15 Matsushita Electric Industrial Co., Ltd. Information processing apparatus for implementing neural network
JPH07200512A (ja) * 1993-09-13 1995-08-04 Ezel Inc 最適化問題解決装置
US7606776B1 (en) * 2005-09-28 2009-10-20 Actenum Corporation Flexible constraint propagation engine for combinatorial optimization applications
KR102143225B1 (ko) * 2013-05-06 2020-08-11 삼성전자주식회사 뉴로모픽 칩의 스파이크 이벤트 정보 전송 방법 및 장치, 및 뉴로모픽 칩
US11586900B2 (en) 2020-04-20 2023-02-21 Macronix International Co., Ltd. Training algorithm in artificial neural network (ANN) incorporating non-ideal memory device behavior

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4874963A (en) * 1988-02-11 1989-10-17 Bell Communications Research, Inc. Neuromorphic learning networks
US5040134A (en) * 1989-05-26 1991-08-13 Intel Corporation Neural network employing leveled summing scheme with blocked array

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000352994A (ja) * 1992-03-30 2000-12-19 Seiko Epson Corp 神経細胞素子、ニューラルネットワークを用いた認識装置およびその学習方法

Also Published As

Publication number Publication date
JP2809791B2 (ja) 1998-10-15
US5148045A (en) 1992-09-15

Similar Documents

Publication Publication Date Title
EP0401687B1 (en) Placement optimizing method/apparatus for designing semiconductor devices
Wang et al. Generating fuzzy rules by learning from examples
Papadrakakis et al. Reliability-based structural optimization using neural networks and Monte Carlo simulation
CN113449857A (zh) 一种数据处理方法和数据处理设备
EP0378115A2 (en) Neural computer
JP7136204B2 (ja) 演算方法
JPH03248259A (ja) モジュール割当方法
CN112016691B (zh) 一种量子线路的构建方法及装置
Karthick et al. An optimal partitioning and floor planning for VLSI circuit design based on a hybrid bio-inspired whale optimization and adaptive bird swarm optimization (WO-ABSO) algorithm
JPH0926948A (ja) ニューラルネットワークによる情報処理装置
Rao et al. Expert self-organizing neural network for the design of cellular manufacturing systems
JPH04130968A (ja) ニューラルネットワークを用いた配線方式
Zhang et al. A fuzzy clustering neural networks (FCNs) system design methodology
CN114970856A (zh) 基于硬件特性的模型剪枝方法、装置、设备及存储介质
JPH0454685A (ja) 状熊学習装置及び状態推定装置
EP0435208B1 (en) Neuro-computer
CN111531542B (zh) 一种基于改进a*算法的机械臂无碰撞路径规划方法
Yang et al. Implementing back-propagation-through-time learning algorithm using cellular neural networks
Wan et al. Introducing cost-sensitive neural networks
CN116305461B (zh) 结构响应计算方法、装置、电子设备及存储介质
WO2023214608A1 (ko) 양자 회로 시뮬레이션 하드웨어
Beebe et al. Digraph visualization using a neural algorithm with a heuristic activation scheme
Shih et al. An application of neural networks on channel routing problem
Halgamuge et al. Fuzzy interpretable dynamically developing neural networks with FPGA based implementation
JPH06318194A (ja) 並列データ処理方式

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees