JPH05257918A - Parts allocation determination device - Google Patents

Parts allocation determination device

Info

Publication number
JPH05257918A
JPH05257918A JP5207092A JP5207092A JPH05257918A JP H05257918 A JPH05257918 A JP H05257918A JP 5207092 A JP5207092 A JP 5207092A JP 5207092 A JP5207092 A JP 5207092A JP H05257918 A JPH05257918 A JP H05257918A
Authority
JP
Japan
Prior art keywords
nodes
output
input
node
parts
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5207092A
Other languages
Japanese (ja)
Inventor
Satoshi Hashiba
聡 橋場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP5207092A priority Critical patent/JPH05257918A/en
Publication of JPH05257918A publication Critical patent/JPH05257918A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Image Analysis (AREA)
  • General Factory Administration (AREA)
  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PURPOSE:To reduce the changing frequency of programs and to determine the allocation of parts to an assembling machine by collecting the sorts of printed boards to be assembled by the same program of the assembling machine as much as possible within a certain production period in the assembling of printed boards. CONSTITUTION:This parts allocation determining device is provided with a two-layer competition type neural circuit network having the same number of input nodes 1 to 5 and output nodes 6 to 10 and capable of fixing outputs nodes corresponding to ON input nodes to ON and suppressing the number of ON output nodes to a fixed value, the parts constitution of each printed board is inputted from the input nodes 1 to 5 and the output nodes 6 to 10 are allowed to correspond to the parts allocation of the assembling machine, so that the group of semiappropriate printed boards is outputted and parts allocation can be determined.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は部品割付決定装置に関
し、特にプリント基板組立機械のための部品割付決定装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a component allocation determining device, and more particularly to a component allocation determining device for a printed circuit board assembly machine.

【0002】[0002]

【従来の技術】近年のプリント基板組立工業、特にシス
テム品と呼ばれる通信機機や交換機、中型以上の情報処
理機器工業では、多品種少量生産化が進み、小ロットサ
イズ、多ロット数の生産が通常のものとなった。そのた
め、使用される部品の種類も膨大なものとなるが、その
一方、プリント基板組立機械にセットすることのできる
部品種数はその機械の持つ部品フィーダーの数によって
規定される。一般に、同時にセットできるフィーダーの
数は数十ないし百数十程度である。そのため、フィーダ
ーの交換(段取り替え)をせざるを得ないが、頻繁に発
生する組立機械の段取り替えがプリント基板の生産を遅
らせ、棚卸しを増大させる原因となっている。そのた
め、類似のプリント基板をまとめてグループ化し、グル
ープ毎に段取り替えを行い、段取り替えの度数を少なく
する方法が必要とされている。
2. Description of the Related Art In recent years, in the printed circuit board assembly industry, particularly in the communication equipment and exchanges called system products, and the medium-sized or larger information processing equipment industry, the production of a large number of products in small lots is progressing, and the production of small lot sizes and lots It became normal. Therefore, the types of parts used are enormous, but the number of parts that can be set in the printed circuit board assembling machine is defined by the number of parts feeders of the machine. Generally, the number of feeders that can be set at the same time is about tens to hundreds and tens. Therefore, the feeder must be replaced (setup change), but the frequent setup change of the assembly machine delays the production of printed circuit boards and increases inventory. Therefore, there is a need for a method of grouping similar printed circuit boards together and performing setup change for each group to reduce the frequency of setup change.

【0003】従来、プリント基板組立工業においては、
ある生産期間内での組立機械の段取り替えを削減するた
めの投入グループを決めるに当たって、ある種の経験的
なルール(ヒューリスティックス)を用いることが多か
った。主にこの種のヒューリスティックスは現場の班長
クラスの人が経験に基づいて採用しているもので、現場
毎に違うルールを使っているのが普通である。一例をあ
げれば、部品種を、その部品種を使っているプリント基
板の数が多い順にソートし、次に、多く使われている部
品種を多く使っている順にプリント基板をソートするな
どの方法が用いられている。
Conventionally, in the printed circuit board assembly industry,
Often, some empirical rules (heuristics) were used in determining the input groups to reduce the setup change of the assembly machine within a certain production period. This kind of heuristics is mainly adopted by people in the field leader class based on experience, and it is common to use different rules for each field. As an example, sort the component types in descending order of the number of printed circuit boards that use that component type, and then sort the printed circuit boards in the order of using the most commonly used component types. Is used.

【0004】[0004]

【発明が解決しようとする課題】上述した従来のヒュー
リスティックス方式では、プリント基板の種類の数の少
ないうちは人手で投入グループを決定できる。しかし、
種類が増えるとどうしてもプログラムが必要となり、そ
のプログラムの作成にはプリント基板及び組立機械の専
門知識が必要である。そのようなプログラム作成能力及
びプリント基板組立の専門知識を合わせ持つ人材が容易
に得られることは少なく、結局プログラム開発に多大の
工数と時間が必要になることが多かった。
In the above-mentioned conventional heuristics, the input group can be manually determined while the number of types of printed circuit boards is small. But,
As the number of types increases, a program is inevitably required, and the creation of the program requires specialized knowledge of printed circuit boards and assembly machines. Human resources having such program creation ability and printed circuit board assembly expertise are rarely obtained easily, and in the end, a great deal of man-hours and time are required for program development.

【0005】一方、近年神経回路網の研究が進み、人工
的なネットワークの状態変化により、プログラムするこ
となしに所定の結果の得られる一種の情報処理装置が開
発・実用化されるようになってきた。
On the other hand, in recent years, research on neural networks has progressed, and due to artificial changes in the state of the network, a kind of information processing device that can obtain a predetermined result without programming has been developed and put to practical use. It was

【0006】[0006]

【課題を解決するための手段】第1の発明は、それぞれ
同数のノードを持つ入力層と出力層から成る二層型の神
経回路網において、オン状態の入力ノードに対応する出
力ノードがオン状態に固定されるよう挙動する出力ノー
ドと、任意の制限数を保持し、全ての出力ノードに接続
することにより出力層内でのオン状態のノードの数を一
定の制限数以下にできるペナルティノードを設けた競争
型神経回路網と、また、第2の発明の部品割付決定装置
は、この競争型神経回路網の入力ノードから複数種のプ
リント基板の部品構成に対応させ、制限数を組立機械の
最大取付可能部品種類数に対応させ、出力ノードを前記
プリント基板を組み立てる機械の部品割付に対応させ
る。
According to a first aspect of the present invention, in a two-layer type neural network composed of an input layer and an output layer each having the same number of nodes, an output node corresponding to an input node in an ON state is in an ON state. An output node that behaves so as to be fixed to, and a penalty node that holds an arbitrary limit number and is connected to all output nodes so that the number of nodes in the ON state in the output layer can be kept below a certain limit number. The provided competitive neural network and the component allocation determining device according to the second aspect of the invention correspond to the component configurations of a plurality of types of printed circuit boards from the input node of the competitive neural network, and limit the number of assembly machines. The output node is made to correspond to the maximum number of attachable parts and the parts are assigned to the machine for assembling the printed circuit board.

【0007】[0007]

【実施例】次に、本発明の実施例について図面を参照し
て説明する。
Embodiments of the present invention will now be described with reference to the drawings.

【0008】図1は第1の発明の競争型神経回路網の一
実施例を示す構成図である。
FIG. 1 is a block diagram showing an embodiment of the competitive neural network of the first invention.

【0009】本発明を実現する神経回路網としての方式
はいろいろ考えられるが、ここではボルツマンマシンで
実現したものとする。両端がオンになったノード間のコ
ネクションをアクティブなコネクションというが、ボル
ツマンマシンとは一言で言えば、アクティブなコネクシ
ョンの持つウエイトの総和が最大になるように遷移する
神経回路網のことである。アクティブなコネクションの
持つウエイトの総和のことをコンセンサスと呼ぶ。すな
わち、ボルツマンマシンとは、コンセンサスを最大とす
る挙動を持つ神経回路網である。ボルツマンマシン自体
は既存の技術で構成可能なため、ここでは再述はしな
い。
Various methods can be considered as a neural network for realizing the present invention, but here, it is assumed that the method is realized by a Boltzmann machine. The connection between the nodes whose both ends are turned on is called an active connection. In short, the Boltzmann machine is a neural network that makes transitions so that the total sum of weights of active connections is maximized. .. The sum of weights of active connections is called consensus. That is, the Boltzmann machine is a neural network having behavior that maximizes consensus. The Boltzmann machine itself can be configured with existing technology, so it will not be described again here.

【0010】図1において、神経回路網は入力ノード
1,2,3,4,5、出力ノード6,7,8,9,1
0,ペナルティノード30、入力と出力ノード間を結ぶ
線分は入力と出力ノード間のコネクション20などで構
成されている。この神経回路網の挙動を例で説明する。
今、仮に入力パターンが[0,1,0,1,1]であっ
たとする。すると入力ノード1,2,3,4,5は入力
パターンどおりに固定され、やはり[0,1,0,1,
1]のようになる。図1において、黒丸は値「1」つま
りオンの状態、白丸は値「0」つまりオフの状態を持つ
ノードを表す。入力ノード2,4,5がオンになってい
るのはこのためである。
In FIG. 1, the neural network has input nodes 1, 2, 3, 4, 5 and output nodes 6, 7, 8, 9, 1.
0, a penalty node 30, and a line segment connecting the input and output nodes includes a connection 20 between the input and output nodes. The behavior of this neural network will be described as an example.
Now, suppose that the input pattern is [0,1,0,1,1]. Then, the input nodes 1, 2, 3, 4, 5 are fixed according to the input pattern, and also [0, 1, 0, 1,
1]. In FIG. 1, black circles represent nodes having a value “1”, that is, an on state, and white circles represent nodes having a value “0”, that is, an off state. This is why the input nodes 2, 4 and 5 are on.

【0011】これに対し、出力ノード6,7,8,9,
10はそれ自身の性質のため、次のような挙動を示す。
すなわち、値「1」の入力ノード2,4,5に対応する
出力ノード7,9,10はやはり値「1」に固定される
が、値「0」の入力ノード1,3に対応する出力ノード
6,8の値はこの時点ではまだ「0」である。しかし、
その後の遷移によってオンになる可能性もある。
On the other hand, the output nodes 6, 7, 8, 9,
10 exhibits the following behavior due to its own property.
That is, the output nodes 7, 9 and 10 corresponding to the input nodes 2, 4 and 5 having the value "1" are also fixed to the value "1", but the output nodes corresponding to the input nodes 1 and 3 having the value "0" are output. The values of the nodes 6 and 8 are still “0” at this point. But,
It may be turned on by a subsequent transition.

【0012】出力ノード6,7,8,9,10にはペナ
ルティノード30が接続されている。ペナルティノード
30は任意の制限数を持つことができ、その制限数を越
えるとペナルティノード30はオンになる性質を持って
いる。通常ペナルティノード30と出力ノード6,7,
8,9,10間のコネクションには大きなマイナスのウ
エイトが与えられている。もし、オンの出力ノードの数
が制限数を越え、ペナルティノード30がオンになる
と、ペナルティノード30とオンになった出力ノード間
のコネクションがアクティブとなり、大きなペナルティ
がコンセンサスに加算されてしまう。そのため、出力ノ
ードのうち、オンになるノードの数は制限数を越えるこ
とがない。この例では、制限数を4とすれば、出力ノー
ドでオンになるノードの数は4を越えない。
A penalty node 30 is connected to the output nodes 6, 7, 8, 9, and 10. The penalty node 30 can have an arbitrary limit number, and when the limit number is exceeded, the penalty node 30 has a property of turning on. Normal penalty node 30 and output nodes 6, 7,
A large negative weight is given to the connection between 8, 9 and 10. If the number of output nodes that are on exceeds the limit number and the penalty node 30 is turned on, the connection between the penalty node 30 and the output nodes that are turned on becomes active, and a large penalty is added to the consensus. Therefore, the number of output nodes that are turned on does not exceed the limit. In this example, if the limit number is 4, the number of nodes turned on at the output node does not exceed 4.

【0013】しかし、実際には入力ノードと出力ノード
を結ぶコネクションは正のウエイトを持つので遷移の結
果オンになる出力ノードの数は制限数(この例では4)
に等しくなる。この例では、出力ノード7,9,10が
入力ノードに対応してオンになっているので、残る6ま
たは8のどれかがオンに遷移する。この例で言えば、出
力ノード6と8がオンになろうと「競争」することにな
るので競争型神経回路網と呼ばれる。競争型神経回路網
は原理的に類似の入力に対して共通の出力をする傾向が
あり、グループ化の能力を持っている。本発明はこのグ
ループ化の能力を利用したものである。
However, since the connection connecting the input node and the output node has a positive weight, the number of output nodes that are turned on as a result of the transition is limited (4 in this example).
Is equal to In this example, since the output nodes 7, 9 and 10 are turned on corresponding to the input nodes, any of the remaining 6 or 8 is turned on. In this example, the output nodes 6 and 8 are "competing" when they are turned on, and are therefore called competitive neural networks. Competitive neural networks tend to give common outputs to similar inputs in principle, and have a grouping ability. The present invention takes advantage of this grouping capability.

【0014】図2はこの神経回路網の学習フェーズのア
ルゴリズムを示すフローチャートである。ステップ10
1で入力パターンを一つ入力層にセットし、ステップ1
02ではオンの入力ノードに対応した出力ノードをオン
に固定する。ステップ103では、固定されていない出
力ノードの中から、制限数の許す数だけの出力ノードが
オンに遷移する。ステップ104では、オンになった出
力ノード、つまり勝者に接続するコネクションのウエイ
トを、勝者はより勝ち易くなるように更新する。ステッ
プ105では別の入力パターンがあれば別の入力パター
ンを選び、同様の処理を繰り返す。ステップ106で、
学習が十分定着するまで、以上の処理を繰り返す。
FIG. 2 is a flowchart showing the algorithm of the learning phase of this neural network. Step 10
In step 1, set one input pattern in the input layer, then step 1
In 02, the output node corresponding to the ON input node is fixed to ON. In step 103, as many output nodes as the limit number allows are turned on from the output nodes that are not fixed. In step 104, the weight of the connection that connects to the output node that has been turned on, that is, the winner, is updated so that the winner is more likely to win. In step 105, if there is another input pattern, another input pattern is selected and the same processing is repeated. In step 106,
The above processing is repeated until learning is firmly established.

【0015】図3にこの神経回路網の連想フェーズのア
ルゴリズムを示す。上に述べた学習フェーズによりウエ
イトの更新された神経回路網に対し、学習フェーズと同
様ステップ201において各入力パターンを入力層にセ
ットし、ステップ202にてオン状態の入力ノードに対
応した出力ノードをオンに固定する。ステップ203に
て、学習フェーズで得られたコネクションのウエイトに
基づいて、勝者(オンとなるノード)が決定される。連
想フェーズでは当然ウエイトの更新はせず、ステップ2
04にて入力パターンがまだ存在すれば、同様の処理を
繰り返してその入力パターンに対応する出力パターンを
得る。
FIG. 3 shows an algorithm of the association phase of this neural network. For the neural network whose weight is updated in the learning phase described above, each input pattern is set in the input layer in step 201 as in the learning phase, and the output node corresponding to the input node in the ON state is set in step 202. Lock on. In step 203, a winner (a node to be turned on) is determined based on the weight of the connection obtained in the learning phase. Of course, the weight is not updated in the associative phase.
If the input pattern still exists at 04, the same processing is repeated to obtain the output pattern corresponding to the input pattern.

【0016】この神経回路網の出力の例を図4の入出力
パターン対応図によって説明する。図4は、左の欄に示
す4つの入力パターンを与え、学習フェーズにてコネク
ションのウエイトを更新した後、連想フェーズにて得ら
れた出力パターンを右辺に示したものである。制限数は
4と仮定する。これより明らかなように、入力パターン
1及び4が同じ出力パターンを出力し、入力パターン2
及び3は別の同じ出力パターンを出力している。即ち、
入力パターン1,4は同じグループに、また入力パター
ン2,3はまた別の同じグループに分類されたと考えら
れる。
An example of the output of this neural network will be described with reference to the input / output pattern correspondence diagram of FIG. FIG. 4 shows the output pattern obtained in the associative phase after the four input patterns shown in the left column are given and the weight of the connection is updated in the learning phase on the right side. The limit number is assumed to be 4. As is clear from this, the input patterns 1 and 4 output the same output pattern, and the input pattern 2
And 3 output another same output pattern. That is,
It is considered that the input patterns 1 and 4 are classified into the same group, and the input patterns 2 and 3 are classified into another same group.

【0017】図5が第2の発明の部品割付決定装置の一
実施例を示す動作例図である。左の欄が各プリント基板
の部品構成を表し、例えばプリント基板1は部品1,
2,3が実装されることを意味する。そしてここで考え
ているプリント基板組立機械は4つの部品フィーダーを
持っているものとする。そして、各プリント基板の部品
構成を入力パターンと考えて、第1の発明の神経回路網
に入力する。するとこのパターンは図4に与えたものと
同様であるので、学習フェーズを経て連想フェーズにお
いて図4の出力パターンと同じ結果が出力される。しか
るに、この出力パターンは組立機械の部品割付に対応し
ているので、プリント基板1と4は同じ部品割付、すな
わち部品1,2,3,4がセットされている状態で組み
立てるのがよいという結論になる。同様にプリント基板
2と3は部品1,2,4,5がセットされている状態で
組み立てるのがよいという結論になる。従って図5の右
の欄を得る。今、同じ部品割付で組み立てられるプリン
ト基板のグループを考え、部品割付の結果できたグルー
プの数が少なければ少ないほどよい部品割付と考えると
する。この競争型神経回路網による部品割付は、この意
味で必ずしも最適なものとは限らないが、競争型神経回
路網の性質として、類似の入力パターンはなるべく同一
の出力パターンにまとまる傾向を持つため、準最適の結
果を得ることができる。
FIG. 5 is an operation example diagram showing an embodiment of the parts allocation determination device of the second invention. The left column shows the component configuration of each printed circuit board.
It means that a few will be implemented. The printed circuit board assembling machine considered here has four component feeders. Then, the component configuration of each printed circuit board is considered as an input pattern and input to the neural network of the first invention. Then, since this pattern is similar to that given in FIG. 4, the same result as the output pattern of FIG. 4 is output in the association phase after the learning phase. However, since this output pattern corresponds to the component allocation of the assembly machine, it is better to assemble the printed circuit boards 1 and 4 with the same component allocation, that is, with the components 1, 2, 3, 4 set. become. Similarly, it is concluded that the printed boards 2 and 3 should be assembled with the components 1, 2, 4, and 5 set. Therefore, the right column of FIG. 5 is obtained. Now, consider a group of printed circuit boards assembled by the same component allocation, and consider that the smaller the number of groups resulting from component allocation, the better the component allocation. In this sense, component allocation by the competitive neural network is not necessarily optimal, but as a property of the competitive neural network, similar input patterns tend to be grouped into the same output pattern as much as possible. Suboptimal results can be obtained.

【0018】[0018]

【発明の効果】以上説明したように、本発明の競争型神
経回路網による部品割付決定装置を用いることにより、
従来の人間の経験に基づいたヒューリスティックスによ
る方法では難しかった準最適な部品割付を容易に得るこ
とができる。また、コンピュータプログラムを作成する
必要がないため、プログラムの知識のない人でも容易に
使用することができ、特殊なプログラムを開発する費用
も時間もかからない。
As described above, by using the device allocation determining device by the competitive neural network of the present invention,
It is possible to easily obtain sub-optimal component allocation, which was difficult with the conventional heuristic method based on human experience. In addition, since it is not necessary to create a computer program, it can be easily used by a person who does not have knowledge of the program, and the cost and time for developing a special program are low.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1の発明の競争型神経回路網の一実施例を示
す構成図である。
FIG. 1 is a configuration diagram showing an embodiment of a competitive neural network of a first invention.

【図2】第1の発明の競争型神経回路網の学習フェーズ
のアルゴリズムを示すフローチャートである。
FIG. 2 is a flowchart showing an algorithm of a learning phase of the competitive neural network of the first invention.

【図3】第1の発明の競争型神経回路網の連想フェーズ
のアルゴリズムを示すフローチャートである。
FIG. 3 is a flowchart showing an algorithm of an associative phase of the competitive neural network of the first invention.

【図4】第1の発明の競争型神経回路網の入出力パター
ン対応図である。
FIG. 4 is an input / output pattern correspondence diagram of the competitive neural network of the first invention.

【図5】第2の発明の部品割付決定装置の一実施例を示
す動作例図である。
FIG. 5 is an operation example diagram showing an embodiment of a parts allocation determination device of the second invention.

【符号の説明】[Explanation of symbols]

1,2,3,4,5 入力ノード 6,7,8,9,10 出力ノード 20 コネクション 30 ペナルティノード 1,2,3,4,5 Input node 6,7,8,9,10 Output node 20 Connection 30 Penalty node

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 それぞれ同数のノードを持つ入力層と出
力層から成る二層型の神経回路網において、 オン状態の入力ノードに対応する出力ノードがオン状態
に固定されるよう挙動する出力ノードと、 任意の制限数を保持し、全ての出力ノードに接続するこ
とにより出力層内でのオン状態のノードの数を一定の制
限数以下にできるペナルティノードを設けることを特徴
とする競争型神経回路網。
1. In a two-layer type neural network consisting of an input layer and an output layer each having the same number of nodes, an output node that behaves such that an output node corresponding to an input node in the ON state is fixed in the ON state. , Competitive neural network characterized by providing a penalty node that holds an arbitrary limit number and is connected to all output nodes so that the number of nodes in the ON state in the output layer can be kept below a certain limit number network.
【請求項2】 請求項1記載の競争型神経回路網の入力
ノードから複数種のプリント基板の部品構成に対応さ
せ、制限数を組立機械の最大取付可能部品種類数に対応
させ、出力ノードを前記プリント基板を組み立てる機械
の部品割付に対応させることを特徴とする部品割付決定
装置。
2. The input node of the competitive neural network according to claim 1 is made to correspond to the component configuration of a plurality of types of printed circuit boards, the limit number is made to correspond to the maximum attachable component type number of the assembly machine, and the output node is set to A parts allocation determining device, which is adapted to parts allocation of a machine for assembling the printed circuit board.
JP5207092A 1992-03-11 1992-03-11 Parts allocation determination device Withdrawn JPH05257918A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5207092A JPH05257918A (en) 1992-03-11 1992-03-11 Parts allocation determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5207092A JPH05257918A (en) 1992-03-11 1992-03-11 Parts allocation determination device

Publications (1)

Publication Number Publication Date
JPH05257918A true JPH05257918A (en) 1993-10-08

Family

ID=12904564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5207092A Withdrawn JPH05257918A (en) 1992-03-11 1992-03-11 Parts allocation determination device

Country Status (1)

Country Link
JP (1) JPH05257918A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014041640A1 (en) * 2012-09-12 2014-03-20 富士機械製造株式会社 Production-sequence-optimizing method and production-sequence-optimizing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014041640A1 (en) * 2012-09-12 2014-03-20 富士機械製造株式会社 Production-sequence-optimizing method and production-sequence-optimizing system
JP5955971B2 (en) * 2012-09-12 2016-07-20 富士機械製造株式会社 Production sequence optimization method and production sequence optimization system

Similar Documents

Publication Publication Date Title
Koza et al. Genetic programming as a Darwinian invention machine
Koza et al. Automated synthesis of analog electrical circuits by means of genetic programming
US5016204A (en) Expert system for performing diagnostic and redesign operations incorporating multiple levels of simulation detail
Funabiki et al. A neural network model for finding a near-maximum clique
Takefuji et al. Neural computing for optimization and combinatorics
Anderson et al. Reinforcement learning with modular neural networks for control
Koza et al. Genetic programming: Biologically inspired computation that creatively solves non-trivial problems
JPH05257918A (en) Parts allocation determination device
Tsuchiya et al. A new heuristic algorithm based on GAs for multiprocessor scheduling with task duplication
Takadama et al. Multiagent reinforcement learning with organizational-learning oriented classifier system
CN115204079A (en) Logic partitioning method, system, equipment and storage medium of digital circuit
Schroeder et al. Product development strategies for high-tech industries
EP0310003B1 (en) Element checking system for use in forward inference system
Koza et al. Searching for the impossible using genetic programming
Xie Perturbation analysis of stochastic Petri nets
Drechsler et al. Decision diagrams and AND/OR graphs for design automation problems
JPH0793156A (en) Production system
US5506935A (en) Fuzzy inference apparatus
JP2785443B2 (en) Parallel circuit simulation device
EP0450890A2 (en) Neural network processing method and apparatus
JPH0883261A (en) Neuro arithmetic unit
JP3006140B2 (en) Automatic wiring method
Barua et al. CHOFIL: A knowledge based approach to active biquad synthesis
Umeyama et al. New processor interconnection strategies for a large multi-processor system
Tang et al. A practical and efficient approach to the constrained via minimization problem

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990518