JPH075235B2 - Elevator group management control device - Google Patents

Elevator group management control device

Info

Publication number
JPH075235B2
JPH075235B2 JP63105633A JP10563388A JPH075235B2 JP H075235 B2 JPH075235 B2 JP H075235B2 JP 63105633 A JP63105633 A JP 63105633A JP 10563388 A JP10563388 A JP 10563388A JP H075235 B2 JPH075235 B2 JP H075235B2
Authority
JP
Japan
Prior art keywords
unit
layer
learning
neural net
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63105633A
Other languages
Japanese (ja)
Other versions
JPH01275381A (en
Inventor
マルコン・シャンドル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitec Co Ltd
Original Assignee
Fujitec Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitec Co Ltd filed Critical Fujitec Co Ltd
Priority to JP63105633A priority Critical patent/JPH075235B2/en
Publication of JPH01275381A publication Critical patent/JPH01275381A/en
Publication of JPH075235B2 publication Critical patent/JPH075235B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Elevator Control (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、複数台のエレベータが並設されている場合
において、乗場呼びを最適なエレベータに割当てるのに
有効なエレベータの群管理制御装置に関するものであ
る。
Description: TECHNICAL FIELD The present invention relates to an elevator group supervisory control device effective for assigning a hall call to an optimal elevator when a plurality of elevators are installed in parallel. It is a thing.

〔従来の技術及び発明が解決しようとする課題〕[Problems to be Solved by Prior Art and Invention]

現在のエレベータにおいて、群管理制御の主流をなすの
は評価関数を使用した割当て制御である。
In the current elevators, the mainstream of group management control is allocation control using an evaluation function.

これは、例えば乗場呼びが発生するごとにその呼びをど
のかごに割当てるのが最適であるかを、予測待時間等の
種々の評価指標に対する所定の評価関数を用いて各かご
毎に数値計算し、その値の最も大きいかごまたは最も小
さいかごに割当てるもので、評価指標を適切に選び評価
関数を工夫することで高度な制御を行うことができる。
This is to calculate, for example, which car is best assigned to each call when a hall call occurs, by numerically calculating for each car using a predetermined evaluation function for various evaluation indexes such as estimated waiting time. , Is assigned to the car with the largest value or the car with the smallest value, and advanced control can be performed by appropriately selecting the evaluation index and devising the evaluation function.

一方、最近ではより高度な制御を行うため、ファジー理
論を用いたエキスパートシステムによる呼び割当て制御
が提案されている。
On the other hand, in recent years, call assignment control by an expert system using fuzzy theory has been proposed in order to perform more advanced control.

これは種々の評価指標をファジー量としてとらえ、適切
な割当方法をIF−THEN形式で記述したルール群を用い
て、そのルール群に対する適合度から最適なかごを選択
し割当てる方法で、これによるとエキスパートの知識を
制御に組み込むことが容易となり、ビルの特徴に合わせ
たきめこまかな制御を実現することができる。
This is a method of recognizing various evaluation indexes as fuzzy quantities, using a rule group that describes an appropriate allocation method in IF-THEN format, and selecting and assigning an optimal car from the goodness of fit to the rule group. It becomes easy to incorporate the expert's knowledge into the control, and it is possible to realize detailed control according to the characteristics of the building.

ところで、上記の何れの方法においても当然のことなが
ら、割当てアルゴリズム(評価式または評価ルール)は
人間が考えて作成していた。すなわちこれらの方法は、
評価指標として予測待時間や長待ち発生確率,予報はず
れ率など、どのような指標を用いればよいかを検討し、
さらに各指標の優先度(重要度)を考慮して評価式や評
価ルールを決定している。このため、複雑な交通パター
ンや変動する交通需要にも対応できるようにしようとす
ると、評価式や評価ルールは複雑となる一方であり、よ
り一層の精度の向上を目指してより複雑な評価式や評価
ルールを開発しようとしても、人間の能力にはどうして
も限界があり、また可能であったとしても非常に困難で
ある。
By the way, as a matter of course, in any of the above-described methods, the assignment algorithm (evaluation formula or evaluation rule) is created by a human being. That is, these methods
Examine what kind of index should be used as an evaluation index, such as predicted waiting time, long wait occurrence probability, forecast outage rate, etc.
Furthermore, the evaluation formula and evaluation rules are determined in consideration of the priority (importance) of each index. For this reason, when trying to cope with complicated traffic patterns and fluctuating traffic demands, evaluation formulas and evaluation rules are becoming more complex, and more complex evaluation formulas and evaluation rules are being aimed at in order to further improve accuracy. Even if we try to develop evaluation rules, human ability is inevitably limited, and if possible, it is very difficult.

本願はこうした点に鑑みてなされたもので、割当てアル
ゴリズムを人間が一切考える必要はなく、しかも各種の
交通状況に対応して結果的には最適な割当てかごを決定
する判断システムを自動的に生成することのできる、従
来とは全く異なる新しいエレベータの群管理装置を提供
することを目的とする。
The present application has been made in view of these points, and it is not necessary for humans to consider the allocation algorithm at all, and moreover, a determination system for automatically determining an optimal allocation car according to various traffic situations is automatically generated. It is an object of the present invention to provide a new elevator group management device that is completely different from the conventional one.

〔課題を解決するための手段〕[Means for Solving the Problems]

本発明の特徴は、割当て制御にニューラル・ネット(詳
細後述)を応用したことである。
A feature of the present invention is that a neural net (described later in detail) is applied to allocation control.

すなわち本発明は、乗場呼び及び各かごの状態等からニ
ューラル・ネットへの入力パターンを演算する手段と、
該入力パターンによりニューラル・ネットの演算を行う
手段と、ニューラル・ネットの演算結果により割当ての
判定を行う手段とを備えたことを特徴とする。
That is, the present invention is a means for calculating an input pattern to the neural net from the hall call and the state of each car,
It is characterized in that it is provided with a means for calculating a neural net according to the input pattern and a means for judging an allocation based on the calculation result of the neural net.

更に、ニューラル・ネットを入力層と中間第1層,中間
第2層,出力層で構成し、入力層と中間第1層の各ユニ
ットの接続は、各号機毎に自号機に関するユニット同志
のみを相互に接続し、中間第1層と中間第2層の各ユニ
ットの接続は、自号機に関するユニットと他号機に関す
るユニットをも相互に接続する構成として、また、各号
機の接続構成と重みの設定を対称的として、演算処理の
効率化と精度の向上を図っている。
Furthermore, the neural net is composed of an input layer, an intermediate first layer, an intermediate second layer, and an output layer, and the units of the input layer and the intermediate first layer are connected to each other only for each unit related to its own unit. The units of the intermediate first layer and the intermediate second layer are connected to each other so that the units related to the own machine and the units related to other machines are also connected to each other, and the connection structure and weight setting of each machine Is symmetrical to improve the efficiency and accuracy of arithmetic processing.

〔実施例〕〔Example〕

以下、本発明の一実施例について説明するが、まずニュ
ーラル・ネットについて簡単に説明する。
An embodiment of the present invention will be described below. First, a neural network will be briefly described.

ニューラル・ネットとは、人間の脳を真似たネットワー
クで、脳のニューロン(神経細胞)に対応したユニット
が複数個,複雑に接合し合ったもので、各ユニットの動
作およびユニット間の接続形態をうまく決めることで、
パターン認識機能や知識処理機能を埋め込むことがで
き、例えば「日経エレクトロニクス」1987年8月10日号
(No.427)のP115〜P124などに紹介されている。
A neural network is a network that imitates the human brain, in which multiple units corresponding to neurons (nerve cells) in the brain are joined intricately, and the operation of each unit and the connection form between units are By making good decisions,
A pattern recognition function and a knowledge processing function can be embedded, and they are introduced, for example, in "Nikkei Electronics," August 10, 1987 issue (No. 427), P115 to P124.

まずニューロンをモデル化したユニットの構造を第7図
に示す。ユニットUiは他のユニットからの入力Qjの総和
を一定の規則で変換し、Qiとするが、他のユニットとの
結合部にはそれぞれ可変の重みWijが付いている。この
重みは各ユニット間の結合の強さを表わすためのもの
で、この値を変えると接続を変えなくても実質的にネッ
トワークの構造が変わることになる。後述のネットワー
クの学習とはこの値を変えることであって、重みWijは
正,ゼロ,負の値をとる。ゼロは結合のないことを表わ
す。
First, FIG. 7 shows the structure of a unit that models a neuron. The unit Ui transforms the total sum of the input Qj from other units according to a certain rule to obtain Qi, and the joints with other units have variable weights Wij respectively. This weight is for expressing the strength of the coupling between each unit, and if this value is changed, the structure of the network will be substantially changed without changing the connection. The learning of the network described later is to change this value, and the weight Wij takes positive, zero, and negative values. Zero means no bond.

あるユニットが複数ユニットから入力を受けた場合、そ
の入力の総和をNETで表わすとすると、ユニットUiの入
力の総和は、 である。
When a unit receives inputs from multiple units, if the sum of the inputs is represented by NET, the sum of the inputs of unit Ui is Is.

各ユニットはこの入力の総和NETを関数fに適用し、次
式に示すように出力Qiに変換する。
Each unit applies the sum NET of this input to the function f and converts it into the output Qi as shown in the following equation.

この関数fは各ユニットごとに違ってよいが、一般には
第8図(a)に示したしきい値関数又は第8図(b)に
示したsigmoid関数を使う。
This function f may be different for each unit, but generally the threshold function shown in FIG. 8 (a) or the sigmoid function shown in FIG. 8 (b) is used.

このsigmoid関数は、微分可能な疑似線形関数で、 で表せる。値域は0〜1で、入力値が大きくなるにつれ
1に、小さくなるにつれ0に近づく。入力が0のときは
0.5となる。しきい値θ(バイアス)を加えて、 とする場合もある。
This sigmoid function is a differentiable pseudo-linear function, Can be expressed as The value range is 0 to 1, and approaches 1 as the input value increases and approaches 0 as the input value decreases. When the input is 0
It becomes 0.5. Add a threshold θ (bias), In some cases.

第9図は、ネットワークの構造の一例を示す図で、ユニ
ット間の結合部の重みは図示を省略している。
FIG. 9 is a diagram showing an example of the structure of the network, and the illustration of the weight of the connecting portion between the units is omitted.

ニューラル・ネットは、ネットワークの構造からパター
ン連想型と自動連想型に分類されるが、本発明にはパタ
ーン連想型を用いる。パターン連想型とは、入力パター
ンをある出力パターンに変換するネットワークで、第9
図のように各ユニットを入力層,中間層,出力層に階層
化している。各ユニットは入力層から出力層に向けて接
続されるが、各層内のユニット同士は接続しない。ま
た、入力ユニットと出力ユニットは独立している。
The neural network is classified into a pattern associative type and an automatic associative type according to the structure of the network, and the pattern associative type is used in the present invention. The pattern associative type is a network that converts an input pattern into a certain output pattern.
As shown in the figure, each unit is hierarchized into an input layer, middle layer, and output layer. Each unit is connected from the input layer to the output layer, but the units in each layer are not connected. Moreover, the input unit and the output unit are independent.

このようなニューラル・ネットにおいて、入力層の各ユ
ニットに入力データを与えるとこの信号は各ユニットで
変換され、中間層に伝わり、最後に出力層から出てくる
が、望ましい出力を得るためには各ユニット間の結合の
強弱すなわち重みを適切な値に設定する必要がある。こ
の重みの設定は、ネットワークを次のように学習させる
ことによって行う。
In such a neural net, when input data is given to each unit of the input layer, this signal is converted by each unit, transmitted to the intermediate layer, and finally comes out from the output layer. It is necessary to set the strength of coupling between the units, that is, the weight, to an appropriate value. The weight is set by learning the network as follows.

まず最初は、すべての重みをランダムに設定しておき、
入力層の各ユニットに学習用の入力データ(予め望まし
い出力の分っているデータ)を与える。そしてこのとき
出力層の各ユニットから出てきた出力値と望ましい出力
値を比べ、その差(誤差)を減らすように各重みの値を
修正する。そしてこれを多数の学習データを用いて誤差
が収束するまで繰り返す。この誤差の値から各重みの値
を修正する学習アルゴリズムについては後述する。
First of all, set all weights randomly,
Input data for learning (data in which desired output is known in advance) is given to each unit in the input layer. Then, at this time, the output value output from each unit of the output layer is compared with the desired output value, and the value of each weight is corrected so as to reduce the difference (error). Then, this is repeated using a large number of learning data until the error converges. A learning algorithm for correcting each weight value from this error value will be described later.

こうして学習を終了すると、ニューラル・ネット内に知
識処理機能が自動的に埋め込まれたことになり、学習用
のデータだけでなく未知の入力データに対しても常に望
ましい出力が得られるようになる。
When the learning is completed in this way, the knowledge processing function is automatically embedded in the neural net, and the desired output can be always obtained not only for the learning data but also for the unknown input data.

本発明はこのニューラル・ネットをエレベータの割当て
制御に利用する。なお、ニューラル・ネットは各ユニッ
トを増幅器や抵抗を用いて構成しLSI化することも可能
であるが、ソフトウェアで仮想的なニューラル・ネット
を構成してすべて演算で処理することもでき、以下の実
施例ではソフトウェアで実現する場合について説明す
る。
The present invention utilizes this neural net for elevator allocation control. Note that the neural net can be configured as an LSI by configuring each unit using an amplifier and a resistor, but it is also possible to configure a virtual neural net by software and process all by arithmetic operations. In the embodiment, a case of realizing with software will be described.

第1図は本発明の全体の構成を一実施例を示す図で、こ
こでは説明の便宜上、制御対象エレベータが1号機〜3
号機の3台とするが、勿論何台の場合でも本発明を同様
に適用することができる。
FIG. 1 is a diagram showing an embodiment of the entire configuration of the present invention. Here, for convenience of explanation, the elevators to be controlled are Nos. 1 to 3
The number of units is three, but the present invention can be similarly applied to any number of units.

第1図において、1は各階に設けられた乗場呼び釦(1
つの階床のみを図示し、他は省略している)、2は乗場
呼び信号、3Aは1号機の運行を管理する運行制御装置、
同様に3Bと3Cはそれぞれ2号機と3号機の運行を管理す
る運行制御装置、4は各かごの状態(かご位置,方向,
停止,走行,戸開閉状態,かご呼び,荷重等)を表わす
かご情報信号、5は郡管理装置として割当ての機能を果
たすためのマイクロコンピュータで、入出力インターフ
ェイス6を介して読み込んだ乗場呼び信号2及びかご情
報信号4のデータを基に、新たな乗場呼びが発生した時
点における交通状況をニューラル・ネットへの入力パタ
ーンとして変換する入力パターン演算手段7としての機
能と、この入力パターンから各層における各ユニットの
出力を順次演算するニューラル・ネット演算手段8とし
ての機能、出力層の各ユニットの出力の値からどの号機
が最適であるかを判定し割当てる割当て判定手段9とし
ての機能を備え、その割当て結果を入出力インターフェ
イス6を介し、割当て信号10として出力する。各運行制
御装置3A〜3Cは、この割当て信号10によって割当てられ
た乗場呼びと、自号機に登録されたかご呼びに順次応答
するようにかごの運行を制御する。
In FIG. 1, 1 is a hall call button (1
Only one floor is shown, the others are omitted) 2 is a landing call signal, 3A is an operation control device that manages the operation of Unit 1,
Similarly, 3B and 3C are operation control devices that manage the operation of Units 2 and 3, respectively, and 4 is the state of each car (car position, direction,
A car information signal indicating stop, traveling, door open / closed state, car call, load, etc.) 5 is a microcomputer for performing a function of allocation as a county management device, and a hall call signal 2 read through the input / output interface 6 Based on the data of the car information signal 4, the function as the input pattern calculation means 7 for converting the traffic situation at the time when a new hall call is generated as an input pattern to the neural network, and the input pattern calculation means 7 for each layer. It has a function as a neural net computing means 8 for sequentially computing the outputs of the units, and a function as an assignment determining means 9 for deciding and allocating which machine is optimal from the output values of the units in the output layer. The result is output as the allocation signal 10 via the input / output interface 6. Each of the operation control devices 3A to 3C controls the operation of the car so as to sequentially respond to the hall call assigned by the assignment signal 10 and the car call registered in its own machine.

第2図は、本発明による割当ての処理手順を示したフロ
ーチャートである。
FIG. 2 is a flow chart showing the processing procedure of allocation according to the present invention.

第2図において、プログラムがスタートするとまず手順
M11で新たに発生した乗場呼びがあるか否かを判断し、
あれば手順M12へと進む。
In Fig. 2, when the program starts, the procedure is
Determine whether there is a new hall call on M11,
If so, proceed to step M12.

手順M12では、各かごの状態(位置,方向他)や乗場呼
びの階,方向等の情報を読み込む。そして手順M13でこ
れらの情報を基に、ニューラル・ネットへの入力パター
ンの各データについて演算する。
In step M12, information about the state of each car (position, direction, etc.), floor, direction of hall call, etc. is read. Then, in step M13, each data of the input pattern to the neural network is calculated based on these information.

入力パターンの各データについての一例を第3図に示
す。入力パターンの各データは、第3図に示すように乗
場呼び信号から新たに発生した乗場呼びの階と方向を、
また各号機のかご情報信号からかご位置や運行方向,荷
重等をそれぞれ入力パターン演算手段7に入力し、次の
ようにして求める。例えば1号機に関する入力パターン
の各データ▲P(1) 1▼〜▲P(1) 4▼は、 ▲P(1) 1▼:新規乗場呼びの階,方向と1号機のかご位
置,運転方向とからその階床差(階床数)を求め、それ
を0〜1の範囲に正規化する。
An example of each data of the input pattern is shown in FIG. As shown in FIG. 3, each data of the input pattern indicates the floor and direction of the hall call newly generated from the hall call signal,
In addition, the car position, the traveling direction, the load, etc. are input to the input pattern calculating means 7 from the car information signals of the respective units, and are calculated as follows. For example, each data ▲ P (1) 1 ▼ to ▲ P (1) 4 ▼ of the input pattern for Unit 1 is ▲ P (1) 1 ▼: Floor and direction of new landing call and car position and driving direction of Unit 1. The floor difference (the number of floors) is obtained from and, and it is normalized in the range of 0 to 1.

▲P(1) 2▼:1号機に割当済みの乗場呼びと1号機のかご
呼びのうち、1号機のかご位置から新規乗場呼びの階の
間に存在する呼びの数をカウントし、それを0〜1の範
囲に正規化する。
▲ P (1) 2 ▼: Of the hall calls assigned to Unit 1 and the car calls of Unit 1, count the number of calls that exist between the car position of Unit 1 and the floor of the new hall call, and count it. Normalize to the range of 0-1.

▲P(1) 3▼:1号機に割当済みの乗場呼びのうち、新規乗
場呼びの階より遠方の呼びの数をカウントし、それを0
〜1の範囲に正規化する。
▲ P (1) 3 ▼: Count the number of calls farther from the floor of the new hall call among the hall calls assigned to Unit 1 and set it to 0.
Normalize to a range of ~ 1.

▲P(1) 4▼:1号機のかご内の荷重を0〜1の範囲に正規
化する。
▲ P (1) 4 ▼: Normalize the load in the car of Unit 1 to the range of 0 to 1.

のようにして求める。To ask.

ここで、0〜1の範囲への正規化は、例えば▲P(1) 1
であれば、 ▲P(1) 4▼であれば、 というように、取りうる最大値で割ることによって求め
ることができる。
Here, the normalization to the range of 0 to 1 is performed by, for example, ▲ P (1) 1
If, ▲ P (1) 4 ▼, It can be obtained by dividing by the maximum possible value.

2号機の入力パターン▲P(2) 1▼〜▲P(2) 4▼と3号機
の入力パターン▲P(3) 1▼〜▲P(3) 4▼も同様にして求
められる。
The input patterns ▲ P (2) 1 ▼ to ▲ P (2) 4 ▼ of the No. 2 machine and the input patterns ▲ P (3) 1 ▼ to ▲ P (3) 4 ▼ of the No. 3 machine are similarly obtained.

こうして得られた入力パターンから、次にニューラル・
ネットの演算を行う。
From the input pattern thus obtained,
Calculate the net.

本発明に適用するニューラル・ネットの構造の一例を第
4図に示す。ここで▲U(1) 1▼〜▲U(1) 4▼,▲U(2) 1
▼〜▲U(2) 4▼,▲U(3) 1▼〜▲U(3) 4▼は入力層の各
ユニットでそれぞれ入力パターンの各データ▲P(1) 1
〜▲P(1) 4▼,▲P(2) 1▼〜▲P(2) 4▼,▲P(3) 1▼〜
▲P(3) 4▼に対応している。また、▲U(1) 5▼,▲U
(1) 6▼〜▲U(3) 5▼,▲U(3) 6▼は中間と第1層のユニ
ット、▲U(1) 7▼,▲U(1) 8▼〜▲U(3) 7▼,▲U(3) 8
▼は中間の第2層のユニット、▲U(1) 9▼,▲U(3) 9
は出力層のユニットで、ユニット▲U(1) 9▼の出力▲Q
(1) 9▼は1号機に、ユニット▲U(2) 9▼の出力▲Q(2) 9
▼は2号機に、ユニット▲U(3) 9▼の出力▲Q(3) 9▼は
3号機にそれぞれ対応している。この例では入力パター
ンの各データは、前述のように0〜1の範囲に正規化さ
れているので入力層の各ユニットは処理を何も行わず、
入力データをそのまま出力するが、入力データとして階
床数や呼び数をそのまま使用し、入力層の各ユニットの
入出力特性で正規化することもできる。中間の各層と出
力層の各ユニットは、ここでは前述の第8図(b)に示
した入出力特性を持つものとする。勿論、前者のように
これにしきい値(バイアス)を加えた特性としてもよ
い。各ユニット間の結合の度合いを表わす重みの値は、
後述のように予め学習によって求められている。従って
入力データの各値が決まれば第4図に示したニューラル
・ネットの出力は演算によって求めることができる。
An example of the structure of the neural network applied to the present invention is shown in FIG. Where ▲ U (1) 1 ▼ to ▲ U (1) 4 ▼, ▲ U (2) 1
▼ to ▲ U (2) 4 ▼, ▲ U (3) 1 ▼ to ▲ U (3) 4 ▼ are each data of the input pattern in each unit of the input layer ▲ P (1) 1
~ ▲ P (1) 4 ▼, ▲ P (2) 1 ▼ ~ ▲ P (2) 4 ▼, ▲ P (3) 1 ▼ ~
It corresponds to ▲ P (3) 4 ▼. Also, ▲ U (1) 5 ▼, ▲ U
(1) 6 ▼ ~ ▲ U (3) 5 ▼, ▲ U (3) 6 ▼ are the middle and first layer units, ▲ U (1) 7 ▼, ▲ U (1) 8 ▼ ~ ▲ U (3 ) 7 ▼, ▲ U (3) 8
▼ is the middle second layer unit, ▲ U (1) 9 ▼, ▲ U (3) 9
Is the unit of the output layer, and the output of the unit ▲ U (1) 9 ▼ Q
(1) 9 ▼ is the first unit, unit ▲ U (2) 9 ▼ output ▲ Q (2) 9
▼ corresponds to Unit 2, and unit ▲ U (3) 9 ▼ output ▲ Q (3) 9 ▼ corresponds to Unit 3. In this example, since each data of the input pattern is normalized to the range of 0 to 1 as described above, each unit of the input layer does not perform any processing,
Although the input data is output as it is, it is possible to use the number of floors and the number of calls as input data as they are and normalize them with the input / output characteristics of each unit in the input layer. It is assumed that each unit in each intermediate layer and each output layer has the input / output characteristics shown in FIG. 8 (b) described above. Of course, it may be a characteristic in which a threshold value (bias) is added to this as in the former case. The value of the weight that indicates the degree of coupling between units is
It is obtained in advance by learning as described later. Therefore, if each value of the input data is determined, the output of the neural net shown in FIG. 4 can be calculated.

まず、入力層の各ユニットはこの例では前述のように入
力データはそのまま出力され、中間第1層の各ユニット
にそれぞれ入力されるので、この入力から中間第1層の
各ユニットの出力を順次演算して求める(第2図の手順
M14)。例えばユニット▲U(1) 5▼の入力の総和をNE▲
(1) 5▼とし、出力を▲Q(1) 5▼とすると、 として計算することができる。ただし、▲W(1) i5▼は
入力層のユニット▲U(1) i▼と中間第1層のユニット▲
(1) 5▼間の重みを表わす。
First, in this example, since each unit of the input layer outputs the input data as it is as described above and is input to each unit of the intermediate first layer, the output of each unit of the intermediate first layer is sequentially output from this input. Calculate and obtain (procedure of Fig. 2
M14). For example, the total sum of the inputs of the unit ▲ U (1) 5 ▼ is NE ▲
If T (1) 5 ▼ and the output is ▲ Q (1) 5 ▼, Can be calculated as However, ▲ W (1) i5 ▼ is the unit of the input layer ▲ U (1) i ▼ and the unit of the intermediate first layer ▲
It represents the weight between U (1) 5 ▼.

こうして中間第1層の各ユニットについて演算を終了す
ると、その各出力が中間第2層の各ユニットへの入力と
なるので、続いて中間第2層の各ユニットについて出力
の演算を行う(手順M15)。
When the calculation is completed for each unit of the intermediate first layer, each output becomes an input to each unit of the intermediate second layer, and therefore, the output is calculated for each unit of the intermediate second layer (procedure M15). ).

同様にして、出力層の各ユニットについて出力をそれぞ
れ演算する(手順M16)。そして各出力ユニットの出力
から最適な号機を選択するのであるが、ここで各重みの
値は、予めそれを設定する学習の過程において、学習用
の入力パターンに対して割当号機に対応する出力ユニッ
トの望ましい出力(出力目標)を1に、他の出力ユニッ
トの望ましい出力を0として、例えばある学習用の入力
パターンに対して1号機に割当てるのが最適と考えられ
る場合には、ユニット▲U(1) 9▼出力目標を1とし、ユ
ニット▲U(2) 9▼と▲U(3) 9▼の出力目標を0として学
習を行い、更に多数の学習用パターンについて誤差が十
分小さくなるまで学習を繰り返した後の重みが設定され
ているので、手順M16の演算の結果、割当ての最適な号
機に対応する出力ユニットの出力が1に最も近くなる。
従って出力▲Q(1) 9▼と▲Q(3) 9▼のうち、最も出力の
大きい値の号機に割当てを決定してもよいが、どの出力
ユニットの出力も所定値(例えば0.5)以下、すなわち
どの号機も割当てに適切でないという結果になる場合も
考えられるので、ここではまず手順M17で各出力ユニッ
トのうち所定値以上のものがあるか否かを判断し、もし
あれば手順M19でその値の最も大きい号機に割当てを決
定し、もし所定値を超えるものがなければ手順M18でバ
ックアップ割当てアルゴリズム(例えば従来の評価関数
による割当て)により再計算を行い、手順M19でその評
価値の最も大きいかまたは最も小さい号機に割当てを決
定するようにしている。
Similarly, the output is calculated for each unit in the output layer (procedure M16). Then, the optimum number is selected from the output of each output unit.Here, the value of each weight is set in advance in the learning process, and the output unit corresponding to the assigned number is assigned to the learning input pattern. If it is considered optimal to allocate the desired output (output target) of No. 1 to the desired output of another output unit and assign it to the No. 1 machine for an input pattern for learning, the unit ▲ U ( 1) Set the output target of 9 ▼ to 1 and set the output target of units ▲ U (2) 9 ▼ and ▲ U (3) 9 ▼ to 0, and learn until the error becomes sufficiently small for many learning patterns. Since the weight after repeating is set, the output of the output unit corresponding to the optimal allocation machine is closest to 1 as a result of the calculation in step M16.
Therefore, of the outputs ▲ Q (1) 9 ▼ and ▲ Q (3) 9 ▼, you may decide to assign the one with the highest output value, but the output of any output unit is below a predetermined value (eg 0.5). In other words, it may be the case that none of the units are appropriate for allocation.Therefore, first, in step M17, it is judged whether or not there is a predetermined value or more in each output unit, and if there is, in step M19. The allocation is determined for the machine with the largest value, and if there is no more than the specified value, recalculation is performed by the backup allocation algorithm (for example, allocation by the conventional evaluation function) in step M18, and the most of the evaluation value is determined in step M19. The allocation is decided to be the largest or the smallest unit.

なお、上記の実施例では入力パターンの各データとして
静的要素のみを用いたが、動的(時間的)な要素、例え
ば各乗場呼びの予測待時間、乗場呼びが発生してからの
経過時間などを取り入れるようにしてもよい。また上記
実施例では入力パターンの各データは各号機別のデータ
であるが、例えば各階の乗場待客数や乗場呼びの発生頻
度等、群全体に共通のデータを入力パターンの1つとし
て加え、それを入力層のユニットから中間層の各ユニッ
トへ接続するようにしてもよい。
In the above embodiment, only static elements are used as each data of the input pattern, but dynamic (temporal) elements such as predicted waiting time of each hall call and elapsed time after the hall call occurs. You may make it take in etc. Further, in the above-mentioned embodiment, each data of the input pattern is data for each machine, but, for example, data common to the entire group such as the number of waiting passengers on each floor and the occurrence frequency of hall calls is added as one of the input patterns, You may make it connect it from the unit of an input layer to each unit of an intermediate | middle layer.

また、ニューラル・ネットのネットワーク構造は第4図
に示したものに限らない(接続,ユニット数とも)が、
第9図に示した一般的なネットワーク構造のように各層
間のユニットをすべて相互に接続するのではなく、第4
図のようにまず入力層と中間の第1層との間では、自号
機の入力データに対応するユニットだけを相互に接続
し、次に中間の第1層と第2層の間で初めて他号機に対
応するユニットととも相互に接続するようにし、また各
号機の接続が対称的になるようにすると、演算回数の節
減と精度の向上とを図ることができる。すなわちエレベ
ータの場合、入力パターンの各データとして性質の全く
異なるものを用いるため、例えば新規呼びと1号機との
階床差に関するデータ▲P(1) 1▼と、2号機の荷重に関
するデータ▲Q(2) 4▼のように、特に他号機の全く性質
の異なるデータを接続してもあまり意味がないと考えら
れるだけでなく、演算回数が増えるだけで却ってノイズ
となる恐れがあるからである。また第4図のような接続
とすることによって、例えば1号機に関する入力データ
のうち何が割当てに重要で何が重要でないかを考えなく
ても、学習の過程で設定された重みによって各入力デー
タの重要度が加味された状態で1号機に関するデータと
してユニット▲U(1) 5▼と▲U(1) 6▼とから出力されて
くることになるので、これを中間の第2層で他号機の対
応する信号と比較することにより、各号機間の相対評価
が、最小限の接続構成で、従って最短の時間でより正確
に行えることになる。また、各号機の状態と割当てとの
関係には対称性がある(例えばある状態において1号機
への割当てが最適であるとすると、同様の状態が2号機
や3号機にも存在するため、各ユニットの接続を各号機
に対して対称的となるようにすることで、各号機に対す
る処理を同様に行うことができ、重みの設定を対称的と
して学習の効率化を図ることもできる。
The network structure of the neural net is not limited to that shown in FIG. 4 (both connection and number of units),
Instead of connecting all the units between layers as in the general network structure shown in FIG.
As shown in the figure, first, between the input layer and the intermediate first layer, only the units corresponding to the input data of the own machine are mutually connected, and then the first and second intermediate layers are not connected to each other. If the units corresponding to the units are connected to each other and the units are connected symmetrically, the number of calculations can be reduced and the accuracy can be improved. That is, in the case of an elevator, since data having completely different properties are used as the input pattern data, for example, data regarding the floor difference between the new call and Unit 1 ▲ P (1) 1 ▼ and data regarding the load of Unit 2 ▲ Q (2) This is because not only is it meaningless to connect data with completely different properties from other units, such as 4 ▼, but it is also possible that noise will occur rather as the number of calculations increases. . In addition, the connection as shown in FIG. 4 allows each input data to be set according to the weight set in the learning process without considering what is important for assignment and what is not important for input data for the first machine. In the state in which the importance of is taken into consideration, data will be output from units ▲ U (1) 5 ▼ and ▲ U (1) 6 ▼ as data related to Unit 1, so this can be output in the second layer in the middle. By comparing with the corresponding signals of the units, the relative evaluation between the units can be performed more accurately with the minimum connection configuration and therefore in the shortest time. Also, there is symmetry in the relationship between the status of each machine and allocation (for example, if allocation to machine 1 is optimal in a certain state, similar conditions exist in machine 2 and machine 3). By making the units connected symmetrically with respect to each machine, the processing for each machine can be performed in the same manner, and the weights can be set symmetrically to improve the efficiency of learning.

次にネットワークの学習について説明する。ニューラル
・ネットの特性は各ユニット間の接続の構成と重みによ
って決定されるが、ここでは接続の構成は固定化されて
いるので、重みの設定を行うことが必要となる。この重
みの設定は、一般的な設定方法として知られているバッ
クプロパゲーションによる学習を利用する。以下、第4
図の構成のニューラル・ネットについて説明する。
Next, network learning will be described. The characteristics of the neural net are determined by the configuration and weight of the connection between each unit, but since the configuration of the connection is fixed here, it is necessary to set the weight. This weight setting uses learning by back propagation known as a general setting method. Below, the fourth
The neural net having the configuration shown in the figure will be described.

まず最初に、各ユニット間の重みの値を適当な値に無作
為に設定しておく。そして学習用のサンプル(入力パタ
ーンと出力目標との組み合わせ)を多数作成し、これを
学習用のコンピューターに読み込ませておく。この学習
用のサンプルは、例えば1号機〜3号機のかご状態と新
規乗場呼びの組み合わせを一つ想定し、この状態では何
号機に割当てるのが最適かを専門家の判断により或いは
シミュレーション等を用いて判断し、1号機が最適であ
ればそのときの入力パターンに対して1号機の出力層の
ユニット▲U(1) 9▼の出力目標を1に、その他の出力層
のユニットの出力目標を0として作成したものである。
そしてこの多数の学習用サンプルを用いて学習を行うの
であるが、その処理手順の一例を第5図のフローチャー
トに示す。
First, the weight values between the units are randomly set to appropriate values. Then, many learning samples (combinations of input patterns and output targets) are created, and these are read into the learning computer. This learning sample assumes, for example, one combination of the car states of Nos. 1 to 3 and a new hall call, and in this state the number of cars to be assigned is best judged by an expert or using a simulation or the like. If the No. 1 unit is optimal, set the output target of the unit in the output layer ▲ U (1) 9 ▼ of the No. 1 unit to 1 for the input pattern at that time, and set the output targets of the other units in the output layer. It was created as 0.
Learning is performed using the large number of learning samples. An example of the processing procedure is shown in the flowchart of FIG.

まずサンプル番号を示すインデックスNを0とし(手順
S11)、次にN=N+1として(手順S12)サンプル番号
1から順次手順S13以下の処理を行う。手順S13では最初
に1番目のサンプルの入力パターンと出力目標とをセッ
トし、手順S14でこの入力パターンに対するニューラル
・ネットの出力を演算する。最初は重みが無作為に設定
されているため、このときの出力層の各ユニットの出力
の値は出力目標とは違った値となるので、この出力目標
と実際の出力との差を誤差として計算する(手順S1
5)。出力層の各ユニットにおける誤差▲E(α)
は、各ユニットの出力目標を▲T(α) ▼とすると ▲E(α) ▼=▲T(α) ▼−▲Q(α) ▼(α
は号機番号) となる。
First, the index N indicating the sample number is set to 0 (procedure
S11), next, N = N + 1 is set (procedure S12), and the processes from step S13 onward are sequentially performed from sample number 1. In step S13, the input pattern and output target of the first sample are first set, and in step S14 the output of the neural net for this input pattern is calculated. Since the weights are set randomly at the beginning, the output value of each unit in the output layer at this time is different from the output target, so the difference between this output target and the actual output is taken as the error. Calculate (Procedure S1
Five). Error in each unit of output layer ▲ E (α) 9
Is the output target of each unit is ▲ T (α) 9 ▼ ▲ E (α) 9 ▼ = ▲ T (α) 9 ▼-▲ Q (α) 9 ▼ (α
Is the machine number).

ニューラル・ネットの演算では、入力データを入力層か
ら出力層へ向けて順次処理するが、重みの修正はこの誤
差を用いて逆に出力層から入力層に向けて行っていく。
In the operation of the neural network, the input data is sequentially processed from the input layer to the output layer, but the correction of the weight is performed from the output layer to the input layer by using the error.

出力の誤差が求まるとこれを用いて、次に中間第2層と
出力層の各ユニット間の重みを修正する(手順S16)。
中間第2層のユニット▲U(α) ▼と出力層のユニッ
ト▲U(α) ▼間の重みを▲W(α) k9▼とすると、
その修正は次のようにして計算する。
When the output error is obtained, it is used to correct the weight between each unit of the intermediate second layer and the output layer (step S16).
If the weight between the unit of the middle second layer ▲ U (α) k ▼ and the unit of the output layer ▲ U (α) 9 ▼ is ▲ W (α) k9 ▼,
The correction is calculated as follows.

Δ▲W(α) k9▼=λ・▲E(α) ▼・▲Q(α)
▼+(1−λ)・Δ′▲W(α) k9▼ ただし Δ▲W(α) k9▼:▲W(α) k9▼の今回の修正量 Δ′▲W(α) k9▼:▲W(α) k9▼の前回の修正量
(最初は0) λ:学習率(定数,例えば0.5) ▲Q(α) ▼:ユニット▲U(α) ▼の出力 である。
Δ ▲ W (α) k9 ▼ = λ ・ ▲ E (α) 9 ▼ ・ ▲ Q (α) 9
▼ + (1-λ) ・ Δ '▲ W (α) k9 Δ ▲ W (α) k9 ▼: ▲ W (α) k9 ▼ current correction amount Δ '▲ W (α) k9 ▼: ▲ W (α) k9 ▼ previous correction amount (initially 0) λ: Learning rate (constant, for example 0.5) ▲ Q (α) k ▼: Output of the unit ▲ U (α) k ▼.

例えばユニット▲U(1) 7▼:とユニット▲U(1) 9▼との
間の重み▲W(1) 79▼の修正後の値 は、 Δ▲W(1) 79▼=λ・▲E(1) 9▼・▲Q(1) 7▼ +(1−λ)・Δ′▲W(1) 79▼ で計算される。
For example, the corrected value of the weight ▲ W (1) 79 ▼ between the unit ▲ U (1) 7 ▼ and the unit ▲ U (1) 9 ▼. Is Δ ▲ W (1) 79 ▼ = λ · ▲ E (1) 9 ▼ · ▲ Q (1) 7 ▼ + (1-λ) · Δ '▲ W (1) 79 ▼.

同様にして、中間第2層と出力層の各ユニット間の重み
の修正を終了すると、次に中間第2層の各ユニットの誤
差を計算し(手順S17)、その誤差を用いて中間第1層
と中間第2層の間の重みを修正する(手順S18)。この
修正は次のようにして計算される。
Similarly, when the correction of the weight between each unit of the intermediate second layer and the output layer is completed, the error of each unit of the intermediate second layer is calculated (procedure S17), and the error is used to calculate the intermediate first layer. The weight between the layer and the intermediate second layer is modified (step S18). This correction is calculated as follows.

中間第2層のユニット▲U(α) ▼は、出力層の誤差
▲E(α) ▼等を用いて、 となる。
The unit ▲ U (α) k ▼ of the intermediate second layer is calculated by using the error ▲ E (α) 9 ▼ of the output layer, Becomes

このときの中間第1層のユニット▲U(α) ▼と中間
第2層のユニット▲U(α) ▼との間に重み▲W
(α) jk▼の修正後の値 Δ▲W(α) jk▼=λ・▲E(α) ▼・▲Q(α)
▼ +(1−λ)・Δ′▲W(α) jk▼ となり、また中間第1層のユニット▲U(β) ▼と中
間第2層のユニット▲U(α) ▼との間の重み▲W
(β,α) jk▼の修正後の値 Δ▲W(β,α) jk▼=λ・▲E(α) ▼・▲Q
(β) ▼ +(1−λ)・Δ′▲W(β,α) jk▼ となる。ただしβはαと同様に号機番号を表わし、α≠
βである。その他の記号は前述と同様である。
At this time, the weight ▲ W is placed between the unit ▲ U (α) j ▼ of the intermediate first layer and the unit ▲ U (α) j ▼ of the intermediate second layer.
(Α) jk ▼ corrected value Is Δ ▲ W (α) jk ▼ = λ ・ ▲ E (α) k ▼ ・ ▲ Q (α) j
▼ + (1-λ) · Δ '▲ W (α) jk ▼, and between the unit of the first intermediate layer ▲ U (β) j ▼ and the unit of the second intermediate layer ▲ U (α) k ▼. Weight ▲ W
The corrected value of (β, α) jk Is Δ ▲ W (β, α) jk ▼ = λ ・ ▲ E (α) k ▼ ・ ▲ Q
(Β) j ▼ + (1-λ) · Δ ′ ▲ W (β, α) jk ▼. However, β represents the machine number like α, and α ≠
β. Other symbols are the same as those described above.

例えばユニット▲U(1) 7▼の誤差▲E(1) 7▼は、 となり、これよりユニット▲U(1) 5▼と▲U(1) 7▼との
間の重み▲W(1) 57▼の修正後の値 Δ▲W(1) 57▼=λ・▲E(1) 7▼・▲Q(1) 5▼ +(1−λ)・Δ′▲W(1) 57▼ また、ユニット▲U(2) 5▼と▲U(1) 7▼との間の重み▲
(2,1) 57▼の修正後の値 Δ▲W(2,1) 57▼=λ・▲E(1) 7▼・▲Q(2) 5▼ +(1−λ)・Δ′▲W(2,1) 57▼ として、それぞれ計算できる。
For example Unit ▲ U (1) 7 ▼ error ▲ E (1) 7 ▼ is From this, the weight value between the units ▲ U (1) 5 ▼ and ▲ U (1) 7 ▼ is the corrected value of ▲ W (1) 57 ▼. Is Δ ▲ W (1) 57 ▼ = λ ・ ▲ E (1) 7 ▼ ・ ▲ Q (1) 5 ▼ + (1-λ) ・ Δ '▲ W (1) 57 ▼ Also, the unit ▲ U (2) Weight between 5 ▼ and ▲ U (1) 7 ▼ ▲
W (2,1) 57 ▼ corrected value Is Calculate as Δ ▲ W (2,1) 57 ▼ = λ ・ ▲ E (1) 7 ▼ ・ ▲ Q (2) 5 ▼ + (1-λ) ・ Δ '▲ W (2,1) 57 ▼ respectively. it can.

同様にして中間第1層と中間第2層の間の重みをすべて
修正すると、次に中間第1層の各ユニットの誤差を計算
し(手順S19)、その値を用いて入力層と中間第1層の
間の重みを修正する(手順S20)。この修正の計算はつ
ぎのように行う。
Similarly, if all the weights between the intermediate first layer and the intermediate second layer are corrected, then the error of each unit of the intermediate first layer is calculated (procedure S19), and that value is used to calculate the error between the input layer and the intermediate layer. The weight between layers is corrected (procedure S20). The calculation of this correction is performed as follows.

中間第1層のユニット▲U(α) ▼の誤差▲E(α)
▼は、 となり、入力層のユニット▲U(α) ▼と中間第1層
のユニット▲U(α) ▼との間の重み▲W(α) ij
の修正後の値 は、 Δ▲W(α) ij▼=のλ・▲E(α) ▼・▲Q(α)
▼ +(1−λ)・Δ′▲W(α) ij▼ となる。
The error ▲ E (α) of the unit ▲ U (α) j ▼ of the intermediate first layer
j ▼ is Next, unit ▲ U of the input layer (alpha) i ▼ and intermediate first layer unit ▲ U (alpha) weight between the j ▼ ▲ W (α) ij
The modified value of Is Δ ▲ W (α) ij ▼ = λ · ▲ E (α) j ▼ · ▲ Q (α)
i ▼ + (1−λ) · Δ ′ ▲ W (α) ij ▼.

例えばユニット▲U(1) 5▼の誤差▲E(1) 5▼は、 となり、これよりユニット▲U(1) 1▼と▲U(1) 5▼との
間の重み▲W(1) 15▼の修正後の値 は、 Δ▲W(1) 15▼=λ・▲E(1) 5▼・▲Q(1) 1▼ +(1−λ)・Δ′▲W(1) 15▼ として計算できる。
For example Unit ▲ U (1) 5 ▼ error ▲ E (1) 5 ▼ is From this, the corrected value of the weight ▲ W (1) 15 ▼ between the units ▲ U (1) 1 ▼ and ▲ U (1) 5 Is It can be calculated as Δ ▲ W (1) 15 ▼ = λ ・ ▲ E (1) 5 ▼ ・ ▲ Q (1) 1 ▼ + (1-λ) ・ Δ '▲ W (1) 15 ▼.

同様にして入力層と中間第1層の間の重みをすべて修正
すると、1番目の学習サンプルによる重みの修正が完了
したことになり、手順S21から手順S12へと戻り、次に2
番目の学習用サンプルについて修正後の重みを用いて上
記手順を繰り返す。こうして予め用意したN個の学習用
サンプルをすべて終了すると、手順S22で出力層の誤差
が十分小さくなったか否かを確認する。誤差が収束して
いなければ手順S11へと戻って再びN個の学習用サンプ
ルによって学習を繰り返し、誤差が収束すると学習を完
了する。
Similarly, if all the weights between the input layer and the intermediate first layer are modified, it means that the modification of the weights by the first learning sample is completed, and the procedure returns from step S21 to step S12, and then 2
The above procedure is repeated for the second learning sample using the corrected weights. When all the N learning samples prepared in this way are completed, it is confirmed in step S22 whether the error in the output layer has become sufficiently small. If the error has not converged, the procedure returns to step S11 to repeat learning with N learning samples again, and when the error has converged, the learning is completed.

そして学習の完了により設定された重みを用いると、前
述のように学習用サンプル以外の入力パターンに対して
も学習用サンプルと同じ判断基準で割当てが行われるこ
とになる。
Then, when the weight set by the completion of learning is used, as described above, the input patterns other than the learning sample are assigned with the same judgment criteria as the learning sample.

次に、この学習による重みの制定を、エレベータに特有
の性質を利用して簡略化する方法について述べる。
Next, a method for simplifying the establishment of the weight by this learning by utilizing the property peculiar to the elevator will be described.

エレベータにおいては、各号機が一般的には対称性を有
するため、例えばエレベータが3台の場合、1号機に割
当てるのが最適なある入力パターンを考えると、この入
力パターンの2号機用の入力データと3号機用の入力デ
ータを入れ替えても、同じく1号機への割当てが最適で
ある。また、この入力パターンの1号機用の入力データ
を2号機用の入力データと入れ替えると2号機に割当て
るのが最適な入力パターンとなり、3号機の入力データ
と入れ替えると3号機に割当てるのが最適な入力パター
ンとなる。すなわちエレベータが3台の場合は1つの入
力パターンに対して6通りの学習用サンプルが考えられ
るので、本来ならばこの6通りの学習用サンプルを1組
とした多数組の学習用サンプルを用いて学習を行う必要
があるが、そのようにして誤差が収束するまで学習を繰
り返すと、最終的に各重みの設定値のうち、各号機のそ
れぞれ同じ接続位置に対応する重みは同じ値になること
が予想される。例えば第4図の例では、▲W(1) 57▼と
▲W(2,1) 57▼とは異なる値となるが、▲W(1) 57▼と
▲W(2) 57▼,▲W(3) 57▼の3つは同じ値となり、ま
た、▲U(1) 15▼と▲U(1) 25▼とは異なる値となるが、
▲U(1) 15▼と▲U(2) 15▼,▲U(3) 15▼の3つは同じ
値となることが予想される。また、▲U(1,2) 57▼と
▲U(2,1) 57▼,或いは▲U(2,3) 68▼と▲U
(3,2) 68▼などもそれぞれ同じ値となると予想され
る。従って、このように最終的に同じ値になると予想さ
れる重みについては、最初から同じ値に設定しておき、
さらに学習の過程においても同じ値として取り扱うこと
によって学習の回数を減らすことができる。
In an elevator, since each car generally has symmetry, for example, in the case of three elevators, considering an input pattern that is best assigned to the first car, the input data for the second car of this input pattern is considered. Even if the input data for Unit 3 and 3 are exchanged, allocation to Unit 1 is also optimal. In addition, if the input data for the No. 1 machine of this input pattern is replaced with the input data for the No. 2 machine, the optimum input pattern will be assigned, and if it is replaced with the input data of the No. 3 machine, it will be optimally allocated to the No. 3 machine. It becomes the input pattern. That is, in the case of three elevators, six kinds of learning samples can be considered for one input pattern. Therefore, originally, a large number of learning samples should be used with the six kinds of learning samples as one set. It is necessary to perform learning, but if learning is repeated until the error converges in this way, the weight corresponding to the same connection position of each machine will eventually become the same value among the setting values of each weight. Is expected. For example, in the example of FIG. 4, ▲ W (1) 57 ▼ and ▲ W (2,1) 57 ▼ are different values, but ▲ W (1) 57 ▼ and ▲ W (2) 57 ▼, ▲ Three of W (3) 57 ▼ have the same value, and ▲ U (1) 15 ▼ and ▲ U (1) 25 ▼ have different values.
It is expected that three of ▲ U (1) 15 ▼, ▲ U (2) 15 ▼, and ▲ U (3) 15 ▼ will have the same value. Also, ▲ U (1,2) 57 ▼ and ▲ U (2,1) 57 ▼, or ▲ U (2,3) 68 ▼ and ▲ U
(3,2) 68 ▼ are expected to have the same value. Therefore, for the weights that are expected to eventually become the same value, set the same value from the beginning,
Further, the number of times of learning can be reduced by treating the same value in the learning process.

例えばユニット▲U(α) ▼と▲U(α) ▼の間の
重み▲W(α) 57▼については、ある1つの学習用サン
プルに対してまず前述の手順で計算した修正量Δ▲W
(1) 57▼,Δ▲W(2) 57▼,Δ▲W(3) 57▼を仮の値と
し、次のこの3つの値の平均値を求めてそれを実際の修
正量として計算すると修正後の は各号機常に同じ値に修正される。また同様に、▲W
(1,2) 57▼と▲W(2,1) 57▼の修正の場合も、それぞ
れの修正量Δ▲W(1,2) 57▼と▲W(2,1) 57▼の平均
値を実際の修正量とすると、▲W(1,2) 57▼と▲W
(2,1) 57▼は常に同じ値に修正されることになる。こ
のようにエレベータの対称性を利用した学習を行うと、
1つの学習用サンプルでこの場合には6通りの学習用ン
プルについて学習したのと同じ効果が得られることにな
り、用意すべき学習サンプル集すなわち学習回数を大幅
に減らすことができる。
For example, regarding the weight ▲ W (α) 57 ▼ between the units ▲ U (α) 5 ▼ and ▲ U (α) 7 ▼, the correction amount Δ first calculated by the above-described procedure for a certain learning sample. ▲ W
If (1) 57 ▼, Δ ▲ W (2) 57 ▼, Δ ▲ W (3) 57 ▼ are used as temporary values, the average of the following three values is calculated and calculated as the actual correction amount. After correction Is always corrected to the same value for each unit. Similarly, ▲ W
(1, 2) 57 ▼ and ▲ W (2,1) in the case of 57 ▼ modifications, each modification amount Δ ▲ W (1,2) 57 ▼ and ▲ W (2,1) 57 ▼ mean value Is the actual correction amount, ▲ W (1,2) 57 ▼ and ▲ W
(2,1) 57 ▼ will always be corrected to the same value. When learning using the symmetry of the elevator in this way,
In this case, one learning sample has the same effect as that obtained by learning about six types of learning samples, and the number of learning sample sets to be prepared, that is, the number of times of learning can be greatly reduced.

次に、学習をオフラインではなくオンラインで、すなわ
ちエレベータシステムの稼動中に行う場合について説明
する。
Next, a case will be described where learning is performed online instead of offline, that is, while the elevator system is operating.

各ビルの交通状況は建物の性質や用途によって異なるた
め、学習をオフラインで行う場合は、各ビルに固有の学
習用サンプルを用意してビル毎に学習を繰り返さねばな
らず、非常に煩雑な作業を強いられることになる。ま
た、オフラインで行った学習の結果により重みの設定を
固定化してしまった場合、テナントの変更などによりビ
ルの交通状況が途中から大きく変わるようなことがある
と、適切な割当てが行われなくなる恐れがある。
Since the traffic conditions in each building differ depending on the nature and use of the building, when learning is done offline, it is necessary to prepare a learning sample specific to each building and repeat learning for each building, which is a very complicated work. Will be forced. In addition, if the weight settings are fixed due to the results of learning conducted offline, and if the traffic conditions of the building change significantly from the middle due to tenant changes etc., appropriate allocation may not be performed. There is.

こうしたオフラインの学習による問題点を解決するため
には、最初に重みの設定を各建物に共通の標準的な学習
用サンプルを用いてオフラインで学習しておき、その後
(エレベータの据付後)、エレベータの稼動中にそのビ
ルに固有の学習用サンプルを作成し、自動的に学習を行
って重みを随時修正していく必要がある。このオンライ
ンによる学習の手順を第6図のフローチャートにより説
明する。
In order to solve the problem caused by the offline learning, the weight setting is first learned offline by using a standard learning sample common to each building, and then (after the elevator is installed), the elevator setting is performed. It is necessary to create a learning sample peculiar to the building during the operation of, and perform learning automatically and correct the weights at any time. This online learning procedure will be described with reference to the flowchart of FIG.

まず最初は、オフラインによる学習で設定された重みに
よってニューラル・ネットが演算され、新規乗場呼びの
割当てが行われる。割当てが行われると、その時の入力
パターンと割当号機番号の対を1つのサンプルとして仮
サンプル集(RAM等で構成)に登録する(手順R11,R1
2)。そして割当号機がその呼びに応答したり、その呼
びを満員通過することによりその割当てが消去されるま
で、その呼びと割当て号機に関する情報を検出し記憶す
る(手順R13〜R15)。その呼びと割当て号機に関する情
報とは、例えばその呼びの発生からの経過時間、その呼
びの階に他の号機が先着或いは停止したこと、その階を
割当号機が満員通過したことなどである。
First of all, the neural net is calculated by the weight set in the off-line learning, and the new hall call is assigned. When the allocation is done, the pair of the input pattern at that time and the allocated machine number is registered as one sample in the temporary sample collection (composed of RAM etc.) (procedure R11, R1).
2). Information about the call and the assigned number is detected and stored until the assigned number is cleared by the assigned number responding to the call or when the call is fully passed by the assigned number (procedures R13 to R15). The information on the call and the assigned number is, for example, the elapsed time from the occurrence of the call, the fact that another number has arrived first or stopped on the floor of the call, and the assigned number has passed through the floor.

その呼びに割当号機が応答するなどによりその割当てが
消去されると、手順R16でその割当てが適切であったか
否かを判断する。これは予め所定の条件、例えば待時間
が所定時間以上であったこと、或いは他の号機が先着し
たこと、その階に積み残しが生じたことなどの条件を定
めておき、その条件の1つにでも該当した場合はその割
当ては不適切すなわち手順R12で登録したそのサンプル
は学習用として不適切であるとして消去し(手順R1
7)、そうでなければそのサンプルをそのままとして手
順R18へと進む。そして一定時間経過するまで手順R11〜
R18を繰り返し、その間に上記と同様の手順で多数のサ
ンプルを登録する。一定時間経過すると、予め登録して
ある所定の標準的なサンプル集に上記の手順で作成した
サンプル集を加えてこれを学習用サンプルとし、再学習
を行う(手順R19)。この学習の手順は第5図に示した
オフラインよる学習の手順と全く同じである。学習を終
えると仮サンプル集をクリアーし(手順R20)、修正後
の重みによって割当てを行いながら再びサンプルを作成
し、上記手順を繰り返して重みを自動的に修正する。
When the assigned number is erased, for example, when the assigned number responds to the call, it is determined in step R16 whether the assigned number was appropriate. This is based on predetermined conditions, such as the fact that the waiting time was longer than a predetermined time, that another unit arrived first, or that there was an unloaded item on that floor. However, if it is true, the assignment is inappropriate, that is, the sample registered in step R12 is deleted as inappropriate for learning (step R1
7) Otherwise, leave the sample as is and proceed to step R18. And procedure R11 ~ until a certain time passes
Repeat R18, while registering a large number of samples in the same procedure as above. After a certain period of time, the sample collection created in the above procedure is added to a predetermined standard sample collection registered in advance, and this is used as a learning sample, and relearning is performed (procedure R19). The learning procedure is exactly the same as the offline learning procedure shown in FIG. When learning is completed, the temporary sample collection is cleared (procedure R20), samples are created again while assigning the modified weights, and the above procedure is repeated to automatically correct the weights.

このようにオンラインによる学習を取り入れると、オフ
ラインによる学習は各ビルに共通なので1回だけで済
み、しかもその後は各ビルに固有のサンプルにより、常
にそのビルに最適の重みに自動的に修正されていくこと
になり、テナント等の変更により交通状況に変化が生じ
ても自動的に対応することができる。
By incorporating online learning in this way, offline learning is common to each building, so it only needs to be done once, and after that, with a sample unique to each building, it is always automatically corrected to the optimum weight for that building. Therefore, even if traffic conditions change due to changes in tenants, etc., it is possible to automatically respond.

〔発明の効果〕〔The invention's effect〕

本発明によれば、学習用のサンプルを多数作成するだけ
で、各種の交通状況に対応して最適な割当てかごを決定
する判断システムを自動的に作成することができ、きわ
めて高度な割当て制御を行うことが可能となる。
According to the present invention, it is possible to automatically create a judgment system that determines an optimal allocation car according to various traffic situations by simply creating a large number of learning samples, and to perform extremely advanced allocation control. It becomes possible to do.

さらにニューラル・ネットの接続構成と、重みの値を工
夫することによって、演算に要する時間や学習回数を減
らすことができる。
Further, by devising the connection structure of the neural net and the value of the weight, the time required for the calculation and the number of learning can be reduced.

また、オンラインによる学習を用いると、ビルの性質,
用途に拘わらず標準化が図れ、またビルの性質等が途中
で変化しても自動的に対応することができる。
In addition, using online learning,
Standardization can be achieved regardless of the application, and even if the property of the building changes in the middle, it can be automatically handled.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の全体の構成の一実施例を示す図、第2
図は本発明による割当ての処理手順を示すフローチャー
ト、第3図は本発明に係る入力パターンの一例を示す
図、第4図は本発明に係るニューラル・ネットの構造の
一例を示す図、第5図は本発明に係る重みの学習の処理
手順を示すフローチャート、第6図は本発明に係る重み
の学習をオンラインで行う場合の処理手順を示すフロー
チャート、第7図は本発明を説明するためのユニットの
構造を示す図、第8図(a)(b)はユニットの入出力
特性の一例を示す図、第9図は一般的なニューラル・ネ
ットの構造を示す図である。 1……乗場呼び釦 2……乗場呼び信号 3A〜3C……各号機の運行制御装置 4……かご情報信号 5……マイクロコンピュータ 6……入出力インターフェイス 7……入力パターン演算手段 8……ニューラル・ネット演算手段 9……割当て判定手段 10……割当て信号
FIG. 1 is a diagram showing an embodiment of the overall configuration of the present invention, and FIG.
FIG. 4 is a flow chart showing an allocation processing procedure according to the present invention, FIG. 3 is a diagram showing an example of an input pattern according to the present invention, FIG. 4 is a diagram showing an example of a structure of a neural net according to the present invention, and FIG. FIG. 6 is a flowchart showing a processing procedure of weight learning according to the present invention, FIG. 6 is a flowchart showing a processing procedure when performing weight learning according to the present invention online, and FIG. 7 is a diagram for explaining the present invention. FIG. 8 is a diagram showing the structure of the unit, FIGS. 8 (a) and 8 (b) are diagrams showing an example of the input / output characteristics of the unit, and FIG. 9 is a diagram showing the structure of a general neural net. 1 …… Hall call button 2 …… Hall call signal 3A to 3C …… Operation control device for each unit 4 …… Car information signal 5 …… Microcomputer 6 …… Input / output interface 7 …… Input pattern calculation means 8 …… Neural network computing means 9 ... Assignment determining means 10 ... Assignment signal

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】複数の階床に対し複数台のエレベータを就
役させ、これら複数台のエレベータに共通の乗場呼びに
対して、最適なエレベータを選択して割当て応答させる
ようにしたエレベータの群管理制御装置において、乗場
呼び及び各かごの状態等からニューラル・ネットへの入
力パターンを演算する手段と、該入力パターンによりニ
ューラル・ネットの演算を行う手段と、ニューラル・ネ
ットの演算結果により割当ての判定を行う手段とを備え
たことを特徴とするエレベータの群管理制御装置。
1. A group management of elevators in which a plurality of elevators are activated for a plurality of floors, and an optimal elevator is selected and responded to by responding to a hall call common to the plurality of elevators. In the control device, means for calculating the input pattern to the neural net from the hall call and the state of each car, means for calculating the neural net based on the input pattern, and determination of allocation based on the calculation result of the neural net An elevator group supervisory control device, comprising:
【請求項2】複数の階床に対し複数台のエレベータを就
役させ、これら複数台のエレベータに共通の乗場呼びに
対して、最適なエレベータを選択して割当て応答させる
ようにしたエレベータの群管理制御装置において、乗場
呼び及び各かごの状態等からニューラル・ネットへの入
力パターンを演算する手段と、該入力パターンによりニ
ューラル・ネットの演算を行う手段と、ニューラル・ネ
ットの演算結果により割当ての判定を行う手段と、エレ
ベータの稼働中に学習用のサンプルを作成する手段と、
該学習用サンプルを用いて学習を行い、前記ニューラル
・ネットの重みを修正する手段とを備えたことを特徴と
するエレベータの群管理制御装置。
2. A group management of elevators in which a plurality of elevators are activated for a plurality of floors and an optimal elevator is selected and responded to by responding to a hall call common to the plurality of elevators. In the control device, means for calculating the input pattern to the neural net from the hall call and the state of each car, means for calculating the neural net based on the input pattern, and determination of allocation based on the calculation result of the neural net And means for creating training samples while the elevator is running,
A group management control device for an elevator, comprising means for performing learning using the learning sample and correcting the weight of the neural net.
【請求項3】ニューラル・ネットは少なくとも入力層と
中間第1層,中間第2層,出力層からなり、入力層の各
ユニットと中間第1層の各ユニットは、各号機毎に自号
機に関するユニット同志のみを相互に接続し、中間第1
層の各ユニットと中間第2層の各ユニットは、自号機に
関するユニットと他号機に関するユニットをも相互に接
続する構成としたことを特徴とする請求項1又は請求項
2記載のエレベータの群管理制御装置。
3. A neural net comprises at least an input layer, an intermediate first layer, an intermediate second layer and an output layer, and each unit of the input layer and each unit of the intermediate first layer relates to its own machine for each machine. Connect only unit comrades to each other, the first intermediate
The group management of elevators according to claim 1 or 2, wherein each unit of the layer and each unit of the second intermediate layer are configured to mutually connect a unit related to its own unit and a unit related to another unit. Control device.
【請求項4】乗場呼び及び各かごの状態等からニューラ
ル・ネットへの入力パターンを演算する手段と、該入力
パターンによりニューラル・ネットの演算を行う手段
と、ニューラル・ネットの演算結果により割当ての判定
を行う手段とを備えたエレベータの、前記ニューラル・
ネットの学習を行う過程において、各号機のそれぞれ同
じ接続位置に対応する各重みを同じ値に設定し、その修
正は1つの学習用サンプルに対する前記各重みの修正量
の平均値を実際の修正量として行うことを特徴とするエ
レベータのニューラル・ネットの学習方法。
4. A means for calculating an input pattern to a neural net from a hall call and the state of each car, a means for calculating a neural net based on the input pattern, and an allocation based on the calculation result of the neural net. The neural network of an elevator equipped with a means for making a decision
In the process of learning the net, each weight corresponding to the same connection position of each machine is set to the same value, and the correction is performed by using the average value of the correction amount of each weight for one learning sample as the actual correction amount. A method of learning a neural net of an elevator, characterized in that
JP63105633A 1988-04-28 1988-04-28 Elevator group management control device Expired - Fee Related JPH075235B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63105633A JPH075235B2 (en) 1988-04-28 1988-04-28 Elevator group management control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63105633A JPH075235B2 (en) 1988-04-28 1988-04-28 Elevator group management control device

Publications (2)

Publication Number Publication Date
JPH01275381A JPH01275381A (en) 1989-11-06
JPH075235B2 true JPH075235B2 (en) 1995-01-25

Family

ID=14412869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63105633A Expired - Fee Related JPH075235B2 (en) 1988-04-28 1988-04-28 Elevator group management control device

Country Status (1)

Country Link
JP (1) JPH075235B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2533942B2 (en) * 1989-03-13 1996-09-11 株式会社日立製作所 Knowledge extraction method and process operation support system
JP2712648B2 (en) * 1989-10-17 1998-02-16 三菱電機株式会社 Elevator group management learning control device
JP2573715B2 (en) * 1990-03-28 1997-01-22 三菱電機株式会社 Elevator control device
JP2573723B2 (en) * 1990-05-31 1997-01-22 三菱電機株式会社 Elevator control device
JP2573722B2 (en) * 1990-05-29 1997-01-22 三菱電機株式会社 Elevator control device
KR940009984B1 (en) * 1990-05-29 1994-10-19 미쓰비시덴키 가부시키가이샤 Elevator control device
JP2573726B2 (en) * 1990-06-19 1997-01-22 三菱電機株式会社 Elevator control device
JP2516274B2 (en) * 1990-07-27 1996-07-24 株式会社日立製作所 Fuel cell power plant
JP2585457B2 (en) * 1990-08-03 1997-02-26 株式会社日立製作所 An electron beam lithography system with an optimality judgment system
US5182429A (en) * 1991-05-23 1993-01-26 Westinghouse Electric Corp. System and method for laser welding the inner surface of a tube
JP3414843B2 (en) * 1993-06-22 2003-06-09 三菱電機株式会社 Transportation control device
JP3414846B2 (en) * 1993-07-27 2003-06-09 三菱電機株式会社 Transportation control device
US5767461A (en) * 1995-02-16 1998-06-16 Fujitec Co., Ltd. Elevator group supervisory control system
CN112530001B (en) * 2020-12-08 2023-05-12 四川蓉信开工程设计有限公司 Quick drawing method of traffic core three-dimensional model

Also Published As

Publication number Publication date
JPH01275381A (en) 1989-11-06

Similar Documents

Publication Publication Date Title
US4760896A (en) Apparatus for performing group control on elevators
JP2860261B2 (en) Elevator group management control method
JP2664782B2 (en) Elevator group control device
JPH075235B2 (en) Elevator group management control device
JP4870863B2 (en) Elevator group optimum management method and optimum management system
US5767461A (en) Elevator group supervisory control system
JPH0331173A (en) Group management control device for elevator
JPH0428681A (en) Group management control for elevator
JP2956516B2 (en) Elevator group control device
JP2979993B2 (en) Learning method of neural network for elevator call assignment
JP2959425B2 (en) Elevator group control device
JPH0764488B2 (en) Elevator group management control device
JP2988306B2 (en) Elevator group control device
JP2964902B2 (en) Learning method of neural network for elevator call assignment
JP2988312B2 (en) Elevator group control device
JP2500407B2 (en) Elevator group management control device construction method
JP2964907B2 (en) Elevator group control device
JP2664766B2 (en) Group control elevator system
JP2962182B2 (en) Elevator group control device
JP2867849B2 (en) Learning method of neural network for elevator call assignment
JP2962174B2 (en) Elevator group control device
JP2938316B2 (en) Elevator group control device
JP3407660B2 (en) Elevator group control device
JP3052768B2 (en) Elevator group control device
JPH02163275A (en) Group-control controller for elevator

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees