JPH0764488B2 - Elevator group management control device - Google Patents

Elevator group management control device

Info

Publication number
JPH0764488B2
JPH0764488B2 JP1109299A JP10929989A JPH0764488B2 JP H0764488 B2 JPH0764488 B2 JP H0764488B2 JP 1109299 A JP1109299 A JP 1109299A JP 10929989 A JP10929989 A JP 10929989A JP H0764488 B2 JPH0764488 B2 JP H0764488B2
Authority
JP
Japan
Prior art keywords
input
neural net
allocation
output
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1109299A
Other languages
Japanese (ja)
Other versions
JPH02286581A (en
Inventor
マルコン・シャンドル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitec Co Ltd
Original Assignee
Fujitec Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitec Co Ltd filed Critical Fujitec Co Ltd
Priority to JP1109299A priority Critical patent/JPH0764488B2/en
Publication of JPH02286581A publication Critical patent/JPH02286581A/en
Publication of JPH0764488B2 publication Critical patent/JPH0764488B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Elevator Control (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、複数台のエレベータが並設されている場合
において、乗場呼びを最適なエレベータに割当てるのに
有効なエレベータの群管理制御装置の改良に関するもの
である。
DETAILED DESCRIPTION OF THE INVENTION [Industrial field of application] The present invention relates to an elevator group management control device effective for assigning a hall call to an optimal elevator when a plurality of elevators are installed in parallel. It is about improvement.

〔従来の技術〕[Conventional technology]

エレベータの群管理制御の代表的な方式として、乗場呼
びが発生するごとに評価関数を用いて最適なかごを選択
しその呼びを割当てる、呼び割当て方式があるが、この
呼び割当て方式において、呼びにどのかごを割当てるの
が最適であるかという問題は、統計的な要素を含む組合
せ最適化問題であり、一般にはアルゴリズム(数学的手
法)による解を得ることはできない。
As a typical method of elevator group management control, there is a call allocation method that selects an optimal car using an evaluation function each time a hall call occurs and allocates that call. The problem of which car is best assigned is a combinatorial optimization problem including statistical elements, and it is generally impossible to obtain a solution by an algorithm (mathematical method).

このため、現状のエレベータ群管理システムでは、長年
の経験に基づいて有効であると判断されたいくつかの
「常識的規則」、例えば「新規に登録された乗場呼びま
での予測走行時間が最短のかごを優先的に選択する。」
或いは「新規乗場呼びを割当てたとしたら、既に割当済
みの他の呼びが長待ちとなるようなかごへの割当ては避
ける。」といったような経験則を利用して、すなわちこ
うした経験則を割当てプログラムに組込んだり、或いは
エキスパートシステムを用いた割当て方式では、知識デ
ータベースの中に組み込んだりすることによって割当て
を行っている。
Therefore, in the current elevator group management system, some "common sense rules" that have been judged to be effective based on many years of experience, such as "the predicted travel time to a newly registered hall call is the shortest Select the car first. "
Alternatively, use an empirical rule such as “If you assign a new landing call, avoid allocating it to a car in which other calls that have already been assigned will wait long”. In the case of incorporation, or in the assignment method using the expert system, the assignment is performed by incorporating it in the knowledge database.

このような問題を解決するため、ニューラル・ネットを
利用することにより、最適な割当てかごを決定する判断
システムを、実際の運転例により自動的に学習し生成す
ることのできる、従来とは全く異なる新しいエレベーラ
の群管理制御装置が提案されており(例えば特願昭63−
105633号「エレベータの群管理制御装置」)、これにつ
いて第2図〜第6図によりその概要を説明する。まずニ
ューラル・ネットについて簡単に説明する。
In order to solve such a problem, it is possible to automatically learn and generate a decision system that determines the optimal assigned car by using a neural net, which is completely different from the conventional method. A new group management control device for elevators has been proposed (for example, Japanese Patent Application No. 63-
No. 105633 "Elevator group management control device"), and its outline will be described with reference to FIGS. 2 to 6. First, the neural network will be briefly described.

ニューラル・ネットとは、人間の脳を真似たネットワー
クで、脳のニューロン(神経細胞)に対応したユニット
が複数個,複雑に接続し合ったもので、各ユニットの動
作及びユニット間の接続形態をうまく決めることで、パ
ターン認識機能や知識処理機能を埋め込むことができ、
例えば、「日経エレクトロニクス」1987年8月10日号
(No427)のP115〜P124などに紹介されている。
A neural network is a network that imitates the human brain, in which multiple units corresponding to neurons (nerve cells) in the brain are connected intricately, and the operation of each unit and the connection form between units are described. By deciding well, you can embed the pattern recognition function and the knowledge processing function,
For example, it is introduced in "Nikkei Electronics" August 10, 1987 issue (No427), P115 to P124.

まずニューロンをモデル化したユニットの構造を第2図
に示す。ユニットUiは他のユニットからの入力Qjの総和
を一定の規則で変換し、Qiとするが、他のユニットとの
結合部にはそれぞれ可変の重みWijが付いている。この
重みは各ユニット間の結合の強さを表わすためのもの
で、この値を変えると接続を変えなくても実質的にネッ
トワークの構造が変わることになる。後述のネットワー
クの学習とはこの値を変えることであって、重みWij
正,ゼロ,負の値をとる。ゼロは結合のないことを表わ
す。
First, FIG. 2 shows the structure of a unit that models a neuron. The unit U i transforms the sum of the inputs Q j from other units by a certain rule to obtain Q i , and the joints with other units have variable weights W ij respectively. This weight is for expressing the strength of the coupling between each unit, and if this value is changed, the structure of the network will be substantially changed without changing the connection. The learning of the network described later is to change this value, and the weight W ij takes positive, zero, and negative values. Zero means no bond.

あるユニットが複数ユニットから入力を受けた場合、そ
の入力の総和をNETで表わすとすると、ユニットUiの入
力の総和は、 である。
When a unit receives inputs from multiple units, if the sum of the inputs is represented by NET, the sum of the inputs of unit U i is Is.

各ユニットはこの入力の総和NETを関数fに適用し、次
式に示すように出力Qiに変換する。
Each unit applies the sum NET of this input to the function f and converts it into the output Q i as shown in the following equation.

この関数fは各ユニットごとに違ってよいが、一般には
第3図(a)に示したしきい値関数又は第3図(b)に
示したsigmoid関数を使う。
This function f may be different for each unit, but generally, the threshold function shown in FIG. 3 (a) or the sigmoid function shown in FIG. 3 (b) is used.

このsigmoid関数は、微分可能な疑似線形関数で、 で表せる。値域は0〜1で、入力値が大きくなるにつれ
1に、小さくなるにつれ0に近づく。入力が0のときは
0.5となる。しきい値θ(バイアス)を加えて、 とする場合もある。
This sigmoid function is a differentiable pseudo-linear function, Can be expressed as The value range is 0 to 1, and approaches 1 as the input value increases and approaches 0 as the input value decreases. When the input is 0
It becomes 0.5. Add a threshold θ (bias), In some cases.

第4図では、ネットワークの構造の一例を示す図で、ユ
ニット間の結合部の重みは図示を省略している。
FIG. 4 is a diagram showing an example of the structure of the network, and the illustration of the weight of the coupling portion between the units is omitted.

ニューラル・ネットは、ネットワークの構造からパター
ン連想型と自動連想型に分類されるが、ここではパター
ン連想型を用いて説明する。パターン連想型とは、入力
パターンをある出力パターンに変換するネットワーク
で、第4図のように各ユニットを入力層,中間層,出力
層に階層化している。各ユニットは入力層から出力層に
向けて接続されるが、各層内のユニット同士は接続しな
い。また、入力ユニットと出力ユニットは独立してい
る。
The neural network is classified into a pattern associative type and an automatic associative type according to the structure of the network. Here, the pattern associative type will be used for description. The pattern associative type is a network for converting an input pattern into a certain output pattern, and each unit is hierarchized into an input layer, an intermediate layer, and an output layer as shown in FIG. Each unit is connected from the input layer to the output layer, but the units in each layer are not connected. Moreover, the input unit and the output unit are independent.

このようなニューラル・ネットにおいて、入力層の各ユ
ニットに入力データを与えるとこの信号は各ユニットで
変換され、中間層に伝わり、最後に出力層から出てくる
が、望ましい出力を得るためには各ユニット間の結合の
強弱すなわち重みを適切な値に設定する必要がある、こ
の重みの設定は、ネットワークを次のように学習させる
ことによって行う。
In such a neural net, when input data is given to each unit of the input layer, this signal is converted by each unit, transmitted to the intermediate layer, and finally comes out from the output layer. It is necessary to set the strength of the coupling between the units, that is, the weight, to an appropriate value. The setting of the weight is performed by learning the network as follows.

まず最初は、すべての重みをランダムに設定しておき、
入力層の各ユニットに学習用の入力データ(予め望まし
い出力の分っているデータ)を与える。そしてこのとき
出力層の各ユニットから出てきた出力値と望ましい出力
値を比べ、その差(誤差)を減らすように各重みの値を
修正する。そしてこれを多数の学習データを用いて誤差
が収束するまで繰り返す。この誤差の値から各重みの値
を修正する学習アルゴリズムについは後述する。
First of all, set all weights randomly,
Input data for learning (data in which desired output is known in advance) is given to each unit in the input layer. Then, at this time, the output value output from each unit of the output layer is compared with the desired output value, and the value of each weight is corrected so as to reduce the difference (error). Then, this is repeated using a large number of learning data until the error converges. A learning algorithm for correcting the value of each weight from the value of this error will be described later.

こうして学習を終了すると、ニューラル・ネット内に知
識処理装置が自動的に埋め込まれたことになり、学習用
のデータだけでなく未知の入力データに対しても常に望
ましい出力が得られるようになる。
When the learning is completed in this way, the knowledge processing device is automatically embedded in the neural network, and the desired output can always be obtained not only for the learning data but also for the unknown input data.

なお、このニューラル・ネットは各ユニットを増幅器や
抵抗を用いて構成しLSI化することも可能であるが、ソ
フトウェアで仮想的なニューラル・ネットを構成してす
べて演算で処理することもでき、マイクロコンピュータ
で実現することが可能である。
Note that this neural net can be configured as an LSI by configuring each unit using amplifiers and resistors, but it is also possible to configure a virtual neural net with software and process all by arithmetic operations. It can be realized by a computer.

第5図は、このニューラル・ネットをエレベータの割当
て制御に利用した場合の全体の構成の一実施例を示す図
で、ここでは説明の便宜上、制御対象エレベータが1号
機と2号機の2台のみとするが、勿論何台の場合でも同
様に構成することができる。
FIG. 5 is a diagram showing one embodiment of the overall configuration when this neural net is used for elevator allocation control. Here, for the sake of convenience of explanation, only two elevators, the first and second elevators to be controlled, are controlled. However, it is needless to say that the same configuration can be applied to any number of units.

第5図において、1は各階に設けられた乗場呼び釦(1
つの階床のみを図示し、他は省略している)、2は乗場
呼び信号、3Aは1号機の運行を管理する運行制御装置、
同様に3Bは2号機の運行を管理する運行制御装置、4は
各かごの状態(かご位置,方向,停止,走行,戸開閉状
態,かご呼び,荷重等)を表わすかご情報信号、5は群
管理装置として割当ての機能を果たすためのマイクロコ
ンピュータで、入出力インターフェイス6を介して読込
んだ乗場呼び信号2やかご情報信号4の各データを基
に、ニューラル・ネットへの入力となる各入力パターン
要素を演算する入力パターン演算手段7と、ニューラル
・ネット8と、ニューラル・ネット8の出力からどの号
機が最適であるかを判定する割当て判定手段9とを備
え、その割当て結果を入出力インターフェイス6を介
し、割当て信号10として出力する。各運行制御装置3A及
び3Bは、この割当て信号10によって割当てられた乗場呼
びと、自号機に登録されたかご呼びに順次応答するよう
にかごの運行を制御する。
In FIG. 5, 1 is a hall call button (1
Only one floor is shown, the others are omitted) 2 is a landing call signal, 3A is an operation control device that manages the operation of Unit 1,
Similarly, 3B is an operation control device that manages the operation of the second car, 4 is a car information signal indicating the state of each car (car position, direction, stop, running, door open / closed state, car call, load, etc.), and 5 is a group. A microcomputer for performing an allocation function as a management device, each input serving as an input to the neural network based on each data of the hall call signal 2 and the car information signal 4 read via the input / output interface 6. An input pattern calculating means 7 for calculating pattern elements, a neural net 8, and an allocation judging means 9 for judging which machine is optimum from the output of the neural net 8 are provided, and the allocation result is input / output interface. It is output as an allocation signal 10 via 6. Each operation control device 3A and 3B controls the operation of the car so as to sequentially respond to the landing call assigned by the assignment signal 10 and the car call registered in its own machine.

第6図は、ニューラル・ネットへ入力される各入力パタ
ーン要素の一例を示す図で、a1〜d1はそれぞれ1号機の
状況を表わす入力パターン要素、a2〜d2はそれぞれ2号
機の状況を表わす入力パターン要素であり、a1(a2
は、新規乗場呼びの発生した階と1(2)号機の現在階
との階床差、b1(b2)は1(2)号機が現在階と新規乗
場呼びの発生階との間に受け持っている呼びの数、c
1(c2)は新規乗場呼びの発生階以遠に1(2)号機に
割当てられている乗場呼びの数、d1(d2)は1(2)号
機の現在の乗車人数を表わしている。
FIG. 6 is a diagram showing an example of each input pattern element input to the neural net. A 1 to d 1 are input pattern elements representing the situation of the No. 1 machine, and a 2 to d 2 are the input pattern elements of the No. 2 machine, respectively. Input pattern element that represents the situation, a 1 (a 2 )
Is the floor difference between the floor where the new hall call is generated and the current floor of Unit 1 (2), and b 1 (b 2 ) is between the current floor of Unit 1 (2) and the floor where the new hall call is generated. Number of calls in charge, c
1 (c 2 ) represents the number of hall calls assigned to Unit 1 (2) beyond the floor where the new hall call is generated, and d 1 (d 2 ) represents the current number of passengers in Unit 1 (2) .

なお、これらの各入力パターン要素は、すべて第5図に
示した入力パターン演算手段によって演算される。第6
図のニューラル・ネット8は、図示を省略しているが、
各入力パターン要素a1〜d1及びa2〜d2のそれぞれに対応
するユニットからなる入力層と、適当な数のユニットか
らなる中間層(1層に限らない)と、出力A1及びA2に対
応するユニットからなる出力層で構成される。ここでA1
は1号機の割当適性を表わす出力信号、A2は2号機の割
当適性を表わす出力信号で、このA1とA2が第5図の割当
て判定手段9に入力され、割当て信号10が出力される。
It should be noted that all of these input pattern elements are calculated by the input pattern calculation means shown in FIG. Sixth
The neural net 8 in the figure is not shown in the figure,
An input layer composed of units corresponding to the respective input pattern elements a 1 to d 1 and a 2 to d 2 , an intermediate layer composed of an appropriate number of units (not limited to one layer), and outputs A 1 and A It consists of an output layer consisting of units corresponding to 2 . Where A 1
Is an output signal indicating the allocation suitability of the No. 1 machine, A 2 is an output signal indicating the allocation suitability of the No. 2 machine, and these A 1 and A 2 are inputted to the allocation judging means 9 of FIG. 5 and the allocation signal 10 is outputted. It

以上の構成において、実際に割当てを行うにはまずニュ
ーラル・ネットの特性を、各ユニット間の重みを設定す
ることによって決定する必要がある。この重みの設定
は、一般的な設定方法として知られているバックプロパ
ゲーションによる学習を利用するこの学習は次のように
して行う。
In the above configuration, the characteristics of the neural net must first be determined by setting the weights between the units in order to actually perform the allocation. This weight is set using learning by back propagation known as a general setting method. This learning is performed as follows.

まず最初は、各ユニット間の重みは適当な値に無作為に
設定しておく。一方、実際の運転例等から学習用サンプ
ルを多数作成する。この学習用サンプルは、例えば新規
乗場呼びとその時の1号機及び2号機の状態の組合せを
一つ想定し、この状態では何号機に割当てるのが最適か
を専門家の判断により或いはシミュレーション等を用い
て判断し、もし1号機が最適であればそのときの各入力
パターン要素に対して1号機に対応する出力A1の出力目
標を1に、2号機に対応する出力A2の出力目標を0とし
て作成したものである。そしてまず最初の学習用サンプ
ルにより、1号機と2号機の状態から新規乗場呼び発生
時の各入力パターン要素a1〜d1及びa2〜d2を演算しニュ
ーラル・ネットの入力層の各ユニットに入力する。この
入力データは入力層から出力層へ向けて順次処理され、
各ユニットは第3図に示した入出力特性であるので、そ
の結果出力A1及びA2は必ず0〜1の値となるが前述のよ
うに最初は重みが無作為に設定されているので、この出
力A1及びA2の値は出力目標とは違った値となる。そこで
この出力目標と実際の出力との差を誤差とし、この誤差
を用いて重みの修正を、出力層から入力層に向けて行っ
ていく。この重みの修正の計算は周知であるのでここで
は説明を省略する。
First, the weights between the units are randomly set to appropriate values. On the other hand, many learning samples are created from actual driving examples. This learning sample assumes, for example, one combination of a new hall call and the states of Units 1 and 2 at that time, and in this state, the number of units to allocate is determined by the expert's judgment or using simulation or the like. If the No. 1 machine is optimal, the output target of the output A 1 corresponding to the No. 1 machine is set to 1 and the output target of the output A 2 corresponding to the No. 2 machine is set to 0 for each input pattern element at that time. It was created as. Then, using the first learning sample, the input pattern elements a 1 to d 1 and a 2 to d 2 when a new hall call is generated are calculated from the states of Units 1 and 2 and each unit of the input layer of the neural network is calculated. To enter. This input data is processed sequentially from the input layer to the output layer,
Since each unit has the input / output characteristics shown in FIG. 3, as a result, the outputs A 1 and A 2 are always values of 0 to 1, but as described above, the weights are initially set randomly. , The values of the outputs A 1 and A 2 are different from the output target. Therefore, the difference between this output target and the actual output is taken as an error, and the weight is corrected using this error from the output layer to the input layer. Since the calculation of the correction of the weight is well known, its explanation is omitted here.

こうして各ユニット間の重みの修正を終了すると、次に
2番目の学習用サンプルにより、各入力パターン要素を
演算して入力し、そのときの出力目標と実際の出力との
誤差から再度各ユニット間の重みを修正する。こうして
多数の学習用サンプルを用いて上記と同様の手順を繰返
すと、上記誤差が十分小さくなり、やがて収束する。学
習を完了すると各重みはそれぞれ固有の値に収束してい
るので、それを固定化すると実際の運転に用いるニュー
ラル・ネットの各ユニット間の重みがそれぞれ設定され
たことになる。
When the correction of the weight between each unit is completed in this way, each input pattern element is then calculated and input by the second learning sample, and the error between the output target at that time and the actual output is again calculated between each unit. Correct the weight of. When the same procedure as described above is repeated using a large number of learning samples in this way, the above error becomes sufficiently small and eventually converges. When the learning is completed, each weight converges to its own value, so if it is fixed, the weights between the units of the neural net used for actual driving are set respectively.

以後はこれを実際の割当てに用いる。すなわち新規乗場
呼びが発生すると、その時点における1号機と2号機の
状況から各入力パターン要素a1〜d1及びa2〜d2が入力パ
ターン演算手段7で演算され、ニューラル・ネット8へ
入力される。ニューラル・ネット8では、各入力パター
ン要素が入力層から出力層へ向けて順次処理され、その
出力A1及びA2が割当て判定手段9に入力される。そして
割当て手段9はこの出力A1とA2を比較し、その値が1に
近い方の号機に割当信号10を出力するのであるが、この
ときニューラル・ネット8の各重みは学習用サンプルを
用いて学習し、収束した値にそれぞれ設定されているの
で、学習用サンプルの場合と同じ判断基準で割当てが行
われることになる。
After that, this is used for the actual allocation. That is, when a new hall call is generated, the input pattern elements a 1 to d 1 and a 2 to d 2 are calculated by the input pattern calculation means 7 from the conditions of the first and second units at that time, and are input to the neural network 8. To be done. In the neural net 8, each input pattern element is sequentially processed from the input layer to the output layer, and the outputs A 1 and A 2 are input to the allocation determining means 9. The assigning means 9 compares the outputs A 1 and A 2 and outputs the assigning signal 10 to the machine whose value is closer to 1. At this time, each weight of the neural network 8 is a learning sample. Since the values are learned and used to be set to converged values, the allocation is performed according to the same criterion as the learning sample.

このように、ニューラル・ネットを用いると、学習用の
サンプルを多数作成し学習を繰返すだけで、各種の交通
状況に対応して最適な割当てかごを決定する判断システ
ムを自動的に作成することができ、きわめて高度な割当
て制御を行うことが可能となる。
In this way, by using a neural net, it is possible to automatically create a judgment system that determines the optimal assigned car according to various traffic situations simply by creating many learning samples and repeating learning. Therefore, it is possible to perform extremely advanced allocation control.

〔発明が解決しようとする課題〕[Problems to be Solved by the Invention]

ところで、上記学習の効率や学習完了後の割当ての精度
は、ニューラル・ネットへの各入力パターン要素とし
て、すなわち新規呼びが発生したときの群全体の状況を
表わすパラメータとして何を選択するかによって大きく
左右される。
By the way, the efficiency of the learning and the accuracy of the assignment after the completion of the learning depend largely on what is selected as each input pattern element to the neural network, that is, as the parameter indicating the situation of the entire group when a new call occurs. It depends.

理屈から言えば、このパラメータとしては、各エレベー
タの運転状況や呼びの状況、或いは各乗場の待客の状況
等、割当ての判断に関連しているものであれば何でもよ
いと考えられるが、実際には割当ての判断に密接に関連
しているパラメータを用いるほど、割当ての精度が高く
なることが期待される。
Theoretically, this parameter may be anything related to the allocation decision, such as the operating status of each elevator, the status of calls, the status of waiting passengers at each hall, etc. It is expected that the more closely related the parameters are to the allocation decision, the higher the accuracy of the allocation.

そこで割当ての判断に密接に関連しているパラメータと
して、例えば従来の評価関数による割当て方式でもよく
用いられる、各乗場呼びの予測待時間や各乗場の予想待
客数などのパラメータを用いることが考えられるが、こ
のような予測値であるパラメータを用いると次のような
不都合がある。
Therefore, as parameters closely related to the determination of allocation, it is considered to use parameters such as the estimated waiting time of each hall call and the expected number of waiting passengers at each hall, which are often used in the conventional allocation method using the evaluation function. However, using a parameter that is such a predicted value has the following disadvantages.

すなわち、このようなパラメータは、かご位置や呼びが
発生してからの経過時間のように直接測定可能な確定し
た数値を表わす直接的なパラメータではなく、あくまで
も直接的なパラメータに基づいて演算される予測値を表
わす間接的なパラメータであって、実際の値から大きく
外れている場合もあり、従ってこれら間接的なパラメー
タをニューラル・ネットへの入力パターン要素とて用い
ると、学習の収束が遅くなり、学習の効果が悪化すると
いう問題点があった。
That is, such a parameter is not a direct parameter representing a fixed value that can be directly measured, such as a car position or an elapsed time after a call is generated, but is calculated based on a direct parameter. It is an indirect parameter that represents the predicted value and may deviate significantly from the actual value. Therefore, when these indirect parameters are used as input pattern elements to the neural net, the learning convergence slows down. However, there was a problem that the learning effect deteriorated.

〔課題を解決するための手段〕[Means for Solving the Problems]

本発明は上記問題点を解決するため、すなわち間接的な
パラメータをニューラル・ネットへの入力パターン要素
として用いることにより、精度の高い割当てを可能に
し、かつこれにより学習効率も悪化することないように
するためになされたもので、その特徴とするところは、
割当て用のニューラル・ネットとは別に第2のニューラ
ル・ネットを設け、該第2のニューラル・ネットには直
接測定可能な値を表す直接的なパラメータを入力パター
ン要素として入力し、予測値を表す間接的なパラメータ
をその出力として得ると共に、該間接的なパラメータと
前記直接的なパラメータを入力パターン要素として前記
割当て用ニューラル・ネットに入力する構成とした点に
ある。
The present invention solves the above problem, that is, by using an indirect parameter as an input pattern element to a neural network, highly accurate assignment is made possible, and the learning efficiency is not deteriorated by this. It was made to do, and the feature is that
A second neural net is provided separately from the assignment neural net, and a direct parameter representing a directly measurable value is input as an input pattern element to the second neural net to represent a predicted value. The point is that an indirect parameter is obtained as its output, and the indirect parameter and the direct parameter are input to the allocation neural net as input pattern elements.

〔実施例〕〔Example〕

以下、本発明の一実施例を第1図により説明する。 An embodiment of the present invention will be described below with reference to FIG.

第1図は、ニューラル・ネットと入力パターン要素との
関係を示す第6図相当図で、第6図と同一のものは同一
符号にて示している。
FIG. 1 is a diagram corresponding to FIG. 6 showing the relationship between the neural net and the input pattern elements. The same components as those in FIG. 6 are designated by the same reference numerals.

第1図において、a1〜d1及びa2〜d2の各入力パターン要
素は、前述のように新規呼びの階と各号機の現在階との
階床差などの直接的なパラメータであり、それらは割当
て用のニューラル・ネット8aに入力されると共に、第2
のニューラル・ネット8bにも入力される。第2のニュー
ラル・ネット8bでは、これらの直接的なパラメータを入
力し、その出力として間接的なパラメータS1,S2及びt1,
t2を得る。このパラメータS1(S2)は、1(2)号機に
対する新規乗場呼びの予測待時間を表わし、t1(t2)は
1(2)号機が新規呼びをサービスしたときの予測乗車
人数を表わしており、それぞれニューラル・ネット8aへ
の入力パターン要素として入力され、また乗場への表示
等に用いられる。
In FIG. 1, the input pattern elements a 1 to d 1 and a 2 to d 2 are direct parameters such as the floor difference between the floor of the new call and the current floor of each unit, as described above. , They are input to the neural network 8a for allocation and the second
It is also input to Neural Net 8b. In the second neural net 8b, these direct parameters are input, and the indirect parameters S 1 , S 2 and t 1 ,
get t 2 . This parameter S 1 (S 2 ) represents the estimated waiting time for a new landing call for Unit 1 (2), and t 1 (t 2 ) is the estimated number of passengers when Unit 1 (2) services a new call. Are input as input pattern elements to the neural net 8a, and are also used for display on the hall.

以上のような構成において、ニューラル・ネット8aの動
作にはニューラル・ネット8bの出力が必要なので、まず
ニューラル・ネット8bについて学習を行う。この学習を
行うには前述の場合と同様、実際の運転例から多数の学
習用サンプルを作成する。この場合、出力のS1,S2及びt
1,t2は予測値であるが、実際の運転例ではその呼びがサ
ービスされた時点で待時間や乗車人数は確定した値とし
て得ることができるので、学習用サンプルとしては、新
規呼びが発生した時点での各パターン要素a1〜d1及びa2
〜d2と、それに対する実際の待時間及び乗車人数を出力
目標として組合わせたものを用いる。
In the above-described configuration, the output of the neural net 8b is necessary for the operation of the neural net 8a, so that the neural net 8b is first learned. In order to carry out this learning, a large number of learning samples are created from actual driving examples, as in the case described above. In this case, the output S 1 , S 2 and t
1 and t 2 are predicted values, but in the actual driving example, the waiting time and the number of passengers can be obtained as fixed values when the call is serviced, so a new call is generated as a learning sample. Pattern elements a 1 to d 1 and a 2 at the time
A combination of ~ d 2 and the actual waiting time and the number of passengers for it is used as the output target.

そして、ニューラル・ネット8bについて学習が完了する
と、次にニューラル・ネット8aに対する学習を行う。こ
の学習は第6図で説明したのと同様であるが、入力パタ
ーン要素として直接的なパラメータであるa1〜d1及びa2
〜d2だけでなく、割当て判断に密接に関連した間接的な
パラメータS1,S2及びt1,t2も入力しており、しかもこの
間接的なパラメータはニューラル・ネット8bを介するこ
とにより信頼性の高い値となっているため、学習は効率
よく行われる。
When the learning of the neural net 8b is completed, the learning of the neural net 8a is performed next. This learning is the same as that described with reference to FIG. 6, but a 1 to d 1 and a 2 which are direct parameters as the input pattern elements.
Not only ~ d 2 but also indirect parameters S 1 and S 2 and t 1 and t 2 which are closely related to the allocation decision are input, and these indirect parameters are transmitted by the neural network 8b. Learning is performed efficiently because the value is highly reliable.

こうしてニューラル・ネット8a及び8bの学習が完了する
と、実際の呼びの割当てが可能となる。すなわち、新規
乗場呼びが発生すると、そのときの入力パターン要素a1
〜d1及びa2〜d2がニューラル・ネット8bに入力され、
S1,S2及びt1,t2が出力される。そして、このS1,S2及びt
1,t2が入力パターン要素としてa1〜d1及びa2〜d2と共に
ニューラル・ネット8aに入力され、その出力であるA1
びA2により、乗場呼びを何れのかごに割当てればよいか
が判断され、そのかごに割当てられる。
When the learning of the neural nets 8a and 8b is completed in this manner, it becomes possible to allocate the actual call. That is, when a new hall call occurs, the input pattern element a 1 at that time
~ D 1 and a 2 ~ d 2 are input to the neural net 8b,
S 1 , S 2 and t 1 , t 2 are output. And this S 1 , S 2 and t
1 and t 2 are input to the neural net 8a together with a 1 to d 1 and a 2 to d 2 as input pattern elements, and if the hall call is assigned to either car by its output A 1 and A 2. It is decided whether it is good or not, and the car is assigned.

なお、上記の実施例において、ニューラル・ネットの学
習動作は予めエレベータシステムの稼働前に行っている
のみであるが、エレベータシステムの稼働後も学習動作
を続けることにより、各ビルに固有の交通状況に柔軟に
対応していくことができる。
In the above embodiment, the learning operation of the neural network is only performed in advance before the operation of the elevator system, but by continuing the learning operation even after the operation of the elevator system, the traffic situation unique to each building Can be flexibly dealt with.

また、上記の実施例ではニューラル・ネットを用いて割
当ての判断を行っているが、間接的なパラメータを得る
ためにのみニューラル・ネットを利用し、割当ての判断
には従来の評価関数やエキスパートシステムを用いるよ
うにしても、割当て精度の向上を期待することができ
る。
In the above embodiment, the neural net is used to make the allocation decision. However, the neural net is used only to obtain indirect parameters, and the conventional evaluation function or expert system is used to make the allocation decision. Even when using, it is possible to expect an improvement in allocation accuracy.

〔発明の効果〕〔The invention's effect〕

本発明によれば、割当ての判断に密接に関連した予測値
を表わす間接的なパラメータは、割当て用のニューラル
・ネットとは別に設けた第2のニューラル・ネットによ
り得るようにしたので、実測値を用いて効率よく学習を
行うことができ、信頼性の高いパラメータとすることが
できる。
According to the present invention, the indirect parameter representing the predicted value closely related to the determination of the allocation is obtained by the second neural net provided separately from the neural net for allocation. Can be used for efficient learning and can be used as a highly reliable parameter.

しかも、この信頼性の高い間接的なパラメータを割当て
用ニューラル・ネットの入力パターン要素とすることに
より、割当て用ニューラル・ネットの学習効率も高める
ことができ、また、精度の高い割当てを行うことができ
る。
Moreover, by using this highly reliable indirect parameter as the input pattern element of the neural network for allocation, the learning efficiency of the neural net for allocation can be improved, and highly accurate allocation can be performed. it can.

また、第2のニューラル・ネットで得た信頼性の高い間
接的なパラメータを割当て判断以外の、例えば乗場への
待時間表示などに用いることもできる。
Further, the highly reliable indirect parameter obtained by the second neural net can be used for other than the allocation determination, for example, for displaying waiting time at the hall.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明によるニューラル・ネットと入力パター
ン要素との関係を示す図、第2図はニューロンをモデル
化したユニットの構造を示す図、第3図(a)(b)は
ユニットの入出力特性の一例を示す図、第4図は一般的
なニューラル・ネットの構造を示す図、第5図はニュー
ラル・ネットを割当て制御に利用した場合の全体の構成
の一実施例を示す図、第6図は従来のニューラル・ネッ
トと入力パターン要素との関係を示す図である。 8a……割当て用ニューラル・ネット 8b……第2のニューラル・ネット a1〜d1……1号機に対応する直接的なパラメータを表わ
す入力パターン要素 a2〜d2……2号機に対応する直接的なパラメータを表わ
す入力パターン要素 S1,t1……1号機に対応する間接的なパラメータを表わ
す入力パターン要素 S2,t2……2号機に対応する間接的なパラメータを表わ
す入力パターン要素
FIG. 1 is a diagram showing the relationship between a neural net according to the present invention and input pattern elements, FIG. 2 is a diagram showing the structure of a unit that models a neuron, and FIGS. 3 (a) and 3 (b) are the input units. FIG. 4 is a diagram showing an example of the output characteristics, FIG. 4 is a diagram showing the structure of a general neural net, and FIG. 5 is a diagram showing an embodiment of the overall configuration when the neural net is used for allocation control. FIG. 6 is a diagram showing the relationship between a conventional neural net and input pattern elements. 8a ... Assignment neural net 8b ... Second neural net a 1 to d 1 ...... Input pattern elements a 2 to d 2 representing direct parameters corresponding to Unit 1 Corresponding to Unit 2 Input pattern element representing a direct parameter S 1 , t 1 ...... Input pattern element representing an indirect parameter corresponding to Unit 1 S 2 , t 2 ...... Input pattern representing an indirect parameter corresponding to Unit 2 element

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】複数の階床に対し複数台のエレベータを就
役させ、新規に発生した乗場呼びに対して、その時点の
状況を表わす種々のパラメータを入力パターン要素とし
て割当て用のニユーラル・ネットに入力し、その出力に
より最適なかごを選択して割当てるようにしたエレベー
タの群管理制御装置において、 前記割当て用のニューラル・ネットとは別に第2のニュ
ーラル・ネットを設け、該第2のニューラル・ネットに
は直接測定可能な値を表す直接的なパラメータを入力要
素として入力し、予測値を表す間接的なパラメータをそ
の出力として得ると共に、該間接的なパラメータと前記
直接的なパラメータを入力パターン要素として前記割当
て用ニューラル・ネットに入力する構成としたことを特
徴とするエレベータの群管理制御装置。
1. A plurality of elevators are put into service for a plurality of floors, and various parameters representing the situation at that time are assigned as input pattern elements to a neural net for allocation for a newly generated hall call. In an elevator group supervisory control device for inputting and selecting an optimum car according to its output, a second neural net is provided in addition to the above-mentioned neural net for allocation, and the second neural net is provided. A direct parameter representing a directly measurable value is input as an input element to the net, an indirect parameter representing a predicted value is obtained as its output, and the indirect parameter and the direct parameter are input patterns. An elevator group supervisory control device, characterized in that the elements are input to the allocation neural net.
JP1109299A 1989-04-27 1989-04-27 Elevator group management control device Expired - Fee Related JPH0764488B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1109299A JPH0764488B2 (en) 1989-04-27 1989-04-27 Elevator group management control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1109299A JPH0764488B2 (en) 1989-04-27 1989-04-27 Elevator group management control device

Publications (2)

Publication Number Publication Date
JPH02286581A JPH02286581A (en) 1990-11-26
JPH0764488B2 true JPH0764488B2 (en) 1995-07-12

Family

ID=14506665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1109299A Expired - Fee Related JPH0764488B2 (en) 1989-04-27 1989-04-27 Elevator group management control device

Country Status (1)

Country Link
JP (1) JPH0764488B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5529147A (en) * 1990-06-19 1996-06-25 Mitsubishi Denki Kabushiki Kaisha Apparatus for controlling elevator cars based on car delay
JP3414843B2 (en) * 1993-06-22 2003-06-09 三菱電機株式会社 Transportation control device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02163275A (en) * 1988-12-15 1990-06-22 Toshiba Corp Group-control controller for elevator

Also Published As

Publication number Publication date
JPH02286581A (en) 1990-11-26

Similar Documents

Publication Publication Date Title
US5022498A (en) Method and apparatus for controlling a group of elevators using fuzzy rules
JP4870863B2 (en) Elevator group optimum management method and optimum management system
JP2664782B2 (en) Elevator group control device
US5767461A (en) Elevator group supervisory control system
JPH075235B2 (en) Elevator group management control device
JPH0764488B2 (en) Elevator group management control device
JPH0764490B2 (en) Elevator group management control device
JPH0742055B2 (en) Elevator group management control method
JP2500407B2 (en) Elevator group management control device construction method
JP2979993B2 (en) Learning method of neural network for elevator call assignment
JP2959425B2 (en) Elevator group control device
JP2956516B2 (en) Elevator group control device
JP2867849B2 (en) Learning method of neural network for elevator call assignment
JP2964902B2 (en) Learning method of neural network for elevator call assignment
JP2988312B2 (en) Elevator group control device
JP2988306B2 (en) Elevator group control device
JP2964907B2 (en) Elevator group control device
JP3060879B2 (en) Construction of a Neural Network for Call Assignment and Its Learning Method
JP2664766B2 (en) Group control elevator system
JPH08310746A (en) Learning method for waiting time predicting neural net
JP2962182B2 (en) Elevator group control device
JP3407660B2 (en) Elevator group control device
JPH08104472A (en) Group supervisory operation controller of elevator
JP2991077B2 (en) Elevator group control device
JPH0790996B2 (en) Group management control method for elevators

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees