JPH08310746A - Learning method for waiting time predicting neural net - Google Patents

Learning method for waiting time predicting neural net

Info

Publication number
JPH08310746A
JPH08310746A JP7145539A JP14553995A JPH08310746A JP H08310746 A JPH08310746 A JP H08310746A JP 7145539 A JP7145539 A JP 7145539A JP 14553995 A JP14553995 A JP 14553995A JP H08310746 A JPH08310746 A JP H08310746A
Authority
JP
Japan
Prior art keywords
waiting time
learning
neural network
hall call
teacher signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7145539A
Other languages
Japanese (ja)
Other versions
JP3106908B2 (en
Inventor
Masamitsu Nakagawa
真実 中川
Kenji Sasaki
建次 佐々木
Shiyandoru Marukon
シャンドル マルコン
Ichiro Nagashima
一郎 長島
Takeshi Midoritani
武 緑谷
Tomoaki Tanabe
友晃 田辺
Naoki Ota
直樹 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitec Co Ltd
Original Assignee
Fujitec Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitec Co Ltd filed Critical Fujitec Co Ltd
Priority to JP07145539A priority Critical patent/JP3106908B2/en
Priority to US08/576,937 priority patent/US5767461A/en
Publication of JPH08310746A publication Critical patent/JPH08310746A/en
Application granted granted Critical
Publication of JP3106908B2 publication Critical patent/JP3106908B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Elevator Control (AREA)
  • Indicating And Signalling Devices For Elevators (AREA)

Abstract

PURPOSE: To efficiently conduct learning and predict the waiting time with high accuracy by using the system state data of a group when a hall call occurs as the input pattern, and using only the waiting time of the allocated elevator for the hall call as the teacher signal to generate the learning sample. CONSTITUTION: This waiting time predicting neural net is constituted of a three-layer structure: input layer, intermediate layer, and output layer to cope with the number of elevators, e.g. three. The system state data of a group (data on all elevators) are used as the input patter, only the waiting time of the allocated elevator is used as the teacher signal to generate the learning sample, and the learning sample is used for learning. Only the connection Weight connected to the neuron applied with the teacher signal is corrected based on the error between the teacher signal and the output in the output layer. The corrected value is reflected on the connection weight connected to the neuron of the other output layer located at the position symmetric with the connection weight.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、エレベータの群管理制
御において、乗場呼びの待ち時間を予測する待ち時間予
測用ニューラルネットの学習方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a learning method of a waiting time prediction neural network for predicting the waiting time of a hall call in elevator group management control.

【0002】[0002]

【従来の技術】従来、エレベータの群管理制御といえば
評価関数を用いた呼び割り当て方式や、ファジー理論を
用いたエキスパートシステムによる呼び割り当て制御が
主流であったが、最近では生物の神経回路をモデルにし
たニューラルネットを用いて呼びの割り当てを行うとい
う新しい方式が提案されており、乗場呼びの待ち時間の
予測にもニューラルネットを用いることが提案されてい
る。
2. Description of the Related Art Hitherto, the group management control of elevators has been mainly performed by a call assignment method using an evaluation function and a call assignment control by an expert system using a fuzzy theory. A new method has been proposed in which call allocation is performed using the above-mentioned neural network, and it is also proposed to use the neural network to predict the waiting time of a hall call.

【0003】ニューラルネットとは、人間の脳をまねた
ネットワークで、神経細胞モデル(ニューロン)が複数
個、複雑に接続され、各ニューロンの動作及びニューロ
ン間の接続形態をうまく決めることによって、パターン
認識機能や知識処理機能を埋め込むことができるという
ものであり、例えば「日経エレクトロニクス」1987
年8月10日号(No.427)のP115〜P124や
1989年2月に産業図書株式会社から刊行された図書
「PDPモデル」などに開示されており、特にニューロ
ンを階層構造に配置したものは「バックプロパゲーショ
ン」と呼ばれる自律的学習アルゴリズムを利用できるこ
とに特徴がある。
A neural network is a network that imitates the human brain. A plurality of nerve cell models (neurons) are connected in a complicated manner, and pattern recognition is performed by deciding the operation of each neuron and the connection form between neurons. Functions and knowledge processing functions can be embedded, for example, "Nikkei Electronics" 1987.
It is disclosed in P115-P124 of the August 10, issue (No. 427) and the book "PDP model" published by Sangyo Tosho Co., Ltd. in February 1989, in which neurons are arranged in a hierarchical structure. Is characterized by the availability of an autonomous learning algorithm called "back propagation".

【0004】このニューラルネットを用いると、割り当
てアルゴリズムや待ち時間予測のアルゴリズムを人間が
一切考える必要はなく、しかも各種の交通状況に対応し
て、結果的には最適な割り当てかごを決定する判断シス
テムや待ち時間を予測するシステムを自動的に生成でき
るという優れた効果があり、例えばエレベータの呼び割
り当てに用いた例としては、特開平1−275381号
「エレベータの群管理制御装置」や、特開平3−311
73号「エレベータの群管理制御装置」、特願平5−2
43817号「エレベータ呼び割当て用ニューラルネッ
トの学習方法」などがある。また、待ち時間の予測に用
いた例としては、特開平2−286581号「エレベー
タの群管理制御装置」や、特開平5−246633号
「エレベータ群管理制御装置の構築方法」などがある。
When this neural network is used, it is not necessary for a human to consider an allocation algorithm or a waiting time prediction algorithm, and in addition, a decision system for determining an optimal allocation car in response to various traffic situations. There is an excellent effect that a system for predicting the waiting time and the waiting time can be automatically generated. For example, as an example used for elevator call assignment, Japanese Patent Laid-Open No. 1-275381, "Elevator Group Management Control Device", 3-311
No. 73 “Elevator group management control device”, Japanese Patent Application No. 5-2
No. 43817 "Learning method for neural net for elevator call assignment". Further, examples used for the waiting time prediction include JP-A-2-286581 "Elevator group management control device" and JP-A-5-246633 "Elevator group management control device construction method".

【0005】ここで呼び割り当て用ニューラルネットの
一例を図5に示す。図5に示すように、呼び割り当て用
のニューラルネットNNは、入力パターン(エレベータ
の群のシステム状態データ)に対応する入力層NR1
と、出力パターン(割り当て適性)に対応する出力層N
R3 と、入力層と出力層の中間に置かれる中間層NR2
のニューロンとで構成される。
An example of the call assignment neural network is shown in FIG. As shown in FIG. 5, the call assignment neural net NN has an input layer NR1 corresponding to an input pattern (system state data of a group of elevators).
And the output layer N corresponding to the output pattern (appropriation of allocation)
R3 and an intermediate layer NR2 placed between the input layer and the output layer
And neurons.

【0006】入力パターンは、エレベータの群のシステ
ム状態を表す種々のデータ(各号機の現在位置から新規
乗場呼び発生階までの距離、途中の停止予定数、かご内
の混雑状況等、呼びの割り当てに必要と思われるデー
タ)をニューラルネットに入力できる形に変換したもの
であり、入力層のニューロンの数はそのデータの総数に
対応する。
The input patterns are various data representing the system status of the elevator group (call allocation such as the distance from the current position of each unit to the floor where the new hall call is generated, the planned number of stops on the way, the congestion situation in the car, etc.). The data that seems to be necessary) are converted into a form that can be input to the neural network, and the number of neurons in the input layer corresponds to the total number of the data.

【0007】この入力層の各ニューロンに入力データを
与えると、出力層に向かって順に信号が伝わり、その結
果出力層の各ニューロンからそれぞれ何らかの値が出力
される。出力層では、エレベータの台数分のニューロン
があり、さまざまな入力パターンに対して、割り当てに
最適である号機に対応するニューロンが「1」(または
最大値)を、その他のニューロンは「0」を出力するよ
うに予め学習されている。
When input data is given to each neuron of the input layer, a signal is sequentially transmitted to the output layer, and as a result, some value is output from each neuron of the output layer. In the output layer, there are as many neurons as the number of elevators, and for various input patterns, the neuron corresponding to the number that is optimal for allocation is "1" (or maximum value), and the other neurons are "0". Pre-learned to output.

【0008】従って、学習の終了後は出力パターンの各
ニューロンの値の中で、「1」(または最大値)に最も
近い値を出力したニユーロンが割り当てに最適であるこ
とを示すことになり、このニューロンに対応する号機が
割り当て号機として選択される。なお、中間層(実施例
では一層だけであるが、複数であってもよい)のニュー
ロンの数は、エレベータの台数やビルの性質等に応じて
適宜定められる。
Therefore, after the learning, it is shown that among the values of each neuron in the output pattern, the neuron that outputs the value closest to "1" (or the maximum value) is the most suitable for allocation, The number corresponding to this neuron is selected as the assigned number. The number of neurons in the intermediate layer (the number of which is one in the embodiment, but may be plural) is appropriately determined according to the number of elevators, the property of the building, and the like.

【0009】また、図示を省略しているが、各ニューロ
ン間にはニューロンの結び付きの強さを表す結合重み
(シナプスウェイト)が設定されている。この結合重み
は、最初は適当な値に設定されているが、その後「バッ
クプロパゲーション」と呼ばれる学習アルゴリズムを用
いて、より精度の高い呼び割り当てができるように修正
していくことができる。
Although not shown, connection weights (synaptic weights) representing the connection strength of neurons are set between the neurons. This connection weight is initially set to an appropriate value, but it can be modified thereafter by using a learning algorithm called "backpropagation" so that more accurate call allocation can be performed.

【0010】このバックプロパゲーションについてはよ
く知られているので詳細な説明は省略するが、予め作成
された学習用サンプル(入力パターンと、その入力パタ
ーンに対する望ましい出力パターンすなわち教師信号と
を対にしたもの)を用い、同一の入力パターンに対する
出力パターンと教師信号とを比較し、その誤差を最小化
するように結合重みを修正していくアルゴリズムで、ま
ず最初はすべての重みを初期化(例えばランダムな値に
設定)しておき、入力層の各ニューロンに学習用サンプ
ルの入力パターンを与える。そしてこのときの出力パタ
ーンとその学習用サンプルの出力パターン(教師信号)
とを比較し、その差(誤差)を用いて、その差が小さく
なるように各結合重みの値を出力層側から順に修正して
いくのである。
Since this back propagation is well known, a detailed description thereof will be omitted, but a learning sample prepared in advance (an input pattern and a desired output pattern corresponding to the input pattern, that is, a teacher signal is paired. , Which compares the output pattern for the same input pattern with the teacher signal, and modifies the connection weights to minimize the error. Initially, all weights are initialized (for example, at random). Set to a certain value) and give the learning pattern input pattern to each neuron in the input layer. Then, the output pattern at this time and the output pattern of the learning sample (teacher signal)
And the difference (error) is compared, and the value of each connection weight is corrected in order from the output layer side so that the difference becomes smaller.

【0011】そして、多数の学習用サンプルを用いて誤
差が収束するまでこれを繰り返すと、ニューラルネット
に教師信号と同レベルの呼び割当機能が自動的に埋め込
まれたことになり、学習用の入力パターンだけでなく未
知の入力パターンに対しても、教師信号と同レベルの呼
び割り当てを行なうことができるようになる。
When this is repeated until the error converges using a large number of learning samples, the call assignment function of the same level as the teacher signal is automatically embedded in the neural network, and the learning input is used. Not only the pattern but also the unknown input pattern can be assigned the call at the same level as the teacher signal.

【0012】なお、待ち時間予測用のニューラルネット
も上記と同様にして、乗場呼び発生時のエレベータシス
テムの状態を表す種々のデータを入力パターンとし、そ
れに対する実際の待ち時間を教師信号として上記と同様
に学習を行うと、未知の入力パターンに対しても教師信
号と同レベルの待ち時間を予測できるようになる。
In the same way as above, the neural network for waiting time prediction also uses various data representing the state of the elevator system when the hall call occurs as an input pattern, and the actual waiting time for it as a teacher signal. By similarly learning, it becomes possible to predict the waiting time at the same level as the teacher signal for an unknown input pattern.

【0013】[0013]

【発明が解決しようとする課題】ところで、乗場呼びの
待ち時間を予測するニューラルネットを作成する場合、
最もシンプルな方法としては、乗場呼びを割り当てられ
た号機(または先着号機)に関する情報だけをニューラ
ルネットに入力し、その割当号機(先着号機)に対する
乗場呼びの待ち時間を出力する、図6に示すような構成
とすることが考えられる。
By the way, when a neural network for predicting the waiting time of a hall call is created,
The simplest method is shown in FIG. 6, in which only the information regarding the number (or first-arrival unit) to which the hall call is assigned is input to the neural network, and the waiting time of the hall call for the assigned number (first-arrival unit) is output. It is conceivable to have such a configuration.

【0014】しかし、割当号機(先着号機)以外の他の
号機の状態が全く影響しないわけではない。例えば、割
当号機(仮に1号機とする)の前方に他のエレベータが
あれば、それ以後発生する呼びは1号機には割り当てら
れにくくなり、乗場呼びに対する待ち時間は前方に他の
エレベータがない場合に比べて短くなる可能性が高いと
考えられる。そこで、待ち時間予測の精度を上げるため
には割当号機(先着号機)以外の他の号機の情報もニュ
ーラルネットに入力することが必要であり、図7に示す
ような構成とすることが考えられる。
However, the states of machines other than the allocated machine (first-come-first-served machine) are not affected at all. For example, if there is another elevator in front of the assigned car (tentatively designated as No. 1), it will be difficult for the calls that occur thereafter to be allocated to No. 1, and the waiting time for the hall call will be when there is no other elevator in front. It is more likely to be shorter than Therefore, in order to improve the accuracy of waiting time prediction, it is necessary to input information on other machines than the allocated machine (first-come-first-served machine) to the neural network, and the configuration shown in FIG. 7 can be considered. .

【0015】この場合、学習効率から考えても、割当号
機(先着号機)の情報を入力する位置を固定にした方が
よいことは容易に想像できる。しかし、図7のようなニ
ューラルネットでは構造に対称性が無く、汎用的でな
い。例えば、前述の特開平5−246633号に示され
ているように、待ち時間を学習させたニューラルネット
をもとに呼び割当用ニューラルネットを作成する場合、
図7のような構造の待ち時間予測ニューラルネットでは
次のような問題点がある。
In this case, it can be easily imagined that it is better to fix the position for inputting the information of the assigned vehicle (first-arrival vehicle) in view of learning efficiency. However, the neural network as shown in FIG. 7 has no symmetry in its structure and is not universal. For example, as shown in the above-mentioned Japanese Patent Laid-Open No. 5-246633, when a call assignment neural network is created based on a neural network in which the waiting time is learned,
The waiting time prediction neural network having the structure shown in FIG. 7 has the following problems.

【0016】・同じ学習サンプルを使って学習させる場
合(その方が使用するメモリが少なくてすむ)、待ち時
間予測用ニューラルネットと呼び割当用ニューラルネッ
トでは、入力パターンの配置を変えなければならない。 ・待ち時間予測用ニューラルネットを呼び割当用ニュー
ラルネットに切り替える場合に、出力層と中間層の間の
構造を変更しなければならない。そこで、図8に示すよ
うに、全号機の予測待ち時間を出力するようにして、対
称性を持たせた構造にすることが考えられるが、その場
合、教師信号の作り方が問題となる。
When learning is performed using the same learning sample (which requires less memory), the layout of the input patterns must be changed in the waiting time prediction neural network and the call allocation neural network. -When switching the waiting time prediction neural network to the call allocation neural network, the structure between the output layer and the intermediate layer must be changed. Therefore, as shown in FIG. 8, it is conceivable to output the predicted waiting time of all the cars so as to have a structure having symmetry, but in that case, how to make the teacher signal becomes a problem.

【0017】つまり、乗場呼びに応答して先着した号機
以外の待ち時間(到着に要する時間)を定義することが
難しいのである。実際に到着した時間、あるいは通過し
た時間を用いることも考えられるが、乗場呼びが割り当
てられている場合と、そうでない場合とで、それ以後の
エレベータの運行は変化してしまう。とりわけ、途中階
で反転したり、空かごになって止まってしまう場合に
は、期待する値とは大きく異なるものになる。つまり、
乗場呼びを割り当てられなかった号機については、その
乗場呼びに対する待ち時間(到着に要する時間)を正し
く知ることはできないのである。
In other words, it is difficult to define the waiting time (time required for arrival) other than the first-arriving car in response to the hall call. Although it is conceivable to use the time of actual arrival or the time of passage, the operation of the elevator after that will change depending on whether the hall call is assigned or not. In particular, if you turn over in the middle floor or stop in an empty basket, the value will be significantly different from the expected value. That is,
The waiting time (time required for arrival) for a car that cannot be assigned a hall call cannot be correctly known.

【0018】従って、待ち時間予測用のニューラルネッ
トを図8のような構成とし、学習サンプルを用いて学習
を行う際、一つの学習サンプルにおいて、すべての号機
の待ち時間を教師信号として与えるようにすると、あま
り意味のない情報を学習させてしまう危険性があり、学
習の効率が悪くなるだけでなく、予測の精度も低下する
という問題があった。
Therefore, when the neural network for waiting time prediction is constructed as shown in FIG. 8 and the learning sample is used for learning, the waiting time of all machines is given as a teacher signal in one learning sample. Then, there is a risk of learning meaningless information, which not only deteriorates learning efficiency but also decreases prediction accuracy.

【0019】[0019]

【課題を解決するための手段】上記問題点を解決するた
め、本発明では、群のシステム状態データ(各号機すべ
てに関するデータ)を入力パターンとし、一方教師信号
は割当号機(先着号機)の待ち時間だけとした学習サン
プルを作成し、この学習サンプルを用いて学習を行う。
このとき出力層においては、教師信号の与えられたニュ
ーロンに接続されている結合重みだけを教師信号と出力
との誤差に基づいて修正し、該修正後の値を、該結合重
みと対称の位置にある他の出力層のニューロンに接続さ
れている結合重みに反映させるようにしたことを特徴と
する。
In order to solve the above-mentioned problems, in the present invention, the system status data of a group (data relating to all units) is used as an input pattern, while the teacher signal waits for an assigned unit (first unit). A learning sample with only time is created, and learning is performed using this learning sample.
At this time, in the output layer, only the connection weight connected to the neuron to which the teacher signal is given is corrected based on the error between the teacher signal and the output, and the corrected value is set at a position symmetrical to the connection weight. It is characterized in that it is reflected in the connection weight connected to the neuron of the other output layer in.

【0020】[0020]

【作用】本発明においては、学習時、出力層においては
教師信号の与えられたニューロンに接続されている結合
重みだけが誤差に基づいて修正され、他の出力層のニュ
ーロンに接続されている結合重みについては、上記修正
後の値がそのまま利用される。
In the present invention, at the time of learning, in the output layer, only the connection weight connected to the neuron to which the teacher signal is given is corrected based on the error, and the connection weight is connected to the neuron of another output layer. For the weight, the value after the above correction is used as it is.

【0021】[0021]

【実施例】以下、本発明の一実施例について図面を参照
しながら説明する。図1は、本発明における待ち時間予
測用のニューラルネットの構造を示す図(一部図示省
略)で、ここでは図8と同様に、入力層(第1層),中
間層(第2層),出力層(第3層)の3層構造からな
り、エレベータの台数は3台である場合を例にとって示
している。図2は、それぞれのニューロンの構造を示す
図である。
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram (partially omitted) of the structure of a neural network for waiting time prediction according to the present invention. Here, as in FIG. 8, an input layer (first layer) and an intermediate layer (second layer). The output layer (third layer) has a three-layer structure, and the number of elevators is three. FIG. 2 is a diagram showing the structure of each neuron.

【0022】図1及び図2において、Umi (K) はK号機
の第m層のi番目のニューロンを、Qmi (K) はK号機の
第m層のi番目のニューロンからの出力を、Pi (K)
K号機のi番目の入力データ(Pi (0) は群全体に関す
るi番目の入力データ)を、Wmij (K,L) はK号機の第
m層のi番目のニューロンと、L号機の第m−1層のj
番目のニューロンとの間の結合重みをそれぞれ表してい
る。
1 and 2, U mi (K) is the output from the i-th neuron in the m-th layer of K , and Q mi (K) is the output from the i-th neuron in the m-th layer of K. , P i (K) is the i-th input data of Unit K (P i (0) is the i-th input data for the whole group), and W mij (K, L) is the i-th unit of the m-th layer of Unit K. And the j of the m-1th layer of L machine
The connection weights with the th neuron are shown.

【0023】図3は、本発明における学習サンプルの作
成手順を示すフローチャートで、まずステップS1にお
いて、新たな乗場呼びが発生したか否かを判定し、呼び
が発生するとステップS2で、その呼びの発生時刻を記
憶すると共に、ステップS3でその呼びの発生時点にお
ける群のシステム状態データを記憶する。
FIG. 3 is a flow chart showing the procedure for creating a learning sample according to the present invention. First, in step S1, it is determined whether or not a new hall call is generated. When a call is generated, the call is confirmed in step S2. The time of occurrence is stored, and the system state data of the group at the time of occurrence of the call is stored in step S3.

【0024】そしてステップS4で、かごがその呼びに
応答して停止したことを確認すると、ステップS5で現
在時刻と呼びの発生時刻との差をとり、その乗場呼びの
実際の待ち時間を算出する。そしてステップS6で、そ
の呼びの発生時点における群のシステム状態データと実
際の待ち時間とを対にした学習サンプルとして登録す
る。こうして乗場呼びが発生するごとに上記の手順を繰
り返すと、割当号機(または先着号機)の待ち時間だけ
を教師信号とした学習サンプルが多数登録される。
When it is confirmed in step S4 that the car has stopped in response to the call, in step S5 the difference between the current time and the call generation time is calculated to calculate the actual waiting time for the hall call. . Then, in step S6, the system state data of the group at the time the call is generated and the actual waiting time are registered as a learning sample. When the above procedure is repeated each time a hall call is generated, a large number of learning samples in which only the waiting time of the assigned machine (or the first-arrival machine) is used as the teacher signal is registered.

【0025】なお、上記の学習サンプル作成手順の実行
は、現場で実際にエレベータを稼働しながら行ってもよ
いし、シミュレーションによってもよい。その際、呼び
の割り当てはニューラルネットを用いる方法、或いは従
来の評価関数による方法、ファジールールを用いる方法
等の何れであってもよい。
The learning sample preparation procedure described above may be performed while the elevator is actually operating in the field or by simulation. At that time, the call may be assigned by any of a method using a neural network, a method using a conventional evaluation function, a method using a fuzzy rule, and the like.

【0026】図4は、本発明におけるニューラルネット
の学習手順を示すフローチャートであり、上記の学習サ
ンプルにより学習を行う。まずステップS11で、サン
プル番号を表す変数Nを0に初期化し、ステップS12
でNの値をN+1にインクリメントする。ステップS1
3では、N番目の学習サンプルの入力パターンと出力目
標を設定し、ステップS14でそのN番目のサンプルに
ついてニューラルネットの入力層から順に各層の演算を
行う。
FIG. 4 is a flow chart showing the learning procedure of the neural network according to the present invention, and the learning is performed by the above learning sample. First, in step S11, a variable N representing a sample number is initialized to 0, and step S12
Increments the value of N to N + 1. Step S1
In step 3, the input pattern and output target of the Nth learning sample are set, and in step S14, the operation of each layer is sequentially performed on the Nth sample from the input layer of the neural network.

【0027】そしてステップS15で出力層の出力と出
力目標との誤差を計算し、ステップS16でその誤差に
基づいて中間層と出力層の間の結合重みを修正する。い
ま、例えばステップS14において、N番目の学習サン
プルは2号機が割当号機(先着号機)であったとする
と、教師信号は2号機の出力層のニューロンにだけ与え
られるので、ステップS15では、2号機の出力層(第
3層)のニューロンからの出力であるQ31 (2) と教師信
号との誤差だけを計算し、ステップS16でこの誤差に
基づいて2号機の出力層のニューロンであるU31 (2)
接続されている結合重みを順次修正する。
Then, in step S15, the error between the output of the output layer and the output target is calculated, and in step S16, the connection weight between the intermediate layer and the output layer is corrected based on the error. Now, for example, in step S14, if the N-th learning sample is that the second machine is the assigned machine (first-come-first-served machine), the teacher signal is given only to the neurons in the output layer of the second machine. Only the error between the output of the neuron in the output layer (third layer) Q 31 (2) and the teacher signal is calculated, and in step S16, based on this error, U 31 ( the output layer neuron of Unit 2 ). Modify the connection weights connected to 2) in sequence.

【0028】このとき、1号機の出力層のニューロンU
31 (1) に接続されている結合重みと、3号機の出力層の
ニューロンU31 (3) に接続されている結合重みの修正
は、一般にエレベータは各号機に対して対称性を有する
ことから、2号機に対する修正結果をそのまま用いるこ
とができる。例えばそれぞれ対称位置にあるW311 (1,1)
とW311 (3,3) はW311 (2,2) と同じ値とすることがで
き、またW311 (1,2)とW311 (1,3) ,W311 (2,1) ,W
311 (2,3) 、W311 (3,1) 、W311 (3,2) はそれぞれ同じ
値とすることができる。
At this time, the neuron U in the output layer of Unit 1
The modification of the connection weight connected to 31 (1) and the connection weight connected to neuron U 31 (3) in the output layer of Unit 3 is because the elevator generally has symmetry with respect to each unit. The correction result for Unit 2 can be used as it is. For example, W 311 (1,1) at symmetrical positions
And W 311 (3,3) can be the same value as W 311 (2,2), and W 311 (1,2) and W 311 (1,3) , W 311 (2,1) , W
311 (2,3) , W 311 (3,1) and W 311 (3,2) can have the same value.

【0029】なお、対称位置にある各結合重みを常に同
じ値とするには、誤差に基づいて修正する毎にその結果
をそれぞれコピーするようにしてもよいが、予めプログ
ラム上で、同じ値となる結合重みはメモリ上の同一アド
レスを指し示す構造としておくと、一つの結合重みに対
する修正は直ちに他の等価な結合重みにも反映されるこ
とになり、より簡単に効率よく行うことができる。
In order to always make the connection weights at the symmetrical positions have the same value, the result may be copied each time the correction is made based on the error. If the connection weights are configured to point to the same address in the memory, the correction for one connection weight will be immediately reflected in the other equivalent connection weights, which can be performed more easily and efficiently.

【0030】続いて、ステップS17ではステップS1
6の重みの修正結果に基づき、今度は中間層の各ニュー
ロンについて誤差の計算を行い、その誤差に基づいてス
テップS18で入力層と中間層の間の各結合重みを順次
修正する。こうして上記手順を繰り返し、ステップS1
9で全サンプルについて終了したことを確認すると、ス
テップS20を経て誤差が収束するまで再びステップS
11〜S20の手順を繰り返し、誤差が十分に収束する
と学習は完了となり、以後はこのニューラルネットを待
ち時間予測用として使用することができるようになる。
Then, in step S17, step S1
Based on the correction result of the weight of 6, the error is calculated for each neuron of the intermediate layer, and each connection weight between the input layer and the intermediate layer is sequentially corrected in step S18 based on the error. Thus, the above procedure is repeated, and step S1
When it is confirmed in step 9 that all the samples have been completed, the process goes through step S20 and is repeated until the error converges.
When the steps 11 to S20 are repeated and the error is sufficiently converged, the learning is completed, and thereafter, this neural network can be used for waiting time prediction.

【0031】[0031]

【発明の効果】本発明によれば、複数の出力層のニュー
ロンに対して1つの教師信号しか与えないが、実際には
全ての出力層ニューロンに対して教師信号を与えたのと
同等の学習を行うことができ、効率よく学習を行うこと
ができる。また、教師信号として割当号機(先着号機)
の待ち時間だけを与えるようにしたので、精度の高い待
ち時間予測を行うことができる。
According to the present invention, only one teacher signal is given to neurons in a plurality of output layers, but in reality, learning is equivalent to giving a teacher signal to all output layer neurons. Can be done, and learning can be done efficiently. Also, the assigned number (first-come-first-served number) as a teacher signal
Since only the waiting time is given, the waiting time can be predicted with high accuracy.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明における待ち時間予測用ニューラルネッ
トの構成を示す図である。
FIG. 1 is a diagram showing a configuration of a waiting time prediction neural network according to the present invention.

【図2】ニューロンの構造を示す図である。FIG. 2 is a diagram showing a structure of a neuron.

【図3】本発明における学習サンプル作成の手順の一例
を示すフローチャートである。
FIG. 3 is a flowchart showing an example of a procedure for creating a learning sample according to the present invention.

【図4】本発明におけるニューラルネットの学習手順を
示すフローチャートである。
FIG. 4 is a flowchart showing a learning procedure of a neural network according to the present invention.

【図5】呼び割当て用ニューラルネットの一例を示す図
である。
FIG. 5 is a diagram showing an example of a neural network for call assignment.

【図6】待ち時間予測用ニューラルネットの構成を示す
図である。
FIG. 6 is a diagram showing a configuration of a waiting time prediction neural network.

【図7】待ち時間予測用ニューラルネットの構成を示す
図である。
FIG. 7 is a diagram showing a configuration of a waiting time prediction neural network.

【図8】待ち時間予測用ニューラルネットの構成を示す
図である。
FIG. 8 is a diagram showing a configuration of a waiting time prediction neural network.

【符号の説明】[Explanation of symbols]

11 (0) 〜U11 (3) ,U12 (0) 〜U12 (3) 入力層の各ニ
ューロン U21 (1) 〜U21 (3) ,U22 (1) 〜U22 (3) 中間層の各ニ
ューロン U31 (1) 〜U31 (3) 出力層の各ニューロン P1 (0) 〜P1 (3) ,P2 (0) 〜P2 (3) 入力パターンの各
データ Q31 (1) 〜Q31 (3) 1〜3号機の出力(予測待ち時間) Wmij (K,L) 結合重み
U 11 (0) to U 11 (3) , U 12 (0) to U 12 (3) Each neuron in the input layer U 21 (1) to U 21 (3) , U 22 (1) to U 22 (3 ) Each neuron in the intermediate layer U 31 (1) to U 31 (3) Each neuron in the output layer P 1 (0) to P 1 (3) , P 2 (0) to P 2 (3) Each data of the input pattern Q 31 (1) to Q 31 (3) Output of Units 1 to 3 (predicted waiting time) W mij (K, L) connection weight

───────────────────────────────────────────────────── フロントページの続き (72)発明者 長島 一郎 大阪府茨木市庄1丁目28番10号 フジテッ ク株式会社内 (72)発明者 緑谷 武 大阪府茨木市庄1丁目28番10号 フジテッ ク株式会社内 (72)発明者 田辺 友晃 大阪府茨木市庄1丁目28番10号 フジテッ ク株式会社内 (72)発明者 太田 直樹 大阪府茨木市庄1丁目28番10号 フジテッ ク株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Ichiro Nagashima 1-28-10 Sho, Ibaraki, Osaka Prefecture Fujitec Co., Ltd. (72) Inventor Takeshi Midoriya 1-28-10 Sho, Ibaraki, Osaka Fujitec (72) Inventor Tomoaki Tanabe 1-28-10 Sho, Ibaraki, Osaka Prefecture Fujitec Co., Ltd. (72) Inventor Naoki Ota 1-28-10 Sho, Ibaraki, Osaka Fujitec Co., Ltd. Within

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 乗場呼びが発生すると、その時点におけ
るエレベータの群のシステム状態データをニューラルネ
ットの入力パターンとして使用できる形に変換して入力
し、その出力パターンとして前記乗場呼びに対する各号
機の予測待ち時間を出力する待ち時間予測用ニューラル
ネットの学習方法において、乗場呼び発生時点における
群のシステム状態データを入力パターンとし、その乗場
呼びに対する割当号機(または先着号機)の待ち時間だ
けを教師信号とした学習サンプルを作成し、該学習サン
プルを用いて学習を行うようにしたことを特徴とする待
ち時間予測用ニューラルネットの学習方法。
1. When a hall call occurs, the system state data of the elevator group at that time is converted into a form that can be used as an input pattern of a neural network and input, and as an output pattern, prediction of each unit for the hall call. In a learning method of a waiting time prediction neural network that outputs a waiting time, the system state data of the group at the time when a hall call occurs is used as an input pattern, and only the waiting time of the assigned machine (or first arrival machine) for that hall call is used as a teacher signal. A learning method for a waiting time prediction neural network, wherein the learning sample is created and learning is performed using the learning sample.
【請求項2】 乗場呼びが発生すると、その時点におけ
るエレベータの群のシステム状態データをニューラルネ
ットの入力パターンとして使用できる形に変換して入力
し、その出力パターンとして前記乗場呼びに対する各号
機の予測待ち時間を出力する待ち時間予測用ニューラル
ネットの学習方法において、乗場呼び発生時点における
群のシステム状態データを入力パターンとし、その乗場
呼びに対する割当号機(または先着号機)の待ち時間だ
けを教師信号とした学習サンプルを作成し、該学習サン
プルを用いて学習を行う際、出力層においては、教師信
号の与えられたニューロンに接続されている結合重みだ
けを教師信号と出力との誤差に基づいて修正し、該修正
後の値を、該結合重みと対称の位置にある他の出力層の
ニューロンに接続されている結合重みに反映させるよう
にしたことを特徴とする待ち時間予測用ニューラルネッ
トの学習方法。
2. When a hall call occurs, the system state data of the elevator group at that time is converted into a form that can be used as an input pattern of a neural network and input, and the output pattern of each unit's prediction for the hall call. In a learning method of a waiting time prediction neural network that outputs a waiting time, the system state data of the group at the time when a hall call occurs is used as an input pattern, and only the waiting time of the assigned machine (or first arrival machine) for that hall call is used as a teacher signal. When a learning sample is created and learning is performed using the learning sample, in the output layer, only the connection weight connected to the neuron to which the teacher signal is given is corrected based on the error between the teacher signal and the output. Then, the corrected value is connected to a neuron in another output layer that is symmetric to the connection weight. A learning method for a waiting time prediction neural network, which is characterized in that it is reflected in the existing connection weight.
【請求項3】 前記反映させるとは、予めプログラム上
で、対称位置にある結合重みの値はメモリ上の同一アド
レスを指し示す構造としておくことである請求項2記載
の待ち時間予測用ニューラルネットの学習方法。
3. The waiting time prediction neural network according to claim 2, wherein the reflecting means has a structure in which a value of a connection weight at a symmetrical position indicates a same address on a memory in advance on a program. Learning method.
JP07145539A 1995-02-16 1995-05-18 Learning method of neural network for waiting time prediction Expired - Lifetime JP3106908B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP07145539A JP3106908B2 (en) 1995-05-18 1995-05-18 Learning method of neural network for waiting time prediction
US08/576,937 US5767461A (en) 1995-02-16 1995-12-22 Elevator group supervisory control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07145539A JP3106908B2 (en) 1995-05-18 1995-05-18 Learning method of neural network for waiting time prediction

Publications (2)

Publication Number Publication Date
JPH08310746A true JPH08310746A (en) 1996-11-26
JP3106908B2 JP3106908B2 (en) 2000-11-06

Family

ID=15387535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07145539A Expired - Lifetime JP3106908B2 (en) 1995-02-16 1995-05-18 Learning method of neural network for waiting time prediction

Country Status (1)

Country Link
JP (1) JP3106908B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111191833A (en) * 2019-12-25 2020-05-22 湖北美和易思教育科技有限公司 Intelligent experiment process recommendation method and system based on neural network
JP2023090330A (en) * 2021-12-17 2023-06-29 東芝エレベータ株式会社 Elevator group management system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9185975B2 (en) 2012-02-13 2015-11-17 Ultraframe Holdings, Llc Modular stackable shelving framework and equipment storage system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111191833A (en) * 2019-12-25 2020-05-22 湖北美和易思教育科技有限公司 Intelligent experiment process recommendation method and system based on neural network
CN111191833B (en) * 2019-12-25 2023-04-18 武汉美和易思数字科技有限公司 Intelligent experiment process recommendation method and system based on neural network
JP2023090330A (en) * 2021-12-17 2023-06-29 東芝エレベータ株式会社 Elevator group management system

Also Published As

Publication number Publication date
JP3106908B2 (en) 2000-11-06

Similar Documents

Publication Publication Date Title
US5767461A (en) Elevator group supervisory control system
JPH01275381A (en) Device for controlling elevator group
JP3106908B2 (en) Learning method of neural network for waiting time prediction
JP2959425B2 (en) Elevator group control device
JPH0742055B2 (en) Elevator group management control method
JP2979993B2 (en) Learning method of neural network for elevator call assignment
JPH0331173A (en) Group management control device for elevator
JP2988312B2 (en) Elevator group control device
JP2964902B2 (en) Learning method of neural network for elevator call assignment
JP2964907B2 (en) Elevator group control device
JP2991077B2 (en) Elevator group control device
JP3060879B2 (en) Construction of a Neural Network for Call Assignment and Its Learning Method
JP2956516B2 (en) Elevator group control device
JP2500407B2 (en) Elevator group management control device construction method
JP2962182B2 (en) Elevator group control device
JP2988306B2 (en) Elevator group control device
JP2962174B2 (en) Elevator group control device
JP2867849B2 (en) Learning method of neural network for elevator call assignment
JP3215001B2 (en) Learning method of neural network for elevator call assignment
JP3052768B2 (en) Elevator group control device
JP2964900B2 (en) Learning method of neural network for call assignment
JPH08104472A (en) Group supervisory operation controller of elevator
JP2998589B2 (en) Elevator group control device
JP2964908B2 (en) Elevator group control device
JPH02163275A (en) Group-control controller for elevator

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090908

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100908

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100908

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110908

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110908

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120908

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130908

Year of fee payment: 13

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term