JP2865774B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP2865774B2
JP2865774B2 JP2049311A JP4931190A JP2865774B2 JP 2865774 B2 JP2865774 B2 JP 2865774B2 JP 2049311 A JP2049311 A JP 2049311A JP 4931190 A JP4931190 A JP 4931190A JP 2865774 B2 JP2865774 B2 JP 2865774B2
Authority
JP
Japan
Prior art keywords
image processing
information
image
output
teacher
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2049311A
Other languages
Japanese (ja)
Other versions
JPH03256934A (en
Inventor
鈴木  優人
博美 稲葉
寛 武長
正親 山崎
大沼  直人
中村  清
吉男 坂井
健治 米田
尚文 仲田
笠井  昭二
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2049311A priority Critical patent/JP2865774B2/en
Priority to KR1019910003180A priority patent/KR100204101B1/en
Priority to GB9104342A priority patent/GB2243906B/en
Priority to CN91101376A priority patent/CN1054844A/en
Priority to US07/664,319 priority patent/US5182776A/en
Publication of JPH03256934A publication Critical patent/JPH03256934A/en
Priority to HK150295A priority patent/HK150295A/en
Application granted granted Critical
Publication of JP2865774B2 publication Critical patent/JP2865774B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Indicating And Signalling Devices For Elevators (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Feedback Control In General (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、画像処理装置に係り、特に群管理エレベー
ターの待客数検出に用いて好適な画像処理装置の改良に
関する。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, and more particularly to an improvement in an image processing apparatus suitable for use in detecting the number of customers waiting for a group management elevator.

〔従来の技術〕[Conventional technology]

画像情報を処理して物体を検出する装置として、従来
より各種方式が提案されている。例えば、自動車を対象
とした交通流計測システムとして、電子通信学会論文
誌'85/3 Vol.J68−D No3 第308頁〜第315頁(文献
1)には、高速道路上方から撮影した画像を各種定数
(パラメータ)の定められたアルゴリズムにより処理す
る技術が開示されている。
2. Description of the Related Art Various methods have been proposed as devices for processing an image information to detect an object. For example, as a traffic flow measurement system for automobiles, the IEICE Transactions '85 / 3 Vol.J68-D No3 pp. 308-315 (Reference 1) contains images taken from above a highway. There is disclosed a technology for processing by an algorithm in which various constants (parameters) are determined.

また、人の流れを計測する装置としては、電子通信学
会論文IE80−73(1980.11)(文献2)に記載のよう
に、まず学習により画像処理アルゴリズムに用いる各種
閾値や重みを決定し、この結果を用いて画像処理を実行
するものが公知である。
As a device for measuring the flow of a person, various thresholds and weights used in an image processing algorithm are first determined by learning, as described in IE80-73 (1980.11) (Reference 2). An image processing apparatus that performs image processing by using is known.

更に、特開平1−241667号公報(文献3)に開示され
たように、音声認識技術にニユーラルネツトワークを用
いるに際し、学習モードにおいては、正解が判つている
音声パターンを入力し、用意された正解との差をなくす
方向に、荷重(結合)係数を修正していくものが知られ
ている。
Further, as disclosed in Japanese Patent Application Laid-Open No. 1-241667 (Document 3), when a neural network is used for a speech recognition technique, a speech pattern for which a correct answer is known is input and prepared in a learning mode. It is known to correct the load (coupling) coefficient in a direction to eliminate the difference from the correct answer.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

上記従来技術はいずれも、処理結果に対する正解が明
らかな入力パターンを多数用意し、これらを繰返し入力
して、その正解を得ることができるように学習させるも
のである。従つて、用意された入力パターンに対して正
解が得られるようになったとしても、入力情報が得られ
る環境に、当初予測できない変化が生じた場合などには
追従できないものであつた。
In each of the above prior arts, a large number of input patterns for which the correct answer to the processing result is clear are prepared, and these are repeatedly input, and learning is performed so that the correct answer can be obtained. Therefore, even if a correct answer can be obtained for a prepared input pattern, it cannot follow an environment in which input information can be obtained when an unpredictable change occurs at first.

例えば、後述する背景の変化などが加えられると、こ
れに追従できず誤つた出力を生ずる画像処理装置があ
る。
For example, there is an image processing apparatus that cannot follow the change of the background, which will be described later, and produces an erroneous output.

本発明は、実稼働状態での画像情報対象物における環
境の変化にも追従して正確な処理出力を得ることのでき
る画像処理装置を提供することを目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing apparatus that can obtain an accurate processing output while following an environmental change in an image information object in an actual operation state.

また、本発明の他の目的は、群管理エレベーターにお
いて、利用客数を正確に把握し、呼びに対して効率の高
い群管理制御を行うことである。
It is another object of the present invention to accurately grasp the number of customers in a group management elevator and perform group management control with high efficiency for calls.

〔課題を解決するための手段〕[Means for solving the problem]

本発明のある一面においては、画像処理手段における
被処理画像を対象とする画像処理結果に対する教師情報
を発生する手段と、この教師情報に基づき上記画像処理
アルゴリズムまたはそのパラメータを修正する手段を備
える。
One aspect of the present invention includes means for generating teacher information for an image processing result for an image to be processed in the image processing means, and means for correcting the image processing algorithm or its parameters based on the teacher information.

本発明は他の一面において、画像処理手段の出力を利
用して被制御対象を制御する手段と、上記画像処理手段
の出力に対する教師情報を発生する手段と、上記画像処
理手段の出力と上記制御手段からの情報とを入力してそ
れらが異常な関係となつたことに応動して上記教師情報
発生手段に起動指令を発生する手段と、この教師情報に
基づき上記画像処理手段の処理アルゴリズムまたはこの
アルゴリズムに用いられるパラメータを修正する手段を
備える。
According to another aspect of the present invention, a means for controlling a controlled object using an output of an image processing means, a means for generating teacher information for an output of the image processing means, an output of the image processing means and the control Means for inputting information from the means and generating a start command to the teacher information generating means in response to the fact that they have an abnormal relationship; and a processing algorithm of the image processing means or a processing algorithm based on the teacher information. Means are provided for modifying parameters used in the algorithm.

ここで、パラメータとは、アルゴリズム上に用いられ
る定数,閾値,重み係数などを総称するものである。
Here, the parameters collectively refer to constants, threshold values, weighting factors, and the like used in the algorithm.

〔作用〕[Action]

画像処理手段は入力される画像情報を処理し、その処
理結果を必要とする制御装置に対して出力する。
The image processing means processes the input image information and outputs a result of the processing to a control device that needs it.

教師情報発生手段としては、前記画像処理手段で処理
する画像情報と同じ画像情報を入力して処理する、より
高精度な画像処理手段或いは画像以外の情報を入力し他
の全く異なる原理により同種の出力を得る検出手段が用
いられ得る。必要に応じて、前記画像処理手段の出力と
前記教師情報発生手段の出力とを比較し、例えば、この
比較結果が不一致である場合に前記教師情報に基づき、
前記画像処理手段のアルゴリズムあるいはそのアルゴリ
ズムで使用している各種閾値や係数などのパラメータを
修正するように動作する。
As the teacher information generating means, the same image information as the image information to be processed by the image processing means is input and processed, and more accurate image processing means or information other than the image is input and the same kind of information is input by another completely different principle. Detection means for obtaining an output may be used. If necessary, compare the output of the image processing means and the output of the teacher information generating means, for example, based on the teacher information when the comparison result is inconsistent,
It operates to modify the algorithm of the image processing means or parameters such as various thresholds and coefficients used in the algorithm.

一般に、簡易性や高速処理性を要求される画像処理装
置においては、画像情報対象物における環境の変化、例
えば、照明の変化や外来光の有無,背景の変化,人数検
出に用いた場合における季節による服装の変化及び混雑
度などに判つて誤差を生じ易い。これに対し、難度の高
い処理を行い、高速性も要求されない高度の画像処理を
行うものにあつては、前記した環境の変化があつても誤
差を生じにくい。
In general, in an image processing apparatus that requires simplicity and high-speed processing, changes in the environment of the image information object, such as changes in lighting, presence or absence of external light, changes in background, and seasons when used for detecting the number of people. An error is likely to occur due to a change in clothes and a degree of congestion due to the change. On the other hand, in the case of performing high-level image processing that does not require high-speed processing and performs high-level processing, errors are unlikely to occur even if the above-described environmental change occurs.

従つて、前者をオンラインで用いる画像処理手段とし
て用い、後者を前記教師情報発生手段として用いれば、
画像処理手段の処理アルゴリズムをオンラインで成長さ
せることができ、より正確な画像処理を可能とする。
Therefore, if the former is used as the image processing means used online and the latter is used as the teacher information generating means,
The processing algorithm of the image processing means can be grown online, and more accurate image processing can be performed.

その他の本発明の目的,構成および作用については以
下に述べる実施例によつて明らかにする。
Other objects, configurations and operations of the present invention will be clarified by the following embodiments.

〔実施例〕〔Example〕

まず、本発明の基本概念構成を第1図により説明す
る。
First, the basic concept configuration of the present invention will be described with reference to FIG.

複数の撮像手段111〜11nで撮像した画像情報を、各
々、画像処理装置121〜12nで処理し、その結果a1〜anを
伝送路13を介して制御装置14に入力する。この制御装置
14は、例えば、後述するエレベーターの群管理制御装置
である。
Image information captured by the plurality of image capturing units 111 to 11n is processed by the image processing devices 121 to 12n, respectively, and the results a1 to an are input to the control device 14 via the transmission path 13. This control device
Reference numeral 14 denotes, for example, an elevator group management control device described later.

また、前記情報a1〜an及び、制御装置14の稼働状況を
示す情報14aを教師情報発生部15の不審情報検知手段151
に入力する。
Further, the information a1 to an and the information 14a indicating the operation status of the control device 14 are sent to the suspicious information detecting means 151 of the teacher information generating unit 15.
To enter.

前記不審情報検知手段151の出力151a及び制御装置14
の出力情報14aは教師情報発生部15の教師情報発生手段1
52に入力され、この教師情報発生手段152の出力情報152
aは前記画像処理装置121〜12nに入力される。
Output 151a of suspicious information detecting means 151 and control device 14
The output information 14a of the teacher information generator 1 of the teacher information generator 15
52, and output information 152 of the teacher information generating means 152.
a is input to the image processing devices 121 to 12n.

一方、前記情報a1〜anと照度検出手段16の出力16a及
び時間出力手段17の出力17aを状況判断手段18に入力
し、この状況判断手段18の出力18aを前記画像処理装置1
21〜12nに入力する。
On the other hand, the information a1 to an, the output 16a of the illuminance detection means 16 and the output 17a of the time output means 17 are input to the situation determination means 18, and the output 18a of the situation determination means 18 is input to the image processing apparatus 1.
Enter 21 to 12n.

以下、画像処理装置121を例にとり動作を説明する。 Hereinafter, the operation will be described using the image processing device 121 as an example.

撮像手段111で撮像した画像情報b1は、画像処理装置1
21の画像処理手段1211に入力され処理される。この処理
は、係数テーブル1212に格納されたデータを用い、被検
出物体の数や形状などの特徴の関する情報或いは2値化
などの処理を施した処理情報に変換するものである。こ
の処理情報a1を用いて、制御装置14は被制御対象を最適
に制御する。
The image information b1 captured by the imaging unit 111 is stored in the image processing device 1
The image data is input to 21 image processing means 1211 and processed. In this process, data stored in the coefficient table 1212 is used to convert the data into information on features such as the number and shape of detected objects or processing information subjected to a process such as binarization. Using the processing information a1, the control device 14 optimally controls the controlled object.

一方、制御装置14は、現時点における制御対象の状況
を示す情報14aを出力する。前記画像処理手段1211の処
理情報a1は、不審情報検知手段151へ入力され、前記制
御対象の状況を示す情報14aと比較され情報の監視が行
われる。
On the other hand, the control device 14 outputs information 14a indicating the current status of the control target. The processing information a1 of the image processing unit 1211 is input to the suspicious information detecting unit 151, and is compared with the information 14a indicating the status of the control target to monitor the information.

すなわち、不審情報検知手段151は、制御対象の状況
に対し、画像処理手段1211の処理結果が合致しているか
否かを判断する。この結果が不一致の場合、不審情報検
知手段151は、画像処理手段1211の処理情報a1と、この
情報a1が不審であることを示す信号、並びに、この情報
a1のもととなつた画像情報b1を含む情報151aを教師情報
発生手段152へ出力する。
That is, the suspicious information detection unit 151 determines whether or not the processing result of the image processing unit 1211 matches the state of the control target. If the result is inconsistent, the suspicious information detecting means 151 includes processing information a1 of the image processing means 1211, a signal indicating that the information a1 is suspicious, and
The information 151a including the image information b1 that is the source of a1 is output to the teacher information generating means 152.

教師情報発生手段152は、前記情報151aに含まれる不
審な情報a1及び画像情報b1を詳細に分析し、前記撮像手
段111で撮像した画像情報b1に対応する正確な処理情報
(以下、教師情報と呼ぶ)152aを得る。この教師情報15
2aは、画像処理装置121の学習手段1213に対して出力さ
れる。
The teacher information generating means 152 analyzes the suspicious information a1 and the image information b1 included in the information 151a in detail, and outputs accurate processing information (hereinafter referred to as teacher information) corresponding to the image information b1 captured by the imaging means 111. Call) 152a. This teacher information 15
2a is output to the learning means 1213 of the image processing device 121.

学習手段1213は前記教師情報152aを用いて、画像処理
手段121で使用する画像処理アルゴリズムあるいは、こ
のアルゴリズムで使用する各種閾値や荷重係数の正しい
値を求め、これらの係数を格納している係数テーブル12
12の内容を修正する。
The learning unit 1213 uses the teacher information 152a to determine an image processing algorithm used in the image processing unit 121 or correct values of various thresholds and weighting coefficients used in the algorithm, and a coefficient table storing these coefficients. 12
Modify the contents of 12.

また、教師情報発生手段152は、不審情報検知手段151
の出力情報151aに応じ、場合によつては制御装置14の制
御状況を示す情報14aから教師情報152aを得ることもで
きる(後述)。
In addition, the teacher information generating means 152 includes a suspicious information detecting means 151.
According to the output information 151a, the teacher information 152a can be obtained from the information 14a indicating the control status of the control device 14 in some cases (described later).

状況判断手段18は画像処理手段1211の出力情報a1、照
度検出手段16の出力情報16a或いは時間出力手段17の出
力情報17aにより、撮像手段111がねらつた撮像領域の環
境を判断し、係数テーブル1212に対して係数選択情報18
aを出力する。この状況判断手段18の作用を第2図を参
照して説明する。
The situation determination unit 18 determines the environment of the imaging area to which the imaging unit 111 is aimed, based on the output information a1 of the image processing unit 1211, the output information 16a of the illuminance detection unit 16 or the output information 17a of the time output unit 17, and the coefficient table 1212 Coefficient selection information for
Outputs a. The operation of the situation determining means 18 will be described with reference to FIG.

第2図は、第1図における画像処理装置121を中心と
する要部詳細構成図である。この画像処理装置121に複
数の係数テーブル191,192…19nを設け、状況判断手段18
の出力情報18aにより、上記係数テーブルの中から最適
なものを選択する。
FIG. 2 is a detailed configuration diagram of a main part centering on the image processing device 121 in FIG. The image processing apparatus 121 is provided with a plurality of coefficient tables 191, 192,.
Based on the output information 18a, the most suitable one is selected from the coefficient table.

ここで、状況判断手段18は、画像処理手段1211の出力
情報a1から、大まかな情報、例えば、被検出物体の画面
内を占める割合が大きいか小さいか、或いは照度検出手
段16の出力情報16aにより、照明(外来光も含む)は明
るいか暗いか、或いは時間出力手段17の出力情報17aに
より、夜間か昼間か、また、季節は夏か冬か、などを判
断し、これらの環境情報に合致した係数テーブルを選択
する係数選択情報18aを出力する。
Here, the situation determination unit 18 determines, from the output information a1 of the image processing unit 1211, rough information, for example, whether the ratio of the detected object occupying the screen is large or small, or the output information 16a of the illuminance detection unit 16. , The lighting (including extraneous light) is bright or dark, or the night or daytime, and the season is summer or winter, etc., are determined based on the output information 17a of the time output means 17, and the environmental information is matched. It outputs coefficient selection information 18a for selecting the obtained coefficient table.

なお、学習手段1213は前記教師情報152aにより現在使
用中の係数テーブルへの記憶内容あるいは共通的な係数
については全部の係数テーブルの記憶内容を修正する。
The learning means 1213 corrects the stored contents of the currently used coefficient table or the stored contents of all the coefficient tables for the common coefficients based on the teacher information 152a.

以下、本発明による画像処理装置を、群管理エレベー
ターに適用した一実施例について、第3図により説明す
る。
Hereinafter, an embodiment in which the image processing apparatus according to the present invention is applied to a group management elevator will be described with reference to FIG.

本実施例では4台のエレベーターを統括制御するエレ
ベーター群管理制御システムについて説明する。
In this embodiment, a description will be given of an elevator group management control system that integrally controls four elevators.

群管理制御装置20と各エレベーターを制御する号機制
御装置211〜214と表示器制御装置221〜224と画像統括装
置23を、シリアル伝送路24にマルチドロツプ的に接続す
る。各エレベーターの制御装置211〜214に接続される一
方のシリアル伝送路271〜274にはホールに設置される呼
び釦261〜264などの標準入出力機器を接続する。他方の
シリアル伝送路251〜254にはかご281〜284内の操作盤29
1〜294をそれぞれ接続する。
The group management control device 20, the number control devices 211 to 214 for controlling each elevator, the display control devices 221 to 224, and the image control device 23 are connected to the serial transmission line 24 in a multi-drop manner. Standard input / output devices such as call buttons 261 to 264 installed in the halls are connected to one of the serial transmission lines 271 to 274 connected to the control devices 211 to 214 of each elevator. The other serial transmission line 251-254 has an operation panel 29 in a car 281-284.
Connect 1 to 294 respectively.

また、表示機制御装置221〜224に接続される伝送路30
1〜304にはビルのn階とm階に設置されるLED表示器311
〜318を接続する。
Further, the transmission path 30 connected to the display control devices 221 to 224
LED displays 311 installed on the n floor and m floor of the building
Connect ~ 318.

同様に、画像統括装置23に接続されるシリアル伝送路
321〜324にはn階及びm階に設置する画像処理装置331
〜338を接続する。各画像処理装置331〜338には、夫々
撮像手段341〜348を接続する。また、他のシリアル伝送
路325には各かご内に設置する画像処理装置339〜3312を
接続する。各画像処理装置339〜3312には、夫々撮像手
段349〜3412を接続する。351〜354は、各かごに設けら
れた荷重検出手段である。
Similarly, a serial transmission path connected to the image
321 to 324 are image processing devices 331 installed on the nth and m floors.
Connect ~ 338. Imaging means 341 to 348 are connected to the image processing devices 331 to 338, respectively. Further, the other serial transmission lines 325 are connected to image processing devices 339 to 3312 installed in each car. Imaging means 349 to 3412 are connected to the image processing devices 339 to 3312, respectively. Reference numerals 351 to 354 denote load detecting means provided in each car.

上記構成における動作について以下説明する。 The operation in the above configuration will be described below.

群管理制御装置20はホールに設置される呼び釦261〜2
64及びかご内操作盤291〜294の情報を各号機制御装置21
1〜214を介して受信する。また、群管理制御装置20は、
n階及びm階に設けた画像処理装置331〜338で検出した
待ち客数とかごに設けた画像処理装置339〜3312で検出
したかご内乗客数を画像統括装置23を介して受信し、こ
れらの情報に基づいたエレベーターの運行制御を行う。
表示機制御装置221〜224はn階及びm階の表示器311〜3
18に案内情報を出力し、待ち客に対するサービス向上を
図る。
The group management control device 20 includes a call button 261-2 installed in the hall.
64 and the information of the operation panels 291 to 294 in the car
Receive via 1-214. Further, the group management control device 20 includes:
The number of waiting passengers detected by the image processing devices 331 to 338 provided on the nth and m floors and the number of passengers in the car detected by the image processing devices 339 to 3312 provided on the car are received via the image control device 23. Elevator operation control is performed based on the information.
The display control devices 221 to 224 are the display units 311 to 311 on the n floor and the m floor.
Output guidance information to 18 to improve service for waiting customers.

上記画像処理装置331〜3312は、処理速度、伝送速度
およびソフトの簡略化の都合上、簡便で粗い処理を行う
ものとする。
The image processing devices 331 to 3312 perform simple and rough processing for the sake of simplification of processing speed, transmission speed and software.

号機制御装置211〜214は前記群管理制御装置20の指令
に基づいたエレベーターの運転制御と各階及びかご内に
設置された入出力機器に対する制御を行う。
The unit control devices 211 to 214 control the operation of the elevator based on the command from the group management control device 20 and control the input / output devices installed on each floor and in the car.

第4図は、第3図における画像統括装置23を中心とす
る要部詳細構成図である。
FIG. 4 is a detailed configuration diagram of a main part centering on the image control device 23 in FIG.

画像処理装置331は画像入力部3311,画像処理部3312,
伝送処理部3313から成る。画像入力部3311は撮像手段34
1から出力される画像情報(アナログ量)をデジタル量
に変換する。画像処理部3312は、このデジタル量に基づ
きホールに滞留する待ち客数を検出する。すなわち、人
のいない時点で取り込んだ背景画像と、以後、任意の時
点で取り込んだ画像情報との関係から、その画像情報内
に存在する人の数を求める処理を行う。この処理は、オ
ンライン制御に用いるため高速性が要求され、従つて粗
い処理と言える。
The image processing device 331 includes an image input unit 3311, an image processing unit 3312,
It comprises a transmission processing unit 3313. The image input unit 3311 includes the imaging unit 34
The image information (analog amount) output from 1 is converted into a digital amount. The image processing unit 3312 detects the number of waiting customers staying in the hall based on the digital amount. That is, from the relationship between the background image fetched at the time when no person is present and the image information fetched at an arbitrary time thereafter, a process of calculating the number of people existing in the image information is performed. This process requires high speed because it is used for on-line control, and can be said to be a rough process.

伝送処理部3313は上記のようにして求めた待ち客情報
を所定のフオーマツトに従つて画像統括装置23に送信す
る。この画像統括装置23は、第1図における教師情報発
生部15に対応するものである。この画像統括装置は、各
画像処理装置331〜3312から、伝送処理部321〜235を介
して、人数情報を受信する。画像処理部236は、受信し
た情報を整理し、伝送処理部237を介して群管理制御装
置20に送信する。これにより、群管理制御装置20は、n
階とm階ホールの待客数や、かご内の客数を加味したか
どの割当て制御等を行い、適切な群管理制御を行う。一
方、不審な情報がある場合は該当する画像処理装置内の
メモリ(図示せず)から処理に用いられた画像情報を取
り寄せ、画像処理部236により詳細な処理を行う。この
結果得られる正確な情報すなわち教師情報を群管理制御
装置20及び前記不審な情報を出力した画像処理装置に対
して送信する。なお、詳細な処理のアルゴリズムについ
ては、例えば、前掲文献2のものを使用し、前記画像処
理装置内のメモリから取り寄せた画像情報に対して、時
間軸方向の雑音除去及び空間軸方向の雑音除去といった
詳細な前処理を行うことにより対象である人の数を正確
に検出することができる。
The transmission processing unit 3313 transmits the waiting customer information obtained as described above to the image management device 23 according to a predetermined format. This image control device 23 corresponds to the teacher information generating unit 15 in FIG. This image control device receives the number of people information from each of the image processing devices 331 to 3312 via the transmission processing units 321 to 235. The image processing unit 236 arranges the received information and transmits the information to the group management control device 20 via the transmission processing unit 237. As a result, the group management control device 20
Appropriate group management control is performed based on the number of customers waiting on the floor and the m-th floor hall and whether the number of customers in the car is taken into account. On the other hand, if there is suspicious information, the image information used for the processing is obtained from a memory (not shown) in the corresponding image processing apparatus, and the image processing unit 236 performs detailed processing. The accurate information obtained as a result, that is, teacher information, is transmitted to the group management control device 20 and the image processing device that has output the suspicious information. For the detailed processing algorithm, for example, the one described in the above-mentioned document 2 is used, and the image information obtained from the memory in the image processing apparatus is subjected to time-axis noise removal and spatial-axis noise removal. By performing such detailed preprocessing, the number of target persons can be accurately detected.

前記不審な情報を出力した画像処理装置はこの正確な
情報(教師情報)により検出結果との偏差が小さくなる
ように処理に用いるパラメータすなわち各種閾値や荷重
(結合)係数を修正し、検出精度を向上する。詳細は後
述する。
The image processing apparatus that outputs the suspicious information corrects the parameters used in the processing, that is, various thresholds and load (coupling) coefficients, with the accurate information (teacher information) so as to reduce the deviation from the detection result, thereby improving detection accuracy. improves. Details will be described later.

第5図は本実施例における画像処理装置の設置状況を
示す。
FIG. 5 shows an installation state of the image processing apparatus in the present embodiment.

撮像手段341をn階のエレベーターホールの天井に設
置し、本画像処理装置331をかご281が移動する昇降路内
に設置し、両者を映像信号用ケーブルで接続する。ま
た、前記画像処理装置331は昇降路内に敷設される伝送
路321に接続され、この伝送路を介して画像統括装置23
に情報を伝送する。
The imaging means 341 is installed on the ceiling of the elevator hall on the nth floor, the image processing device 331 is installed in the hoistway on which the car 281 moves, and both are connected by a video signal cable. Further, the image processing device 331 is connected to a transmission line 321 laid in a hoistway, and the image
To transmit information.

このような設置状況において、例えばホールの待ち客
361〜363を検出する方法について説明する。
In such an installation situation, for example, a hall waiter
A method for detecting 361 to 363 will be described.

第6図は、撮像装置341で撮影した画像であり、画面3
7は単位画素371を水平方向に256画素、垂直方向に240画
素配置したものである。
FIG. 6 is an image photographed by the imaging device 341 and is a screen 3
Reference numeral 7 denotes an arrangement of 256 unit pixels 371 in the horizontal direction and 240 pixels in the vertical direction.

なお、画素数は撮像装置により異なるが、ここでは画
像入力部3311における分解能、すなわち256×240画素を
用いて説明する。また、図において、背景を灰色例えば
128を表わす2進数、頭部を黒色例えばゼロ、着衣を白
色例えば、255を表わす2進数と仮定する。
Although the number of pixels differs depending on the imaging device, the description will be made using the resolution of the image input unit 3311, that is, 256 × 240 pixels. In the figure, the background is gray
Assume that the binary number represents 128, the head is black, for example, zero, and the clothing is white, for example, a binary number representing 255.

第7図に画像処理装置331の処理を示す。 FIG. 7 shows the processing of the image processing device 331.

画像処理装置331は起動時の人のいない時点で取り込
んだ背景画像g(x,y)とその後、任意の時点で取り込
んだ画像情報f(x,y)を用い、まず次式で表わされる
差分画像h(x,y)を求める。
The image processing device 331 uses the background image g (x, y) captured at the time when there is no person at the time of activation and the image information f (x, y) captured at an arbitrary time, and first calculates a difference represented by the following equation. Find the image h (x, y).

h(x,y)=|f(x,y)−g(x,y)| この結果、背景部分は黒色、物体は灰色となつてい
る。次に、この画像を適当な閾値Bと比較し、次式で示
す2値画像i(x,y)を得る。この結果、背景部分は黒
色、物体は白色となる。
h (x, y) = | f (x, y) -g (x, y) | As a result, the background portion is black and the object is gray. Next, this image is compared with an appropriate threshold value B to obtain a binary image i (x, y) represented by the following equation. As a result, the background portion is black and the object is white.

h(x,y)Bの領域 i(x,y)=255 ……白色 h(x,y)<Bの領域 i(x,y)=0 ……黒色 ここで、xは0〜255、yは0〜239である。 area of h (x, y) B i (x, y) = 255 white area h (x, y) <B area i (x, y) = 0 black where x is 0 to 255, y is 0-239.

上記2値画像より物体の占める面積(画素数)Skを白
色の画素数から求め、これを次式のように1人あたりの
画素数Sで割り、人数Nmを求める。
Obtains the binary image from the occupied object area (number of pixels) S k white number of pixels, which is divided by the number of pixels S of per the following equation, obtains the number N m.

例えば、第7図に示すように待ち客361に対応する面
積をS1、待ち客362をS2、待ち客363をS3とすると上式の
nは3となる。
For example, as shown in FIG. 7, if the area corresponding to the waiting customer 361 is S 1 , the waiting customer 362 is S 2 , and the waiting customer 363 is S 3 , n in the above equation is 3.

なお、かご281〜284においても同様にして乗客数を求
める。
Note that the number of passengers is similarly obtained for the cars 281 to 284.

以上述べた画像統括装置23の処理をフローチヤートで
示すと第8図のようになる。
FIG. 8 is a flowchart showing the processing of the image control device 23 described above.

すなわち、ステツプ400により各画像処理装置331〜33
12から待ち客及び乗客情報を収集し、第4図に示す伝送
処理部237の送信メモリ(図示せず)に整理して格納す
る。ステツプ401により、上記情報を現行のエレベータ
ー運行状況に照らし合わせ、不審な情報が有るか否かを
判定する。この結果、不審な情報が有る場合、まず、ス
テツプ402により上記伝送処理部237の送信メモリに該当
する画像処理装置の情報は不審である旨のメツセージを
セツトする。続いて、ステツプ403により該当する画像
処理装置から画像情報を取り寄せ、ステツプ404により
この画像情報を詳細に処理し、待ち客或いは乗客数を正
確に求める。
That is, each of the image processing devices 331 to 33 is performed by step 400.
The information on the waiting passengers and passengers is collected from 12, and organized and stored in the transmission memory (not shown) of the transmission processing unit 237 shown in FIG. In step 401, the above information is compared with the current elevator operation status to determine whether there is any suspicious information. As a result, if there is suspicious information, first, at step 402, a message is set to the effect that the information of the image processing apparatus corresponding to the transmission memory of the transmission processing unit 237 is suspicious. Subsequently, image information is obtained from the corresponding image processing apparatus in step 403, and this image information is processed in detail in step 404, and the number of waiting passengers or passengers is accurately obtained.

ステツプ405では、前記ステツプ400で収集した対応す
る画像処理装置の情報と、ステツプ404の結果得られる
教師情報を比較する。この結果が不一致の場合、ステツ
プ406により、ステツプ404の結果を伝送処理部237及び2
31〜235の対応する送信メモリ(図示せず)に格納す
る。これにより、群管理制御装置20に正確な情報を伝送
すると共に、該当する画像処理装置の閾値等のパラメー
タ修正を促す。
In step 405, the information of the corresponding image processing apparatus collected in step 400 is compared with the teacher information obtained as a result of step 404. If the results do not match, the result of step 404 is transmitted to the transmission processing units 237 and 2 by step 406.
The data is stored in transmission memories (not shown) corresponding to 31 to 235. Thus, accurate information is transmitted to the group management control device 20, and parameters such as thresholds of the corresponding image processing device are corrected.

ここで、第9図を用いて画像処理装置331における画
像処理アルゴリズムに用いる閾値の修正手順の一例につ
いて説明する。
Here, an example of a procedure for correcting a threshold value used for an image processing algorithm in the image processing device 331 will be described with reference to FIG.

通常、画像処理部3312は、撮像装置341から入力され
る画像情報を画像入力部3311でデジタル量に変換し、画
像情報記憶手段41に記憶する処理を行う。この画像情報
f(x,y)と予め背景画像記憶手段42に記憶している背
景画像情報g(x,y)より、演算手段43は、差分画像h
(x,y)を求める。この結果を比較手段44は適当な2値
化レベルBにより2値化し、2値画像i(x,y)を得
る。この2値画像i(x,y)により演算手段45にて物体
の占める面積Skを求め、これを演算手段46において、一
人当りの面積Sで割り、待ち客数Nmを求めている。従つ
て、本実施例における調整要素(パラメータ)として
は、前記2値化ベルBと一人当りの面積Sが考えられ
る。
Normally, the image processing unit 3312 performs a process of converting image information input from the imaging device 341 into a digital amount by the image input unit 3311 and storing the digital amount in the image information storage unit 41. Based on the image information f (x, y) and the background image information g (x, y) stored in the background image storage unit 42 in advance, the arithmetic unit 43 calculates the difference image h
Find (x, y). The comparison means 44 binarizes the result with an appropriate binarization level B to obtain a binary image i (x, y). The binary image i (x, y) by measuring the area S k occupied by the object by the arithmetic unit 45, the arithmetic unit 46 this, divided by the per capita area S, seeking waiting passengers number N m. Therefore, as the adjustment elements (parameters) in the present embodiment, the binarized bell B and the area S per person can be considered.

そこで、待客数検出結果に対し、画像統括装置23が誤
りであると判断し、教師情報Nsを送信してくると、画像
処理部3312は待ち客検出の空き時間を利用し学習を行
う。すなわち、修正量演算部47内の偏差検出手段471で
待ち客数Nmと教師情報Nsの偏差を求める。修正量演算手
段472では、上記偏差Δnが正(負)であれば前記2値
化レベルBを大きく(小さく)する方向或いは一人当り
の面積Sを大きく(小さく)する方向で修正量を演算す
る。偏差Δnは(1)式で表わされ、この偏差Δnを基
に演算手段472で Δn=Nm−Ns ……(1) 求めた調整分ΔB或いはΔSを各設定手段54又は55で設
定された初期値Bo又はSoから減算(又は加算)する。こ
の値を各々記憶手段48及び49により記憶し、次の教師情
報Nsが入力されるまで保持する。以上述べた偏差Δnか
ら、2つの閾値BおよびSを修正する手法は、両者の修
正量配分が複雑となる。そこで、簡易に2つの閾値を修
正する他の一手順につき説明する。
Therefore, performing wait arrivals detection result to, determining that the image integration unit 23 is erroneous, when come to transmit the instruction information N s, the image processing section 3312 utilizes the idle time of waiting passengers detection learning . That is, a deviation of the waiting passengers number N m and teacher information N s by deviation detecting means 471 of the correction amount in the arithmetic unit 47. If the deviation Δn is positive (negative), the correction amount calculating means 472 calculates the correction amount in the direction of increasing (decreasing) the binarization level B or increasing (decreasing) the area S per person. . The deviation Δn is expressed by equation (1). Based on this deviation Δn, Δn = N m −N s ... (1) The adjustment ΔB or ΔS obtained by the setting means 54 or 55 is set by the setting means 54 or 55. It subtracts (or adds) from the initial value B o or S o that has been set. This value respectively stored in the storage means 48 and 49 and held until the next instruction information N s is input. The method of correcting the two thresholds B and S from the deviation Δn described above complicates the distribution of the correction amounts of both. Therefore, another procedure for simply correcting the two thresholds will be described.

まず、一人当りの面積Sを固定し、2値化レベルBを
調整する。すなわち、修正量演算手段472では待ち客数N
mを教師情報Nsに一致させるために必要なSk0を(2)式
により求める。そうして、2値化後の白の面積SkがSk0
に近い値になるま Sk0=Ns・S0 ……(2) で調整分ΔBを変化させながら2値化処理を繰り返す。
この結果、Sk0に最も近いSkが求まると、次に、2値化
レベルBを固定し、一人当りの面積Sを調整する。すな
わち、演算手段472は待ち客数Nmを教師情報Nsに一致さ
せるために必要な一人当りの面積Sを(3)式により求
め、更に(4)式により調整分ΔSを求める。このよう
にして調整を行う。
First, the area S per person is fixed, and the binarization level B is adjusted. In other words, the number of waiting customers N
S k0 necessary for matching m with the teacher information N s is obtained by equation (2). Then, the white area S k after binarization becomes S k0
S k0 = N s · S 0 (2) The binarization process is repeated while changing the adjustment ΔB until the value becomes close to.
As a result, when S k closest to S k0 is obtained, the binarization level B is fixed, and the area S per person is adjusted. That is, the arithmetic unit 472 and the area S per capita required to match the waiting passengers number N m the teacher information N s determined by equation (3), determining the adjustment amount ΔS by addition (4). The adjustment is performed in this manner.

本実施例では2値化レベルを先に調整したが、一人当
りの面積を先に調整しても良いし、2値化レベル又は一
人当りの面積の一方だけを調整するようにしてもよい。
In the present embodiment, the binarization level is adjusted first, but the area per person may be adjusted first, or only one of the binarization level or the area per person may be adjusted.

本実施例によれば、2値化レベルと一人当りの面積を
最適値に調整できるので、本システムの出力を教師情報
Nsに近い検出精度まで向上することができる。
According to the present embodiment, the binarization level and the area per person can be adjusted to the optimum values.
It can be improved to detect accuracy close to N s.

本実施例における人数検出用の画像処理装置は、その
出力を群管理制御に用いる以上、その画像処理の精度は
高いほど望ましい。しかし、高度すなわち詳細な画像処
理を行うには時間を要し、必要とする短い時間で詳細な
画像処理結果を出力することはできない。したがって、
オンラインに用いる例えば第3図の画像処理装置331〜3
312は前述したように粗で迅速な画像処理を行う画像処
理装置とならざるを得ない。そこで、迅速な画像処理が
要求されない例えば第4図の画像処理装置236(教師情
報発生部を構成)に詳細な画像処理を行う画像処理装置
を用意し、待ち客検出の空き時間等を利用して、粗な画
像処理手段の画像処理結果が少しでも正しい値に近づく
ように上記教師情報に基づく学習を行い、その画像処理
のパラメータの修正を行っているのである。
In the image processing apparatus for detecting the number of persons in this embodiment, the higher the accuracy of the image processing is, the more desirable the output is used for group management control. However, it takes time to perform advanced, that is, detailed image processing, and it is not possible to output a detailed image processing result in a required short time. Therefore,
For example, the image processing apparatuses 331 to 3 shown in FIG.
As described above, the image processing apparatus 312 must be an image processing apparatus that performs coarse and quick image processing. Therefore, for example, an image processing device for performing detailed image processing is prepared in the image processing device 236 (constituting the teacher information generating unit) in FIG. 4 where quick image processing is not required, and the idle time of waiting customer detection is used. Thus, learning based on the teacher information is performed so that the image processing result of the coarse image processing means approaches a correct value even a little, and the parameters of the image processing are corrected.

第10図により、閾値の修正手順の他の実施例について
説明する。
With reference to FIG. 10, another embodiment of the procedure for correcting the threshold value will be described.

前記第9図に示す実施例においてはデータ異常時の1
時点における修正であること並びに複数修正量に対する
配分を考慮していないため、修正が最適化されない可能
性があつた。
In the embodiment shown in FIG.
Because the revision was not taken into account at the time and the distribution of multiple revisions, the revision could not be optimized.

本実施例は、前記実施例に加え、出力である待ち客数
Nmとこれに対する教師情報Nsを記憶する手段473を設
け、画像処理装置331の入出力特性を把握した後に、修
正を行うことにより、修正の最適化を図るようにしたも
のである。
In this embodiment, in addition to the above-described embodiment,
A means 473 for storing N m and teacher information N s corresponding thereto is provided, and after the input / output characteristics of the image processing device 331 are grasped, the correction is performed to optimize the correction.

まず、記憶手段473は、画像処理部3312から出力され
る待ち客情報Nmと、該待ち客情報Nmが異常と判断された
場合に入力される教師情報Nsを随時記憶する。
First, the storage unit 473 stores any time and waiting passengers information N m outputted from the image processing unit 3312, the instruction information N s which is input when the waiting passengers information N m is determined to be abnormal.

次に、修正手段472は、前記記憶された情報が正解
(教師情報)に対してどのような差をもつようになつて
いるかを学習する。これにより、画像処理部3312、すな
わち、自分自身の入出力特性を把握することができる。
Next, the correction means 472 learns what difference the stored information has with respect to the correct answer (teacher information). As a result, it is possible to grasp the input / output characteristics of the image processing unit 3312, that is, the image processing unit 3312 itself.

第11図は、このようにして求められた入出力特性の一
例特性図である。例えば、撮像手段の画角を120゜、設
置位置を床上3mと仮定すると、最大25人(頭部を含む)
程度まで検出可能である。
FIG. 11 is a graph showing an example of the input / output characteristics thus obtained. For example, assuming that the angle of view of the imaging means is 120 ° and the installation position is 3 m above the floor, a maximum of 25 people (including the head)
To the extent detectable.

したがつて、理想的には図示実線50で示すように、教
師情報に対する待ち客情報が、0〜25人まで直線的にな
ることが望ましい。
Therefore, ideally, as shown by the solid line 50 in the drawing, it is desirable that the waiter information for the teacher information be linear from 0 to 25.

しかしながら、実際には係数等が最適化されていて
も、待ち客数が増えてくると、画面上の重なりが発生す
るため、図示一点鎖線51で示すように誤差が生じてく
る。
However, even if the coefficients and the like are actually optimized, when the number of waiting customers increases, an overlap occurs on the screen, so that an error occurs as shown by the dashed line 51 in the figure.

また、現場におけるは背景色或いは照明具合などによ
り、鮮明な差分画像を得やすい場合は図示点線52で示す
ように、一点鎖線51よりも多目に出力し、不鮮明な差分
画像となる場合は図示点線53で示すように少な目に出力
する。
Also, when a clear difference image is easily obtained due to the background color or the lighting condition at the site, as shown by a dotted line 52, the output is more than the dashed-dotted line 51, and when it becomes an unclear difference image, it is illustrated. As shown by the dotted line 53, the output is made smaller.

そこで、現場における画像処理装置の入出力特性を教
師情報Nsにより学習したのち、この結果から変曲点、す
なわち重なりの発生する人数を求める。
Therefore, after learning the input and output characteristics of the image processing apparatus by the instruction information N s in the field, the inflection point from the result, namely obtaining the number of occurrence of overlap.

以上の処理を終了した後に入力される教師情報Nsによ
り、修正を行う。すなわち、まず、教師情報Nsが変曲点
以下の人数の時、前記実施例と同様の方法で修正を行
い、最適な2値化レベルBと1人当りの面積S1を求め
る。この結果、修正後の入出力特性は一点鎖線51に近い
特性となる。
The teacher information N s input after finishing the above processing, to correct. That is, first, when the teacher information N s the following inflection point number, make corrections in the same manner as in Example to determine the optimum binarization level B and the area S 1 of the per. As a result, the corrected input / output characteristics become characteristics close to the one-dot chain line 51.

次に、教師情報Nsが変曲点以上の人数の時、1人当り
の面積の最適値S2を求める。この結果、実線50に近い入
出力特性を得ることができる。
Then, when the teacher information N s is equal to or greater than the inflection point number, find the optimum value S 2 of area per person. As a result, input / output characteristics close to the solid line 50 can be obtained.

上記処理を行つた結果、1つの2値化レベルBと2つ
の1人当りの面積S1,S2が求まる。これにより、まず、
2値化レベルBと1人当りの面積S1を用いて処理を行
い、この結果が変曲点以上の人数であれば、1人当りの
面積をS2に置き換えて再処理する。
As a result of the above processing, one binarization level B and two areas S 1 and S 2 per person are obtained. With this, first,
Performs processing using a binarization level B and the area S 1 of the per, if this result is above the inflection point number, reprocessing replacing area per the S 2.

本実施例によれば、少ない回数で最適な修正ができる
ため、検出結果が不安定(修正を繰り返すこと)になる
ことがない。
According to the present embodiment, since the optimum correction can be performed with a small number of times, the detection result does not become unstable (the correction is not repeated).

第12図に更に他の修正手順の実施例を示す。 FIG. 12 shows another embodiment of the correction procedure.

本実施例は、前記第9図及び第10図に示す実施例にお
いて、修正量演算部47を記憶手段473だけで構成したも
のである。この記憶手段473は、着脱可能な外部記憶媒
体、例えばICカード474を備えている。
This embodiment is different from the embodiment shown in FIGS. 9 and 10 in that the correction amount calculating section 47 is constituted only by the storage means 473. The storage means 473 includes a removable external storage medium, for example, an IC card 474.

このような構成とすることにより、例えば、人が不揮
発性メモリ(ICカード)474の内容を参照し、他の場所
で前記第10図に示す要領で修正を行う。この結果を前記
不揮発性メモリの別の領域に格納し、再び装置に装着す
る。
With such a configuration, for example, a person refers to the contents of the non-volatile memory (IC card) 474 and makes corrections at another location in the manner shown in FIG. The result is stored in another area of the non-volatile memory, and is mounted on the device again.

この結果、修正された内容は図示ΔB及びΔSに相当
する。
As a result, the corrected contents correspond to ΔB and ΔS shown.

本実施例によれば、手間のかかる修正を人が行うた
め、より正確な修正を行うことができると共に装置の簡
素化を図ることができる。
According to the present embodiment, since a person makes a troublesome correction, more accurate correction can be performed and the apparatus can be simplified.

第13図〜第14図により本発明による教師情報発生手段
の他の実施例について説明する。本実施例では画像処理
装置331〜3312のアルゴリズムやパラメータをかご内荷
重検出器351〜354の出力を用いて修正する。
Another embodiment of the teacher information generating means according to the present invention will be described with reference to FIGS. In this embodiment, the algorithms and parameters of the image processing devices 331 to 3312 are corrected using the outputs of the in-car load detectors 351 to 354.

エレベーター乗かごの床下には、乗車重量を検出する
ための差動トランス方式の荷重検出器が設置されてお
り、エレベーター制御装置はこの出力を用いて満員時の
制御等を行つている。ちなみに、本荷重検出器の人数換
算出力精度は±0.1人と言われており、本発明における
教師情報発生手段として十分利用できるものである。
Below the floor of the elevator car, a differential transformer type load detector for detecting the weight of the ride is installed, and the elevator control device uses this output to perform control when the elevator is full. Incidentally, the output accuracy of the load detector in terms of the number of people is said to be ± 0.1, and can be sufficiently used as the teacher information generating means in the present invention.

さて、ホールに設置した画像処理装置331〜338をかご
の荷重検出器351〜354の出力により調整するためには、
ホールに何人いたか、言い換えれば、かごに何人乗込ん
だかがわかればよい。
Now, in order to adjust the image processing devices 331 to 338 installed in the hall based on the outputs of the car load detectors 351 to 354,
You only need to know how many people were in the hall, in other words how many people got into the basket.

例えば、第5図に示すようにかごに乗客2人、n階ホ
ールに待ち客が3人おり、n階で1人降車し、3人乗車
する場合を想定する。かご281に設けられた荷重検出器3
51の出力は第13図に示すように、2人の状態a→1人降
車b(或いは3人乗車c)→3人乗車d(或いは1人降
車e)→4人の状態fと変化する(通常、降客優先)。
この図より正の傾きを示す期間d(或いはc)を抽出す
ることによつて乗込み人数、すなわち、かご到着までの
ホール待客数を知ることができる。このように、エレベ
ーターがn階ホールに到着してから発車するまでの期間
Tに注目すると、かご内荷重の検出によつて、それ以前
のn階ホール待客を確実に検出することができる。ただ
し、この検出のタイミングは遅いので、群管理制御上に
直接用いることはできない。教師情報発生手段としてな
ら有用である。
For example, as shown in FIG. 5, it is assumed that there are two passengers in the car and three waiters in the hall on the nth floor, and one person gets off the nth floor and gets on three people. Load detector 3 provided in basket 281
As shown in FIG. 13, the output of 51 changes from two persons' state a → one person getting off b (or three persons getting on c) → three person getting off d (or one person getting off e) → four persons getting f. (Usually, priority for passengers).
By extracting the period d (or c) having a positive slope from this figure, the number of passengers, that is, the number of hall waiters until arrival at the car, can be known. As described above, when attention is paid to the period T from when the elevator arrives at the n-th floor hall to when the elevator departs, it is possible to reliably detect the n-th floor hall waiter before that by detecting the load in the car. However, since the timing of this detection is late, it cannot be used directly for group management control. It is useful as a means for generating teacher information.

このようにして求めた乗込み人数を教師情報とするた
めの群管理制御装置20の処理フローチヤートを第14図に
より説明する。
A process flowchart of the group management control device 20 for using the number of passengers thus obtained as teacher information will be described with reference to FIG.

ステツプ600によりエレベーターがn階ホールに到着
したことを確認した時点からステツプ601により乗車人
数検出を開始し、ステツプ602により戸閉が確認される
までステツプ601を継続する。その後、ステツプ602にて
戸閉が確認されるとステツプ603により前述(第13図)
のようにして求めた乗込み人数とホールに設けた画像処
理装置331の検出結果を比較する。この結果が一致して
いれば処理を終了し、教師情報を出力しない。しかし、
上記比較結果が不一致の場合、ステツプ604によりホー
ル呼びが再発生していないことをもつてホールに人が残
つていないことを確認し、ステツプ605により前記乗込
み人数を教師情報として統括装置23へ出力する。
When it is confirmed that the elevator has arrived at the n-th floor hall by step 600, detection of the number of passengers is started by step 601 and step 601 is continued until the door is confirmed to be closed by step 602. Thereafter, when it is confirmed that the door is closed in step 602, the above-mentioned operation is performed in step 603 (FIG. 13).
The detection result of the image processing device 331 provided in the hall is compared with the number of passengers obtained as described above. If the results match, the process ends, and no teacher information is output. But,
If the results of the comparison do not match, it is confirmed in step 604 that no hall call has reoccurred, and that no people remain in the hall. Output to

本実施例によれば、教師情報出力手段としてエレベー
ターのかごに既設の荷重検出器を利用するので、前記教
師情報出力手段を新たに設ける必要が無い他、精度の点
でも実績のある、信頼できる教師情報を得ることができ
る。
According to the present embodiment, since the existing load detector is used in the elevator car as the teacher information output means, it is not necessary to newly provide the teacher information output means, and it has a proven track record in terms of accuracy and reliability. Teacher information can be obtained.

なお、かごに設けた画像処理装置339〜3312は、かご
の扉が閉じている状態でかご内乗客を検出でき、環境が
常に一定であるため精度が高い。従つて、前記荷重検出
器に代る教師情報発生手段として用いることもできる。
Note that the image processing devices 339 to 3312 provided in the car can detect passengers in the car with the door of the car closed and have high accuracy because the environment is always constant. Therefore, it can be used as teacher information generating means instead of the load detector.

第15図によりエレベーターホールの待ち客検出に関す
る他の実施例について説明する。本実施例は画像処理部
3312をニユーラルネツトで構成する場合である。
Referring to FIG. 15, another embodiment relating to the detection of a waiting customer in an elevator hall will be described. This embodiment is an image processing unit.
This is a case where the 3312 is configured by a neural net.

画像入力部3311から出力される複数の入力データ61a
〜61lをニユーラルネツトで構成される画像処理部3312
に入力することにより待ち客数を検出する。以下、詳細
に説明する。
A plurality of input data 61a output from the image input unit 3311
Image processing unit 3312 consisting of ~ 61 l
To detect the number of waiting customers. The details will be described below.

ニユーラルネツトを入力層,中間層及び出力層の3層
で構成し、更に、入力層はn11〜n112の12ケのニユーロ
ン、中間層はn21〜n26の6ケのニユーロン、出力層はn
31〜n32の2ケのニユーロンで構成する。また、入力層
の各ニユーロンの出力は全ての中間層のニユーロンに接
続し、中間層の各ニユーロンの出力は全ての出力層のニ
ユーロンに接続する。この時、中間層及び出力層の各ニ
ユーロンには入力層及び中間層の各ニユーロンの出力と
図示荷重(結合)係数K11〜K86(−∞〜+∞)との積で
求まる値が入力される。例えば、中間層のニユーロンn
21に入力される値Un21は(5)式で得られる。
Input layer Niyurarunetsuto, composed of three layers of the intermediate layer and the output layer, further, 12 Quai of Niyuron the input layer n 11 ~n 112, the intermediate layer 6 Ke of Niyuron of n 21 ~n 26, the output layer n
31 composed of Niyuron the two positions of ~n 32. The output of each neuron of the input layer is connected to all the neurons of the intermediate layer, and the output of each of the neurons of the intermediate layer is connected to the neurons of all the output layers. At this time, a value obtained by multiplying the output of each neuron of the input layer and the intermediate layer by the indicated load (coupling) coefficient K 11 to K 86 (−∞ to + ∞) is input to each neuron of the intermediate layer and the output layer. Is done. For example, the middle class Niuron n
The value Un21 input to 21 is obtained by equation (5).

ここで、Vn1iは入力層のニユーロンn11〜n112の出力
(0〜1)である。
Here, V n1i is the output of Niyuron n 11 ~n 112 of the input layer (0-1).

この値を(6)式に代入し、この結果に得られる0〜
1の値を本ニユーロンn21の出力Vn21として出力層の各
ニユーロンn31〜n32にそれぞれ入力する。出力層では、
上記ニユーロンn21と同様にしてニユーロンn31及びn32
の出力値を求める。
This value is substituted into the expression (6), and 0 to
A value of one to the input to each Niyuron n 31 ~n 32 of the output layer as output V n21 of the Niyuron n 21. In the output layer,
Niyuron n 31 and n 32 in the same manner as in Niyuron n 21
Find the output value of.

これらの出力Vn31とVn32から、(7)式により待ち客
数Nmを算出し、出力する。
These output V n31 and V n32, calculates the waiting passengers number N m (7) below, and outputs.

Nm=100・Vn31+10・Vn32 ……(7) この結果、例えばVn31=0.1,Vn32=0.2の場合、Nm=1
0+2=12[人]となる、すなわち、本例の場合は、ニ
ユーロンn31は10の位、ニユーロンn32は1の位を示すも
のとした。
N m = 100 · V n31 +10 · V n32 ...... (7) As a result, for example, V n31 = 0.1, if the V n32 = 0.2, N m = 1
0 + 2 = 12 a [person], i.e., the case of the present example, Niyuron n 31 is position 10, Niyuron n 32 were as indicating one's place.

この結果を、伝送処理部3313により、画像統括装置23
とその内部の教師情報発生手段15(第4図の画像処理部
236)へ伝送する。また、画像総括装置23を介して群管
理制御装置20へも伝送される。
This result is transmitted by the transmission processing unit 3313 to the image
And the teacher information generating means 15 therein (the image processing unit shown in FIG. 4).
236). Further, it is also transmitted to the group management control device 20 via the image generalization device 23.

また、画像処理部3312に入力される入力データ61a〜6
1lは画像から抽出される各種特徴量でもよいし、画像の
画素に関するデータを直接用いてもよい。例えば、第16
図に示すように画面37を12のブロツク701〜712に分割
し、各ブロツクで求まる物体の面積を(8)式により正
規化した値を用いるのも一方法である。
Further, input data 61a to 6a input to the image processing unit 3312
1l may be various feature amounts extracted from the image, or data on pixels of the image may be directly used. For example, the 16th
As shown in the figure, one method is to divide the screen 37 into twelve blocks 701 to 712, and use a value obtained by normalizing the area of the object determined by each block by the equation (8).

ここで、Va:入力データ61aの値 N:水平画素数(256) M:垂直画素数(240) S1:ブロツク701内の物体の面積(画素数) である。 Here, V a : the value of the input data 61 a N: the number of horizontal pixels (256) M: the number of vertical pixels (240) S 1 : the area (number of pixels) of the object in the block 701.

本実施例において、教師情報により荷重(結合)係数
K11〜K86の調整を行う場合、一般に知られたニユーラル
ネツトの学習を行う方法と同様でよい。すなわち、出力
層のニユーロンn31〜n32に逆方向に教師情報を入力し、
これを中間層→入力層と逆に伝播させながら各係数を調
整するバツクプロパゲーシヨンの手法を用いる。本手法
は前掲文献3等により知られた手法であり、前掲文献3
に記載のように、ニューラルネットの入力層に学習させ
たいパターンを提示し、出力層には対応して出力すべき
教師信号を提示して、出力層での教師信号と実際の出力
値との差異を小さくするように結合係数を決定する学習
方法とすることができる。
In this embodiment, the weight (coupling) coefficient is
When adjusting the K 11 ~K 86, it may be the same as the method performed generally known Niyurarunetsuto learning. That is, teacher information is input in the opposite direction to the output layers niron n 31 to n 32 ,
A backpropagation method of adjusting each coefficient while propagating this in the reverse direction from the intermediate layer to the input layer is used. This method is a method known from the above-mentioned document 3 and the like.
As described in, the pattern to be learned is presented to the input layer of the neural network, the teacher signal to be outputted is presented to the output layer, and the teacher signal in the output layer is compared with the actual output value. A learning method for determining the coupling coefficient so as to reduce the difference can be adopted.

画像統括装置23内の教師情報発生手段15には、タイマ
ー56から定期的にトリガーがかけられ。タイマー割込み
による周期的学習が実行される。
The teacher information generating means 15 in the image control device 23 is periodically triggered by a timer 56. Periodic learning is performed by a timer interrupt.

本実施例によれば、画像処理部をニユーラルネツトで
構成することにより、待ち客検出処理の高速化が期待で
きると共にバツクプロパゲーシヨンの手法により、適切
な荷重係数を自動的に求めることができる。特に、定期
的に、教師情報による学習を行わせるようにすれば、パ
ターン認識的成長が見込まれ、周囲環境の変化にも追従
する画像処理装置が得られる。
According to the present embodiment, by configuring the image processing unit with the neural net, it is possible to expect a high speed of the waiting customer detection process, and it is possible to automatically obtain an appropriate load coefficient by the back propagation method. In particular, if the learning based on the teacher information is performed periodically, an image processing apparatus that is expected to grow in a pattern-recognition manner and can follow changes in the surrounding environment can be obtained.

以上の実施例においては、画像処理パラメータの修正
は、教師情報と画像処理装置の出力との比較により、オ
ンラインに利用している画像処理装置の出力に不審があ
るとき実行し、または、タイマー割込みにより周期的に
学習するものを述べた。このように、必要性が認められ
たときあるいは周期的等、必要に応じて画像処理パラメ
ータの修正を実行すればよい。
In the above embodiment, the correction of the image processing parameters is executed when there is a suspicion in the output of the image processing apparatus used online by comparing the teacher information and the output of the image processing apparatus, or a timer interrupt is performed. The ones that learn periodically are described. As described above, the image processing parameters may be corrected as necessary, such as when the necessity is recognized or periodically.

本発明は、上記エレベーターホールの待ち客を検出す
るシステムだけでなく、自動車のナンバープレートの文
字を認識するシステム或いは展示会場等の混雑具合を検
出するシステム等に広く応用可能である。
INDUSTRIAL APPLICABILITY The present invention is widely applicable not only to the above-described system for detecting a waiting person in an elevator hall, but also to a system for recognizing characters on a license plate of an automobile or a system for detecting the degree of congestion in an exhibition hall or the like.

〔発明の効果〕〔The invention's effect〕

本発明によれば、予め設定されたパターンではない、
現実の被処理画像を対象とする画像処理結果に対する教
師情報発生手段を取入れたことにより、画像処理に必要
な処理プログラムまたはそのプログラムに使用されるパ
ラメータ(例えば各種閾値或いは重み係数)を画像処理
対象物の状況に応じて修正することができる。したがつ
て、例えば実稼働状態に置かれた画像処理システムの検
出精度をオンラインで向上するように構成することもで
きる。
According to the present invention, the pattern is not a preset pattern,
By incorporating the teacher information generating means for the image processing result of the actual processed image, the processing program necessary for the image processing or the parameters (for example, various thresholds or weighting factors) used in the program can be set to the image processing target. It can be modified according to the situation of the thing. Therefore, for example, the detection accuracy of the image processing system placed in the actual operation state can be improved online.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明による画像処理装置の基本概念を示すブ
ロツク図、第2図はその一部の詳細ブロツク図、第3図
は本発明による画像処理装置を群管理エレベーターに適
用して示す全体構成ブロツク図、第4図はその要部の詳
細構成ブロツク図、第5図はエレベーターホールへの待
ち客検出器の配置状況を概観する側面断面図、第6図は
撮像画面の一例を示す図、第7図は撮像画面から待ち客
人数を求める画像処理手順説明図、第8図は画像統括装
置における一実施例処理フロー図、第9図は画像処理ア
ルゴリズム上のパラメータを修正する手順の一実施例を
説明する図、第10図は画像処理アルゴリズム上のパラメ
ータを修正手順の他の実施例説明図、第11図はその作用
説明図、第12図は更に他のパラメータ修正手順の実施例
を説明する図、第13図は荷重検出器を用いてエレベータ
ーのホール待客数に対する教師情報を発生する手段の動
作説明図、第14図はその処理フロー図、第15図はニユー
ラルネツトワークを用いた画像処理装置を群管理エレベ
ーターの待客検出手段として用いた場合に本発明を適用
して示す要部構成ブロツク図、第16図はニユーラルネツ
トワークによる画像処理の説明図である。
FIG. 1 is a block diagram showing the basic concept of an image processing apparatus according to the present invention, FIG. 2 is a detailed block diagram of a part thereof, and FIG. 3 is an overall view showing the image processing apparatus according to the present invention applied to a group control elevator. Configuration block diagram, FIG. 4 is a detailed configuration block diagram of a main part thereof, FIG. 5 is a side cross-sectional view for overviewing the arrangement of a waiting detector in an elevator hall, and FIG. 6 is a diagram showing an example of an imaging screen. , FIG. 7 is an explanatory diagram of an image processing procedure for obtaining the number of waiting guests from the imaging screen, FIG. 8 is a processing flowchart of an embodiment in the image control device, and FIG. 9 is a procedure of correcting a parameter on the image processing algorithm. FIG. 10 is a view for explaining an embodiment, FIG. 10 is a view for explaining another embodiment of a procedure for correcting a parameter on an image processing algorithm, FIG. 11 is a view for explaining the operation thereof, and FIG. Diagram explaining the thirteenth Fig. 14 is an explanatory diagram of the operation of means for generating teacher information for the number of hall waiters in an elevator using a load detector, Fig. 14 is a processing flow diagram, and Fig. 15 is a group of image processing devices using a neural network. FIG. 16 is a block diagram of a main part configuration showing the application of the present invention when used as a waiting means detecting means for a managed elevator. FIG. 16 is an explanatory diagram of image processing by a neural network.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 山崎 正親 茨城県日立市久慈町4026番地 株式会社 日立製作所日立研究所内 (72)発明者 大沼 直人 茨城県日立市久慈町4026番地 株式会社 日立製作所日立研究所内 (72)発明者 中村 清 茨城県日立市久慈町4026番地 株式会社 日立製作所日立研究所内 (72)発明者 坂井 吉男 茨城県勝田市市毛1070番地 株式会社日 立製作所水戸工場内 (72)発明者 米田 健治 茨城県勝田市市毛1070番地 株式会社日 立製作所水戸工場内 (72)発明者 仲田 尚文 茨城県勝田市市毛1070番地 株式会社日 立製作所水戸工場内 (72)発明者 笠井 昭二 茨城県勝田市市毛1070番地 株式会社日 立製作所水戸工場内 (56)参考文献 特開 平2−95091(JP,A) 特開 平1−211100(JP,A) 特開 昭64−53287(JP,A) 特開 昭58−177873(JP,A) 特開 昭58−95079(JP,A) 特開 昭49−67341(JP,A) (58)調査した分野(Int.Cl.6,DB名) B66B 3/00 H04N 7/18 G06F 15/62 380──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Masachika Yamazaki 4026 Kuji-cho, Hitachi City, Ibaraki Prefecture Inside Hitachi, Ltd.Hitachi Research Laboratory (72) Inventor Naoto Onuma 4026 Kuji-cho, Hitachi City, Ibaraki Prefecture Hitachi Research, Ltd. In-house (72) Inventor Kiyoshi Nakamura 4026 Kuji-cho, Hitachi City, Ibaraki Prefecture Inside Hitachi, Ltd.Hitachi Research Laboratory Co., Ltd. (72) Inventor Yoshio Sakai 1070 Ichimo, Katsuta City, Ibaraki Prefecture Mito Plant, Hitachi Ltd. Person Kenji Yoneda 1070 Ma, Katsuta-shi, Ibaraki Pref., Mito Plant, Hitachi, Ltd. (72) Inventor Naofumi Nakata 1070 Mo, Ichimo, Katsuta-shi, Ibaraki Pref., Mito Plant, Hitachi, Ltd. 1070 Mo, Katsuta-shi, Japan Inside the Mito Plant of Hitachi Ltd. (56) References JP-A-2-95091 (J JP-A-1-211100 (JP, A) JP-A-64-53287 (JP, A) JP-A-58-177873 (JP, A) JP-A-58-95079 (JP, A) 49-67341 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) B66B 3/00 H04N 7/18 G06F 15/62 380

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】画像情報を入力し、所定のアルゴリズムに
よる画像処理を実行し、処理結果を出力する手段を備え
た画像処理装置において、上記画像処理手段とは独立し
て上記画像処理手段の入力画像情報と同一の対象物に関
する上記出力に対する教師情報を発生する手段と、この
教師情報に基づき上記画像処理のパラメータを修正する
手段を備えた画像処理装置。
An image processing apparatus comprising means for inputting image information, executing image processing by a predetermined algorithm, and outputting a processing result, wherein the input of the image processing means is independent of the image processing means. An image processing apparatus comprising: means for generating teacher information for the output regarding the same object as image information; and means for correcting the parameters of the image processing based on the teacher information.
【請求項2】請求項1において、上記教師情報発生手段
は、上記画像処理手段と同一の画像情報を入力し、上記
画像処理手段よりも詳細な画像処理を実行する手段を備
えた画像処理装置。
2. An image processing apparatus according to claim 1, wherein said teacher information generating means has means for inputting the same image information as said image processing means and executing more detailed image processing than said image processing means. .
【請求項3】画像情報を入力し所定のアルゴリズムによ
る画像処理を実行し処理結果を出力する第1の画像処理
手段を備えた画像処理装置において、上記第1の画像処
理手段における被処理画像と同一の画像情報を入力し上
記第1の画像処理手段よりも詳細な画像処理に基づき第
1の画像処理手段の上記出力に対する教師情報を発生す
る第2の画像処理手段と、この第2の画像処理手段の出
力である教師情報に基づき上記第1の画像処理手段の画
像処理のパラメータを修正する手段を備えた画像処理装
置。
3. An image processing apparatus comprising first image processing means for inputting image information, executing image processing according to a predetermined algorithm, and outputting a processing result, wherein an image to be processed in said first image processing means is provided. A second image processing means for inputting the same image information and generating teacher information for the output of the first image processing means based on more detailed image processing than the first image processing means; An image processing apparatus comprising: means for correcting image processing parameters of the first image processing means based on teacher information output from the processing means.
【請求項4】請求項1、2又は3において、被処理画像
対象物の明るさを含む状況を判断する手段と、この判断
手段の出力に応動して上記画像処理のパラメータを修正
する手段を備えた画像処理装置。
4. A method according to claim 1, wherein said means for judging a condition including the brightness of the object to be processed and means for correcting said image processing parameters in response to an output of said judging means. Image processing device provided.
【請求項5】請求項1、2、3、又は4において、上記
修正手段は、予め用意された複数のパラメータの中から
選択する手段を備えた画像処理装置。
5. An image processing apparatus according to claim 1, wherein said correction means comprises means for selecting from a plurality of parameters prepared in advance.
【請求項6】画像情報を入力し物体の員数を確認する画
像処理を実行する手段を備えた画像処理装置において、
上記物体の荷重を検出する手段と、この検出荷重を上記
物体の員数に対する教師情報として上記画像処理のパラ
メータを修正する手段を備えた画像処理装置。
6. An image processing apparatus comprising means for executing image processing for inputting image information and confirming the number of objects,
An image processing apparatus comprising: means for detecting the load of the object; and means for correcting the parameter of the image processing using the detected load as teacher information for the number of the objects.
【請求項7】それぞれが異なる画像情報を入力し、画像
処理を実行し、処理結果を出力する複数の画像処理手段
を備えた画像処理装置において、上記複数の画像処理手
段のうち選択された画像処理手段に入力される被処理画
像を入力し、該当画像処理手段の上記出力に対する教師
情報を発生する手段と、この教師情報に基づき上記該当
画像処理手段の画像処理のパラメータを修正する手段を
備えた画像処理装置。
7. An image processing apparatus comprising a plurality of image processing means for respectively inputting different image information, executing image processing, and outputting a processing result, comprising the steps of: selecting an image selected from the plurality of image processing means; Means for inputting an image to be processed input to the processing means, generating teacher information for the output of the image processing means, and means for correcting image processing parameters of the image processing means based on the teacher information Image processing device.
【請求項8】多階床間にサービスする複数のエレベータ
ー乗かごと、これらの乗かご内に設けられた行先呼び手
段と、少なくともこの行先呼びに応じた階にその乗かご
を停止させる号機制御手段と、各階乗場に設けられたホ
ール呼び手段と、少なくともこのホール呼びに対するサ
ービスかごを決定する群管理制御手段と、任意の乗場に
設けられた複数の撮像手段と、これらの撮像手段に夫々
対応して設けられその乗場の待ち客数を認識する第1の
画像処理手段と、これらの画像処理手段の待ち客数出力
を上記群管理制御手段へ伝送する手段と、上記複数の撮
像手段の入力である画像情報を入力し上記第1の画像処
理手段よりも詳細なアルゴリズムによつて乗場の待ち客
数を認識する第2の画像処理手段と、この第2の画像処
理手段の待ち客数出力を教師情報として上記第1の画像
処理手段の画像処理のパラメータを修正する手段を備え
た群管理エレベーター制御装置。
8. A plurality of elevator cars to be serviced between multiple floors, destination call means provided in these cars, and a car control for stopping the cars at least on the floor corresponding to the destination call. Means, hall call means provided at each floor landing, group management control means for determining at least a service car for this hall call, a plurality of imaging means provided at an arbitrary landing, respectively corresponding to these imaging means First image processing means for recognizing the number of waiting passengers at the landing, means for transmitting the number of waiting passengers output from these image processing means to the group management control means, and input to the plurality of imaging means. A second image processing means for inputting image information and recognizing the number of waiting passengers at the landing by an algorithm more detailed than the first image processing means; and a number of waiting persons of the second image processing means. Group management elevator controller having means for modifying the parameters of the image processing of the first image processing means a force as teacher data.
JP2049311A 1990-03-02 1990-03-02 Image processing device Expired - Fee Related JP2865774B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2049311A JP2865774B2 (en) 1990-03-02 1990-03-02 Image processing device
KR1019910003180A KR100204101B1 (en) 1990-03-02 1991-02-27 Image processing apparatus
GB9104342A GB2243906B (en) 1990-03-02 1991-03-01 Image processing apparatus
CN91101376A CN1054844A (en) 1990-03-02 1991-03-02 Image processing apparatus
US07/664,319 US5182776A (en) 1990-03-02 1991-03-04 Image processing apparatus having apparatus for correcting the image processing
HK150295A HK150295A (en) 1990-03-02 1995-09-21 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2049311A JP2865774B2 (en) 1990-03-02 1990-03-02 Image processing device

Publications (2)

Publication Number Publication Date
JPH03256934A JPH03256934A (en) 1991-11-15
JP2865774B2 true JP2865774B2 (en) 1999-03-08

Family

ID=12827412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2049311A Expired - Fee Related JP2865774B2 (en) 1990-03-02 1990-03-02 Image processing device

Country Status (1)

Country Link
JP (1) JP2865774B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196398A (en) * 2004-01-06 2005-07-21 Ohara Ika Sangyo Kk Small animal behavior analysis device, small animal behavior analysis method, and behavior diagnosis method
CN102328859A (en) * 2011-08-25 2012-01-25 天津大学 Energy-saving elevator dispatching method and verification device thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5334008B2 (en) * 2007-10-31 2013-11-06 東芝エレベータ株式会社 Abnormal operation detection device
JP2013170034A (en) * 2012-02-20 2013-09-02 Toshiba Elevator Co Ltd Elevator operation control device and operation control method of the same
KR102335396B1 (en) * 2017-04-27 2021-12-06 주식회사 엘엑스세미콘 Display driving device and display device including the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6453287A (en) * 1987-08-24 1989-03-01 Mitsubishi Electric Corp Number of persons detection device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196398A (en) * 2004-01-06 2005-07-21 Ohara Ika Sangyo Kk Small animal behavior analysis device, small animal behavior analysis method, and behavior diagnosis method
JP4598405B2 (en) * 2004-01-06 2010-12-15 小原医科産業株式会社 Behavioral diagnosis method for small animals
CN102328859A (en) * 2011-08-25 2012-01-25 天津大学 Energy-saving elevator dispatching method and verification device thereof
CN102328859B (en) * 2011-08-25 2013-07-03 天津大学 Energy-saving elevator dispatching method and verification device thereof

Also Published As

Publication number Publication date
JPH03256934A (en) 1991-11-15

Similar Documents

Publication Publication Date Title
US5182776A (en) Image processing apparatus having apparatus for correcting the image processing
JPH0578048A (en) Detecting device for waiting passenger in elevator hall
US8397874B2 (en) Intelligent destination elevator control system
JP4030543B2 (en) Detection of obstacles in the elevator door and movement toward the elevator door using a neural network
CN109311622B (en) Elevator system and car call estimation method
JP4135674B2 (en) Elevator automatic operation system and program
GB2246210A (en) Elevator control apparatus
CA2076154C (en) Determination of the number of persons entering and leaving an elevator car
JPH0220557B2 (en)
CN113148788B (en) System and method for displaying car operating panel in elevator car based on passenger positioning
JP2865774B2 (en) Image processing device
CN110002289A (en) For confirming the elevator automatic positioning of maintenance
JP5570742B2 (en) Elevator group management control device
US20210024326A1 (en) Methods and systems for elevator crowd prediction
CN110909607B (en) Passenger flow sensing device system in intelligent subway operation
JPH09128514A (en) Method and apparatus for detection of number of standby passengers for elevator
WO2020179139A1 (en) Movement range setting system and movement range setting method
EP3620416A1 (en) Elevator system management utilizing machine learning
CN113093751B (en) Position control method and device for elevators such as robot and storage medium
JPH0729087A (en) Device for predicting traffic quantity
US20200354196A1 (en) Self-tuning door timing parameters
JPH0780639B2 (en) Elevator traffic demand forecasting device
CN114906702B (en) Sightseeing elevator temperature control method and system based on artificial intelligence
WO2023281631A1 (en) Elevator control system and control method
JPH05147844A (en) Detector for waiting passenger at elevator hall

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees