JP2000272863A - Monitor for passenger conveyor - Google Patents

Monitor for passenger conveyor

Info

Publication number
JP2000272863A
JP2000272863A JP11079138A JP7913899A JP2000272863A JP 2000272863 A JP2000272863 A JP 2000272863A JP 11079138 A JP11079138 A JP 11079138A JP 7913899 A JP7913899 A JP 7913899A JP 2000272863 A JP2000272863 A JP 2000272863A
Authority
JP
Japan
Prior art keywords
area
image
passenger conveyor
monitoring
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11079138A
Other languages
Japanese (ja)
Inventor
Kenichi Yamashita
健一 山下
Atsuya Fujino
篤哉 藤野
Hisao Chiba
久生 千葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP11079138A priority Critical patent/JP2000272863A/en
Publication of JP2000272863A publication Critical patent/JP2000272863A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To automatically detect the displacement of the direction and position of a camera without using a device for detecting an angle of the camera, by comparing a position of a monitoring area set in the last time with a position of an area set in this time, and giving the information when the difference therebetween is above a predetermined value. SOLUTION: The data on an area set by an area setting part 84 in the last time is stored in an area position judging part 85, and the data is compared with the data on the area set in this time. When the difference of the area data is greater than a predetermined value as a result of the comparison, it is judged that the direction and position of an image pick-up means is displaced, and the fact is informed to a control room. Further in a case when an area can not be set by the area setting part 84, and the data on the area is not transmitted to the area position judging part 85, it is also judged that the direction and position of the image pick-up means is displaced, and the fact is informed to the control room. According to this system, the displacement of the direction and position of the image pick-up means such as a camera can be automatically detected and informed, so that the displacement of the direction and position of the image pick-up means can be rapidly corrected.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、乗客コンベアの
監視装置に係わり、特にカメラ等の撮像手段の向きや位
置がずれたことを自動的に検出する装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for monitoring a passenger conveyor, and more particularly to an apparatus for automatically detecting a shift in the direction or position of an image pickup means such as a camera.

【0002】[0002]

【従来の技術】従来のマンコンベアの監視装置として、
画像データを基にしてマンコンベアの監視を行う監視装
置がある。例えば、特開平5−319762 号公報には、監視
領域としてマンコンベアの踏段が写っている領域を第1
の領域として予め設定し、また、マンコンベアの乗降口
付近が写っている領域を第2の領域として予め設定し、
画像データを基にしてマンコンベアの乗客の流れを監視
し、乗客の転倒や逆方向乗車を検出する技術が記載され
ている。
2. Description of the Related Art As a conventional man-conveyor monitoring device,
There is a monitoring device that monitors a man conveyor based on image data. For example, Japanese Patent Application Laid-Open No. 5-319762 discloses an area in which a step of a man conveyor is shown as a monitoring area.
Is set in advance as an area, and an area in which the vicinity of the entrance / exit of the man conveyor is reflected is set in advance as a second area,
A technique is described in which the flow of passengers on a conveyor is monitored based on image data, and the passengers are detected to fall or to get in the opposite direction.

【0003】また、従来の監視装置として、監視カメラ
で撮影された映像に映っている物体の情報を表示する装
置がある。例えば、特開平9−307882 号公報には、プラ
ント設備の位置とカメラの位置を同一座標上の座標値と
して記憶し、カメラの向きを調整する装置からカメラの
角度を求め、これらの座標値と角度からカメラに映って
いる物体がどのプラント設備であるかを判断し、プラン
トの名称を撮影画像に重畳させて表示させる技術が記載
されている。
Further, as a conventional monitoring device, there is a device for displaying information of an object appearing in a video image captured by a monitoring camera. For example, in Japanese Patent Application Laid-Open No. 9-307882, the position of the plant equipment and the position of the camera are stored as coordinate values on the same coordinate, the camera angle is obtained from a device for adjusting the direction of the camera, and these coordinate values and There is described a technique of judging which plant equipment is an object reflected on a camera from an angle, and displaying the name of the plant superimposed on a captured image.

【0004】[0004]

【発明が解決しようとする課題】前者公報に記載の技術
の場合は、マンコンベアの乗客の流れを画像データを基
に監視し、乗客の転倒や逆方向乗車を検出することが可
能であるが、カメラ等の撮像手段の向きや位置がずれた
場合の対処については具体的な方法が示されていない。
ここで、撮像手段の向きや位置がずれると監視領域もず
れてしまうため、本来監視するべき場所を監視できな
い、という問題がある。
In the case of the technique described in the former publication, it is possible to monitor the flow of passengers on the conveyor on the basis of image data, and detect a fall of the passenger or a reverse ride. However, no specific method is described for coping with the case where the direction or position of the imaging means such as a camera is shifted.
Here, if the direction or position of the imaging means is shifted, the monitoring area is also shifted, so that there is a problem that a place to be originally monitored cannot be monitored.

【0005】また、後者公報に記載の技術の場合は、カ
メラとプラントの位置とカメラの角度から、監視対象物
がカメラの視野範囲からずれてしまったことを検出でき
るが、予めカメラと監視対象物の座表設定を行い、かつ
カメラの角度を検出する装置が必要である、という問題
がある。
In the case of the technique described in the latter publication, it can be detected from the position of the camera and the plant and the angle of the camera that the object to be monitored has deviated from the field of view of the camera. There is a problem that a device for setting the table of objects and detecting the angle of the camera is required.

【0006】本発明の課題は、カメラの角度を検出する
装置を用いずにカメラの向きや位置がずれたことを自動
的に検出することができるマンコンベアの監視装置を提
供することにある。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a monitoring device for a man-conveyor which can automatically detect a shift in the direction or position of a camera without using a device for detecting the angle of the camera.

【0007】[0007]

【課題を解決するための手段】本発明の請求項1に係わ
る乗客コンベアの監視装置は、乗客コンベア及びその周
辺の状況を示す画像を撮像し、この撮像画像を基にして
画像処理を行い、画像処理された画像データを基にして
監視を行うための領域を自動的に設定する乗客コンベア
の監視装置において、前回設定された監視のための領域
の位置と今回設定された領域の位置を比較し、その差が
所定値以上の場合に報知することを特徴とするものであ
る。
According to a first aspect of the present invention, a passenger conveyor monitoring apparatus captures an image showing a situation of a passenger conveyor and its surroundings, and performs image processing based on the captured image. In a passenger conveyor monitoring device that automatically sets an area for monitoring based on image data that has been subjected to image processing, compare the position of the previously set area for monitoring with the position of the currently set area Then, when the difference is equal to or more than a predetermined value, the notification is performed.

【0008】本発明の請求項2に係わる乗客コンベアの
監視装置は、乗客コンベア及びその周辺の状況を示す画
像を撮像し、この撮像画像を基にして画像処理を行い、
画像処理された画像データを基にして監視を行うための
領域を自動的に設定する乗客コンベアの監視装置におい
て、監視のための領域が自動的に設定できなかった場合
に報知することを特徴とするものである。
[0008] A passenger conveyor monitoring apparatus according to a second aspect of the present invention captures an image showing the condition of the passenger conveyor and its surroundings, performs image processing based on the captured image,
In a passenger conveyor monitoring device that automatically sets an area for monitoring based on image-processed image data, a notification is made when an area for monitoring cannot be automatically set. Is what you do.

【0009】本発明の請求項3に係わる乗客コンベアの
監視装置は、乗客コンベア及びその周辺の状況を示す画
像を撮像し、この撮像画像により乗客コンベアの監視を
行う乗客コンベアの監視装置において、撮像画像を基に
して監視を行うための領域を自動的に設定し、設定され
た領域内の画像を基にして乗客コンベアを不正規な状態
で利用している乗客を検出し、検出された乗客の数が所
定値を越えた場合に、撮像画像を基にして監視を行うた
めの領域を再度自動的に設定し、前回設定された監視の
ための領域の位置と今回設定された領域の位置を比較
し、その差が所定値以上の場合に報知することを特徴と
するものである。
According to a third aspect of the present invention, there is provided a passenger conveyor monitoring apparatus which captures an image showing a condition of a passenger conveyor and its surroundings, and monitors the passenger conveyor based on the captured image. An area for monitoring is automatically set based on the image, a passenger using the passenger conveyor in an irregular state is detected based on the image in the set area, and the detected passenger is detected. When the number exceeds a predetermined value, the area for monitoring based on the captured image is automatically set again, and the position of the previously set area for monitoring and the position of the area set this time are automatically set. Are compared, and when the difference is equal to or more than a predetermined value, a notification is made.

【0010】このように構成することによって、カメラ
の角度を検出する装置を用いずにカメラの向きや位置が
ずれたことを自動的に検出することができる。
[0010] With this configuration, it is possible to automatically detect that the direction or position of the camera has shifted without using a device for detecting the angle of the camera.

【0011】[0011]

【発明の実施の形態】以下、本発明の実施形態を図面に
基づいて説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0012】図1は、本発明の一実施形態を示すブロッ
ク図である。
FIG. 1 is a block diagram showing an embodiment of the present invention.

【0013】図1において、1は乗客コンベアのハンド
レール、2は踏段、3は踏段2に連結されたギヤ、4は
電動機、5は電動機4を制御する制御装置、6は乗降口
床、7はカメラ等の撮像手段、8は監視装置、9は表示
器等の表示手段、10はスピーカー等の音声出力手段で
ある。15は乗客コンベアが設置されているビルの管理
人室あるいは保守員によって乗客コンベアを保守管理す
る保守センタである。16は撮像手段7の向きや位置が
ずれたことを知らせるための報知手段で、例えば液晶,
LEDによる文字表示器やスピーカーあるいはブザー等
である。
In FIG. 1, 1 is a handrail of a passenger conveyor, 2 is a step, 3 is a gear connected to the step 2, 4 is an electric motor, 5 is a control device for controlling the electric motor 4, 6 is a floor at the entrance and exit, 7 Denotes an imaging unit such as a camera, 8 denotes a monitoring device, 9 denotes a display unit such as a display, and 10 denotes an audio output unit such as a speaker. Reference numeral 15 denotes a maintenance center for maintaining and managing the passenger conveyor by a management room or a maintenance person of a building where the passenger conveyor is installed. Reference numeral 16 denotes a notifying unit for notifying that the direction and the position of the imaging unit 7 have been shifted.
It is an LED character display, a speaker, a buzzer, or the like.

【0014】カメラ等の撮像手段7は、乗客コンベアお
よびその周辺の状況を撮像し、撮像信号を監視装置8に
送る。図1では撮像手段7と監視装置8は別々に図示し
ているが、監視装置8を撮像手段7の内部に内蔵しても
よい。監視装置8は、乗り出しやいたずらの検出を行
い、また、検出するための領域を自動的に設定する。こ
こで、乗り出しとは、乗客が乗客コンベアの外側に体を
乗り出して乗車していることをいう。いたずらとは、乗
客が乗客コンベアの乗降口付近で遊んでいる場合、ある
いはうろうろしている場合をいう。
An image pickup means 7 such as a camera takes an image of a passenger conveyor and its surroundings, and sends an image pickup signal to the monitoring device 8. Although the imaging unit 7 and the monitoring device 8 are illustrated separately in FIG. 1, the monitoring device 8 may be built in the imaging unit 7. The monitoring device 8 detects embarking and mischief, and automatically sets an area to be detected. Here, the embarking means that the passenger embarks on the outside of the passenger conveyor and gets on. The mischief refers to a case where the passenger is playing near the entrance of the passenger conveyor or is hanging around.

【0015】表示器等の表示手段9とスピーカー等の音
声出力手段10は、乗客コンベアの乗客に対して注意を
促す案内を行うために用いる。案内の内容としては、
「乗り出すと危険です。」,「正しい姿勢でご乗車下さ
い。」,「乗降口付近で遊ばないで下さい。」等があ
る。
A display means 9 such as a display and a sound output means 10 such as a speaker are used to guide a passenger on a passenger conveyor to draw attention. As the contents of the guidance,
"It is dangerous to get on.", "Please ride in the correct position", "Do not play near the entrance".

【0016】なお、図1では、乗客コンベアの例として
エスカレータを図示したが、動く歩道の場合においても
本実施形態と同様の機能を実現することができる。
Although an escalator is shown in FIG. 1 as an example of a passenger conveyor, the same function as that of the present embodiment can be realized in the case of a moving sidewalk.

【0017】図2は、監視装置8の内部構成を示すブロ
ック図である。
FIG. 2 is a block diagram showing the internal configuration of the monitoring device 8.

【0018】入力部81は撮像手段7から撮像信号を受
け取り、デジタルデータに変換して画像メモリ82に送
る。
The input section 81 receives an image pickup signal from the image pickup means 7, converts it into digital data, and sends it to the image memory 82.

【0019】画像メモリ82はデジタルの画像データを
一定周期で取り込む。画像処理部83は、画像データを
画像処理して次の領域設定や画像認識の判断処理に供す
るための画像データを作成する。領域設定部84は、初
めに、画像処理部83で処理された画像データに基づい
て、乗り出しやいたずら等を検出するための検出領域を
自動的に設定する。
The image memory 82 fetches digital image data at a constant period. The image processing unit 83 performs image processing on the image data and creates image data to be used for the next area setting and image recognition determination processing. First, the area setting unit 84 automatically sets a detection area for detecting embarking or mischief based on the image data processed by the image processing unit 83.

【0020】領域位置判定部85は領域設定部84が前
回設定した領域のデータを記憶しており、そのデータと
今回設定した領域のデータを比較する。比較した結果、
領域データの差が所定値より大きい場合は撮像手段7の
向きや位置がずれたものと判断し管理人室15に通報す
る。
The area position determining section 85 stores the data of the area previously set by the area setting section 84, and compares the data with the data of the currently set area. As a result of the comparison,
If the difference between the area data is larger than the predetermined value, it is determined that the direction and the position of the imaging unit 7 have shifted, and the management unit 15 is notified.

【0021】また、領域設定部84において領域が設定
できずに、領域位置判定部85に領域のデータが送られ
なかった場合も、撮像手段7の向きや位置がずれたもの
と判断し管理人室15に通報する。
If the area setting unit 84 cannot set the area and the area data is not sent to the area position judging unit 85, it is determined that the direction and the position of the image pickup means 7 are shifted, and the administrator Notify room 15.

【0022】画像認識部86は、2回目以降の画像処理
部83で処理された画像データのうち、領域設定部84
において設定された検出領域内の画像データを用いて乗
り出しやいたずら等の検出を行う。回数判定部87は一
定時間内において画像認識部86で検出された乗り出し
あるいはいたずらの回数が所定値を超えたか否かを判定
する。所定値を超えた場合は、カメラの位置や向きがず
れたことによって誤検出が多発している可能性があるた
め、再度、領域設定部84で領域の設定を行い、領域位
置判定部85で領域の位置がずれていないかを調べ、ず
れている場合は管理人室15に通報する。
The image recognizing section 86 includes an area setting section 84 of the image data processed by the second and subsequent image processing sections 83.
The detection of embarking, mischief, etc. is performed using the image data in the detection area set in. The number-of-times determining unit 87 determines whether the number of embarkings or mischiefs detected by the image recognizing unit 86 within a certain time exceeds a predetermined value. If the value exceeds the predetermined value, there is a possibility that erroneous detection has occurred frequently due to a shift in the position or orientation of the camera. Therefore, the area is set again by the area setting unit 84, and It is checked whether the position of the area is shifted or not, and if it is shifted, it is notified to the manager room 15.

【0023】案内部88は、画像認識部86の判定結果
に応じて様々な案内を表示手段9あるいは音声出力手段
10を用いて行う。出力部89は、表示手段9と音声出
力手段10と報知手段16にそれぞれ案内をさせるため
の信号を送信する。
The guidance unit 88 provides various guidance using the display unit 9 or the voice output unit 10 according to the determination result of the image recognition unit 86. The output unit 89 transmits a signal for causing the display unit 9, the audio output unit 10, and the notification unit 16 to provide guidance.

【0024】次に、本実施形態の監視装置8内の領域設
定部84の検出領域設定手順を図3に示すフローチャー
トに基づいて説明する。ここで、撮影手段7によって撮
像された画像データは画像処理部83によって2値化さ
れて領域設定部84に渡されるものとする。
Next, the detection area setting procedure of the area setting section 84 in the monitoring device 8 of the present embodiment will be described with reference to the flowchart shown in FIG. Here, it is assumed that the image data captured by the photographing unit 7 is binarized by the image processing unit 83 and passed to the area setting unit 84.

【0025】ステップ1において、フレーム間差分をと
る。フレーム間差分とは、一定周期で撮像された画像に
ついて、現時点の画像と1つ前に撮像された画像の差分
をとることである。ステップ2では、ステップ1でとっ
た差分画像を随時足し合わせていく。次に、ステップ3
の判定により、所定回数になるまでステップ1,2の処
理を繰り返す。ステップ4では、所定回数足し合わせた
差分画像の膨張,収縮等の画像処理を行う。ステップ5
では、踏段の走行領域を抽出する。ステップ6では、乗
り出しの検出領域を設定する。ステップ7では、いたず
らの検出領域を設定する。
In step 1, an inter-frame difference is calculated. The inter-frame difference is to take a difference between an image taken at the current time and an image taken immediately before for an image taken at a fixed period. In step 2, the difference images obtained in step 1 are added as needed. Next, step 3
According to the determination of the above, the processing of steps 1 and 2 is repeated until the number of times reaches a predetermined number. In step 4, image processing such as expansion and contraction of the difference image added a predetermined number of times is performed. Step 5
Then, the travel area of the step is extracted. In step 6, a embarkation detection area is set. In step 7, a mischief detection area is set.

【0026】図3のステップ1からステップ5までの処
理、つまり領域設定部84の踏段の走行領域の抽出処理
について、図4を用いて説明する。
The process from step 1 to step 5 in FIG. 3, that is, the process of extracting the running area of the step by the area setting unit 84 will be described with reference to FIG.

【0027】図4(a),図4(b)は乗客コンベアを
撮像した画像の一例であり、図4(c),図4(d),
図4(e)はステップ4によって画像処理された画像を
示す。また、図4は、いずれも画像処理部83によって
2値化されている画像である。
FIGS. 4 (a) and 4 (b) are examples of images of the passenger conveyor, which are shown in FIGS. 4 (c), 4 (d) and 4 (d).
FIG. 4E shows an image subjected to the image processing in step 4. FIG. 4 shows images that have been binarized by the image processing unit 83.

【0028】1はハンドレール、2は踏段、6は乗降口
床、11は踏段のデマケーションライン(黄色注意標
色)、12は抽出された踏段の走行領域を示している。
Reference numeral 1 denotes a handrail, 2 denotes a step, 6 denotes an entrance floor, 11 denotes a demarcation line of the step (a yellow caution mark), and 12 denotes a traveling area of the extracted step.

【0029】図4(b)は、図4(a)を撮像した時点
の所定時間後の画像である。所定時間は、画像メモリ8
2が画像データを取り込む周期に依存し、例えば画像メ
モリ82が10msec 毎に画像データを取り込むなら
ば、図4(b)は図4(a)の10msec 後の画像とな
る。
FIG. 4B is an image after a predetermined time from when the image of FIG. 4A was taken. The predetermined time is set in the image memory 8
2B depends on the period of fetching the image data. For example, if the image memory 82 fetches the image data every 10 msec, FIG. 4B shows the image after 10 msec in FIG. 4A.

【0030】図4(c)は、図4(a)と図4(b)の
差分、正確に言うと、排他的論理和をとった画像であ
る。排他的論理和をとれば、両者の画像の異なる部分だ
けが抽出される。両者の画像において異なるのは時間に
応じて動くものであり、図4の場合は踏段2であり、特
にデマケーションライン11である。ハンドレール1も
動いてはいるが、通常単一色で形成されているため、実
際は動いていても画像上では止まっているように見え、
排他的論理和をとった場合は0となり、図4(c)では現
れない。
FIG. 4 (c) is an image obtained by calculating the exclusive OR of the difference between FIGS. 4 (a) and 4 (b). When exclusive OR is performed, only different portions of both images are extracted. The difference between the two images is that they move with time. In the case of FIG. 4, the step 2 is used, and in particular, the demarcation line 11 is used. Although the handrail 1 is also moving, it is usually formed in a single color, so even if it actually moves, it appears to stop on the image,
When exclusive OR is taken, it becomes 0 and does not appear in FIG.

【0031】図4(c)の画像は、撮像した瞬間によっ
てデマケーションライン11の位置が異なるため、処理
を行った時刻によって画像は異なる。それぞれの時点で
求められるこれらの排他的論理和の画像を足し合わせる
(論理和をとる)ことによって、図4(d)のように踏
段の走行領域内に多数の線が存在する画像を得ることが
できる。
In the image shown in FIG. 4C, the position of the demarcation line 11 differs depending on the moment when the image is taken, and therefore, the image differs depending on the time when the processing is performed. By adding (ORing) these exclusive OR images obtained at each time point, an image in which many lines exist in the running area of the step as shown in FIG. 4D is obtained. Can be.

【0032】図4(d)の画像に対して、画像処理の一
般的な技術である膨張(拡張や伝播とも呼ばれる。)や
収縮(浸食とも呼ばれる。)を行うことによって、線と
線との隙間を埋めることが可能であり、図4(e)に示
すように踏段の走行領域12を抽出することができる。
By performing expansion (also called expansion or propagation) or contraction (also called erosion), which is a general technique of image processing, on the image shown in FIG. The gap can be filled, and the traveling area 12 of the step can be extracted as shown in FIG.

【0033】なお、図4(e)のように踏段の走行領域
内を塗りつぶさなくとも、図4(d)において、踏段の走
行領域内にある多数の線のそれぞれの両端の座標から踏
段の走行領域を示す台形の斜辺の座標を近似的に求め、
走行領域を抽出することができる。
In FIG. 4D, even if the inside of the running area of the step is not painted as shown in FIG. 4E, the running of the step is performed based on the coordinates of both ends of each of the many lines in the running area of the step. Approximately obtain the coordinates of the hypotenuse of the trapezoid indicating the area,
The traveling area can be extracted.

【0034】図3のステップ6の処理、つまり領域設定
部84の乗り出し検出領域設定の処理について、その詳
細フローを図7を用いて説明する。
A detailed flow of the process of step 6 in FIG. 3, that is, the process of setting the start detection area of the area setting section 84 will be described with reference to FIG.

【0035】ステップ8において、図3のステップ5の
処理による踏段走行領域の抽出に基づいて、踏段走行領
域の上辺の長さを測定する。ステップ9では、踏段走行
領域の上辺の位置における縮小率を求める。ステップ1
0では、予め設定した乗り出し検出領域の設定値にステ
ップ9で求めた縮小率をかける。ステップ11では、踏
段走行領域の上辺の左端の点のx座標からステップ10
で求めた値を引いた座標を求める。ステップ12では、
踏段走行領域の上辺の右端の点のx座標からステップ1
0で求めた値を足した座標を求める。
In step 8, the length of the upper side of the step traveling area is measured based on the extraction of the step traveling area by the processing in step 5 of FIG. In step 9, the reduction ratio at the position of the upper side of the step traveling area is determined. Step 1
In the case of 0, the reduction value obtained in step 9 is multiplied by the set value of the preset start detection area. In step 11, the x coordinate of the left end point of the upper side of the step traveling area is calculated in step 10.
Find the coordinates obtained by subtracting the value obtained in. In step 12,
Step 1 from the x coordinate of the rightmost point on the upper side of the step running area
The coordinates obtained by adding the values obtained by 0 are obtained.

【0036】一方、ステップ13において、踏段走行領
域の下辺の長さを測定する。ステップ14では、踏段走
行領域の下辺の位置における縮小率を求める。ステップ
15では、予め設定した乗り出し検出領域の設定値にス
テップ14で求めた縮小率をかける。ステップ16で
は、踏段走行領域の下辺の左端の点のx座標からステッ
プ15で求めた値を引いた座標を求める。ステップ17
では、踏段走行領域の下辺の右端の点のx座標からステ
ップ15で求めた値を足した座標を求める。
On the other hand, in step 13, the length of the lower side of the step traveling area is measured. In step 14, the reduction ratio at the position on the lower side of the step traveling area is determined. In step 15, the reduction value obtained in step 14 is multiplied by the preset set value of the embarkation detection area. In step 16, the coordinates obtained by subtracting the value obtained in step 15 from the x coordinate of the left end point on the lower side of the step traveling area are obtained. Step 17
Then, the coordinates obtained by adding the value obtained in step 15 from the x coordinate of the right end point on the lower side of the step running area are obtained.

【0037】次に、ステップ18において、踏段走行領
域の上辺の左端点と下辺の左端点とステップ11,ステ
ップ16で求めた座標の点で囲まれた領域を左側の乗り
出し領域とする。ステップ19では、踏段走行領域の上
辺の右端点と下辺の右端点とステップ12,ステップ1
7で求めた座標の点で囲まれた領域を右側の乗り出し領
域とする。
Next, in step 18, an area surrounded by the left end point of the upper side and the left end point of the lower side of the step traveling area and the point of the coordinates obtained in steps 11 and 16 is defined as a left embarking area. In step 19, the right end point of the upper side and the right end point of the lower side of the step traveling area are compared with step 12, step 1
The area surrounded by the points of the coordinates obtained in step 7 is defined as the right embarking area.

【0038】図5(a),図5(b)に、乗り出し検出
領域設定の処理に関する説明図を示す。ここで、図5
(a)に示した4点の座標は、図4(e)の踏段の走行
領域12を示す台形の四隅の座標の一例である。
FIGS. 5 (a) and 5 (b) are explanatory diagrams related to the process of setting the embargo detection area. Here, FIG.
The coordinates of the four points shown in FIG. 4A are an example of the coordinates of the four corners of a trapezoid indicating the step running area 12 in FIG.

【0039】図5(a)において、この台形の四隅の座
標をそれぞれ上辺(40,50),(70,50),下
辺(30,170),(80,170)とする。踏段の
大きさは予め知ることができるので、画像上の踏段の大
きさと実際の大きさは比較することができる。例えば、
踏板の面積を1000mm(長辺)×400(短辺)mmと
し、乗り出しの検出領域を踏段の端から200mmに設定
する場合を例にとり説明する。
In FIG. 5A, the coordinates of the four corners of this trapezoid are defined as upper sides (40, 50), (70, 50), lower sides (30, 170), and (80, 170). Since the size of the step can be known in advance, the size of the step on the image and the actual size can be compared. For example,
An example will be described in which the area of the tread is 1000 mm (long side) × 400 (short side) mm, and the detection area for embarking is set to 200 mm from the end of the step.

【0040】図5における台形の上辺の長さは70−4
0=30であり、この長さは踏段の長辺の長さと対応す
る。実際の長さが1000であるのに対して画像上では
30に見えているから、30/1000=3/100即
ち100分の3に縮小されていることになる。従って、
x座標の値が40と70のところでは乗り出し検出のた
めの領域の設定値を100分の3にして200・(3/
100)=6とすればよい。この結果、x座標の値は3
4と76になり、xy座標は(34,50),(76,
50)となる。
The length of the upper side of the trapezoid in FIG.
0 = 30, which corresponds to the length of the long side of the step. Since the actual length is 1000, it is 30 on the image, so that it is reduced to 30/1000 = 3/100, that is, 3/100. Therefore,
When the value of the x-coordinate is 40 and 70, the set value of the area for detection of embarking is set to 3/100 and 200 · (3 /
100) = 6. As a result, the value of the x coordinate is 3
4 and 76, and the xy coordinates are (34, 50), (76,
50).

【0041】同様に、図5における台形の下辺の長さは
80−30=50である。この長さは踏段の長辺の長さ
と対応する。実際の長さが1000であるのに対して画
像上では50に見えているから、50/1000=1/
20即ち20分の1に縮小されていることになる。従っ
て、x座標の値が30と80のところでは乗り出し検出
のための領域の設定値も20分の1にして200/20
=10とすればよい。この結果、x座標の値は20と9
0になり、xy座標は(20,170),(90,17
0)となる。
Similarly, the length of the lower side of the trapezoid in FIG. 5 is 80-30 = 50. This length corresponds to the length of the long side of the step. Since the actual length is 1000, but it is 50 on the image, 50/1000 = 1 /
This means that the size has been reduced to 20 or 1/20. Therefore, when the value of the x-coordinate is 30 and 80, the set value of the area for detection of embarkation is also reduced to 1/20, and
= 10. As a result, the values of the x coordinate are 20 and 9
0, and the xy coordinates are (20, 170), (90, 17)
0).

【0042】以上のようにして乗り出し乗車の検出領域
を設定すると、図5(b)になる。図5(b)におい
て、12は踏段の走行領域、13は乗り出し検出領域で
ある。図3のステップ7の処理、つまり領域設定部84
のいたずら検出領域設定の処理について、その詳細フロ
ーを図8を用いて説明する。
FIG. 5B shows the setting of the detection area for boarding and boarding as described above. In FIG. 5B, reference numeral 12 denotes a step traveling area, and reference numeral 13 denotes an embarking detection area. 3, that is, the area setting unit 84
The detailed flow of the mischief detection area setting process will be described with reference to FIG.

【0043】ステップ20において、図3のステップ5
の処理による踏段走行領域の抽出に基づいて、踏段走行
領域の下辺の長さを測定する。ステップ21では、踏段
走行領域の下辺の位置における縮小率を求める。ステッ
プ22では、予め設定したいたずら検出領域の設定値に
ステップ21で求めた縮小率をかける。ステップ23で
は、踏段走行領域の下辺の左端の点のx座標からステッ
プ22で求めた値を引いた座標を求める。ステップ24
では、踏段走行領域の下辺の右端の点のx座標からステ
ップ22で求めた値を足した座標を求める。
In step 20, step 5 in FIG.
The length of the lower side of the step traveling area is measured based on the extraction of the step traveling area by the above processing. In step 21, a reduction ratio at a position on the lower side of the step traveling area is determined. In step 22, the set value of the mischief detection area set in advance is multiplied by the reduction ratio obtained in step 21. In step 23, the coordinates obtained by subtracting the value obtained in step 22 from the x coordinates of the left end point on the lower side of the step traveling area are obtained. Step 24
Then, the coordinates obtained by adding the value obtained in step 22 from the x coordinate of the right end point on the lower side of the step running area are obtained.

【0044】次に、ステップ25において、ステップ2
3で求めた座標の点を通り、踏段走行領域の左側の斜辺
と平行な直線を引く。ステップ26では、ステップ24
で求めた座標の点を通り、踏段走行領域の右側の斜辺と
平行な直線を引く。ステップ27では、踏段走行領域の
下辺とステップ25,ステップ26で求めた直線と画像
の下端で囲まれる領域をいたずら領域とする。
Next, in step 25, step 2
A straight line that passes through the point of the coordinates obtained in step 3 and is parallel to the left oblique side of the step running area is drawn. In step 26, step 24
Draw a straight line that passes through the point of the coordinates obtained in and is parallel to the right oblique side of the step traveling area. In step 27, the area surrounded by the lower side of the step running area, the straight line obtained in steps 25 and 26, and the lower end of the image is defined as a mischief area.

【0045】図5(c)に、図8のフローによるいたず
ら検出領域設定の処理に関する説明図を示す。
FIG. 5C is an explanatory diagram related to the processing of setting the mischief detection area according to the flow of FIG.

【0046】図5(b)と同じく、いたずら検出領域を
踏段の端から200mmに設定すると、踏段走行領域の下
辺の実際の長さに対する画像上の縮小率が20分の1に
なることから、x座標の値が踏段走行領域の下辺の左端
と右端のところではいたずら検出のための領域の設定値
も20分の1にして200/20=10とすればよい。
As shown in FIG. 5B, when the mischief detection area is set at 200 mm from the end of the step, the reduction ratio on the image with respect to the actual length of the lower side of the step traveling area becomes 1/20. When the value of the x coordinate is at the left end and the right end of the lower side of the step traveling area, the set value of the area for detecting tampering may be set to 1/20 and 200/20 = 10.

【0047】この結果、x座標の値は20と90にな
り、xy座標は(20,170),(90,170)と
なる。次に、この2点の座標から台形のそれぞれの斜辺
と平行になるように2本の直線を引き、これらの直線と
画像端と台形の下辺によって囲まれる領域をいたずら検
出領域とする。
As a result, the values of the x coordinate are 20 and 90, and the xy coordinates are (20, 170) and (90, 170). Next, two straight lines are drawn from the coordinates of the two points so as to be parallel to the respective oblique sides of the trapezoid, and an area surrounded by these straight lines, the image edge, and the lower side of the trapezoid is defined as a mischief detection area.

【0048】図3のステップ7の他の処理例の詳細フロ
ーを図9を用いて説明する。
A detailed flow of another processing example of step 7 in FIG. 3 will be described with reference to FIG.

【0049】ステップ28において、図3のステップ5
の処理による踏段走行領域の抽出に基づいて、踏段走行
領域の下辺の長さを測定する。ステップ29では、踏段
走行領域の下辺の位置における縮小率を求める。ステッ
プ30では、予め設定したいたずら検出領域の設定値に
ステップ29で求めた縮小率をかける。ステップ31で
は、踏段走行領域の下辺の左端の点のx座標からステッ
プ30で求めた値を引いた座標を求める。ステップ32
では、踏段走行領域の下辺の右端の点のx座標からステ
ップ22で求めた値を足した座標を求める。
In step 28, step 5 in FIG.
The length of the lower side of the step traveling area is measured based on the extraction of the step traveling area by the above processing. In step 29, a reduction ratio at a position on the lower side of the step traveling area is determined. In step 30, the reduction value obtained in step 29 is multiplied by the preset value of the mischief detection area. In step 31, coordinates obtained by subtracting the value obtained in step 30 from the x coordinate of the left end point on the lower side of the step traveling area are obtained. Step 32
Then, the coordinates obtained by adding the value obtained in step 22 from the x coordinate of the right end point on the lower side of the step running area are obtained.

【0050】次に、ステップ33において、ステップ3
1,ステップ32で求めた座標点から画像の下端に向け
て垂線を引く。ステップ34では、踏段走行領域の下辺
とステップ33で求めた2本の垂線と画像の下端で囲ま
れる四角形の領域をいたずら領域とする。
Next, in step 33, step 3
1. A perpendicular line is drawn from the coordinate point obtained in step 32 toward the lower end of the image. In step 34, a square area surrounded by the lower side of the step running area, the two perpendicular lines obtained in step 33, and the lower end of the image is set as a mischief area.

【0051】図5(d)に、図9のフローによるいたず
ら検出領域設定の処理に関する説明図を示す。
FIG. 5D is an explanatory diagram relating to the processing for setting the mischief detection area according to the flow of FIG.

【0052】図5(c)と異なるところは、いたずら検
出のための領域として求めたxy座標(20,17
0),(90,170)から画像の下端に向けて垂線を
引く点である。その他は図5(c)の場合と同様であ
る。
The difference from FIG. 5C is that the xy coordinates (20, 17) obtained as an area for detecting mischief are used.
0) and (90, 170) are drawn perpendicular to the lower end of the image. Others are the same as in the case of FIG.

【0053】なお、本実施形態では、踏段の走行領域か
ら直接検出領域を設定しているが、踏段の走行領域の位
置や大きさを基にしてハンドレール1や乗降口床6等の
乗客コンベアの各部位を抽出し、そこから乗り出しの検
出領域やいたずらの検出領域を設定しても同様の機能を
実現できる。
In the present embodiment, the detection area is set directly from the travel area of the steps. However, based on the position and size of the travel area of the steps, the passenger conveyor such as the handrail 1 and the entrance / exit floor 6 is used. The same function can be realized by extracting each part of, and setting a detection area for embarking and a detection area for mischief therefrom.

【0054】また、乗客コンベアの各部位を直接抽出し
てから、検出領域を設定することもできる。例えば、乗
降口床6はその材質や表面のデザインが予め決まってい
るので、テクスチャーマッチングにより抽出することが
できる。あるいは、乗降口床6の形状は長方形であり、
その大きさも予め決まっているので、これらの情報を基
にして乗降口床6を抽出することができる。あるいは、
ハンドレール1は乗客コンベアの両脇にあり、それぞれ
平行でハンドレール1の幅の寸法は既知である等の特徴
から、抽出することができる。あるいは、ハンドレール
1上や乗降口床6上にマーカーを置き、このマーカーを
検出することによって、ハンドレール1等を抽出するこ
とができる。
Also, the detection area can be set after each part of the passenger conveyor is directly extracted. For example, the entrance / exit floor 6 can be extracted by texture matching since its material and surface design are predetermined. Alternatively, the shape of the entrance floor 6 is rectangular,
Since the size is also determined in advance, the entrance / exit floor 6 can be extracted based on such information. Or,
The handrails 1 are located on both sides of the passenger conveyor, and can be extracted from features such as being parallel to each other and having a known width dimension of the handrails 1. Alternatively, a marker is placed on the handrail 1 or the entrance / exit floor 6, and by detecting this marker, the handrail 1 or the like can be extracted.

【0055】この際、マーカーは撮像した際に特徴が出
るものであればよい。例えば、白いテープや光源等の明
度の高いものでもよい。また、特殊な形状をしたもので
もよく、その形状を予め登録しておけば、テンプレート
マッチングにより容易にマーカーを抽出することができ
る。
At this time, any marker may be used as long as it has characteristics when an image is taken. For example, a material with high brightness such as a white tape or a light source may be used. Further, a marker having a special shape may be used. If the shape is registered in advance, a marker can be easily extracted by template matching.

【0056】このようにして、抽出したハンドレール1
や乗降口床6等の乗客コンベアの各部位を基にして乗り
出しの検出領域やいたずらの検出領域を設定することも
できる。
The handrail 1 thus extracted
It is also possible to set a embarkation detection area and a mischief detection area based on each part of the passenger conveyor such as the floor and the entrance floor 6.

【0057】次に、本実施形態における画像認識部86
の処理について、図6を用いて説明する。図6におい
て、図4,図5と同一符号のものは同一要素を示す。
Next, the image recognition unit 86 in the present embodiment
Will be described with reference to FIG. 6, the same reference numerals as those in FIGS. 4 and 5 indicate the same elements.

【0058】まず、乗り出しの検出について説明する。
最も簡単な検出方法は、乗り出しの検出領域13の背景
画像を保存しておき、現在の画像と比較を行い、その差
が所定値以上の場合に乗り出しとして検出する。ただ
し、この方法では、検出領域13内に人が立っているだ
けで乗り出しと誤判定するなど認識率が低い。そこで、
検出領域13内の物体が乗客コンベアの移動方向と同一
方向に動いていること、乗客コンベアの移動速度以上の
速度で移動していること等の条件を付加することによっ
て、認識率を向上させることができる。
First, detection of embarking will be described.
In the simplest detection method, the background image of the detection region 13 of the start is stored, compared with the current image, and when the difference is equal to or more than a predetermined value, the start is detected as the start. However, in this method, the recognition rate is low, for example, it is erroneously determined that a person stands alone in the detection area 13 to start. Therefore,
Improving the recognition rate by adding conditions such as that the object in the detection area 13 is moving in the same direction as the moving direction of the passenger conveyor, and moving at a speed higher than the moving speed of the passenger conveyor. Can be.

【0059】次に、いたずらの検出について説明する。
最も簡単な検出方法は、いたずらの検出領域14の背景
画像を保存しておき、現在の画像と比較し、その差が所
定値以上であるか否かを調べ、差が所定値以上である状
態が所定時間以上継続した場合にいたずらとして検出す
る。ただし、この方法では、検出領域内に途切れること
なく乗客が通る場合でも、いたずらと誤認識するなど認
識率が低い。そこで、乗客の動きを判断し、乗客コンベ
アの進行方向と異なる方向に動いている場合はいたずら
と判断する条件を加えることによって、認識率を向上さ
せることができる。
Next, detection of mischief will be described.
The simplest detection method is to store the background image of the mischief detection area 14, compare it with the current image, check whether the difference is greater than a predetermined value, and check if the difference is greater than a predetermined value. Is detected as mischief when has continued for a predetermined time or more. However, in this method, even when the passenger passes through the detection area without interruption, the recognition rate is low, such as misrecognition as mischief. Therefore, the recognition rate can be improved by judging the movement of the passenger, and adding a condition for judging the mischief when the passenger is moving in a direction different from the traveling direction of the passenger conveyor.

【0060】なお、本実施形態は、図5に乗り出しとい
たずらの検出領域の設定について示したが、それ以外の
事象を検出するための検出領域の設定も、踏段の走行領
域12の位置や大きさを基にして設定するものであれ
ば、実現することが可能である。例えば、踏段の走行領
域12をそのまま検出領域として設定し、乗客コンベア
を逆走する乗客の検出のための検出領域として用いるこ
とができる。
In this embodiment, the setting of the detection area for the embarking and mischief is shown in FIG. 5, but the setting of the detection area for detecting other events is not limited to the position or size of the traveling area 12 of the step. If it is set based on the degree, it can be realized. For example, the traveling area 12 of the step may be set as a detection area as it is and used as a detection area for detecting a passenger traveling backward on the passenger conveyor.

【0061】次に、本実施形態の監視装置8内の領域位
置判定部85の検出領域の判定手順を図10に示すフロ
ーチャートに基づいて説明する。
Next, the procedure for determining the detection area by the area position determination section 85 in the monitoring device 8 of the present embodiment will be described with reference to the flowchart shown in FIG.

【0062】ステップ35で領域設定部84で領域デー
タを設定できたか否かを判定する。設定できなかった場
合はステップ40において管理人室15へ通報する。設
定できた場合はステップ36以降の処理を実行する。
At step 35, it is determined whether or not the area setting section 84 has set the area data. If the setting has not been successful, a notification is made to the manager room 15 in step 40. If it can be set, the processing of step 36 and thereafter is executed.

【0063】ステップ36では領域設定が行われたのは
1回目なのか否かを判定する。1回目の場合は比較する
領域データがないため、ステップ39で領域データを記
憶して終了する。2回目以降の場合はステップ37以降
の処理を実行する。
In step 36, it is determined whether or not the region has been set for the first time. In the first case, since there is no area data to be compared, the area data is stored in step 39 and the processing ends. In the case of the second time or later, the processing of step 37 and thereafter is executed.

【0064】ステップ37では今回の領域データと記憶
してある前回の領域データを比較し、領域の位置の差を
求める。差の求め方としては、それぞれの領域の中心点
や重心点の差を求める方法や、それぞれの領域の四隅の
点について差を求める方法がある。
In step 37, the current region data is compared with the stored previous region data to determine the difference between the region positions. As a method of calculating the difference, there is a method of calculating the difference between the center point and the center of gravity of each area, and a method of calculating the difference at the four corner points of each area.

【0065】ステップ38ではステップ37における差
が所定値以上であるか否かを判定する。差が所定値以上
の場合はステップ40において管理人室15へ通報す
る。差が所定値未満の場合はステップ39において今回
設定した領域データを記憶する。
In step 38, it is determined whether or not the difference in step 37 is equal to or greater than a predetermined value. If the difference is equal to or larger than the predetermined value, a notification is sent to the management room 15 in step 40. If the difference is less than the predetermined value, the area data set this time is stored in step 39.

【0066】[0066]

【発明の効果】以上説明したように、本発明によれば、
画像データを基にして乗客コンベアの監視を行う監視装
置において、カメラなどの撮像手段の向きや位置がずれ
たことを自動的に検出し管理人室や保守センタへ通報す
るので、撮像手段の向きや位置のずれを迅速に修正する
ことができる。
As described above, according to the present invention,
A monitoring device that monitors the passenger conveyor based on the image data automatically detects that the orientation or position of the imaging means such as a camera has shifted, and reports this to the management room or maintenance center. And the displacement can be quickly corrected.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態を示すブロック図。FIG. 1 is a block diagram showing an embodiment of the present invention.

【図2】本発明の監視装置の内部構成を示すブロック
図。
FIG. 2 is a block diagram showing an internal configuration of a monitoring device according to the present invention.

【図3】本発明の領域設定部の検出領域設定手順を示す
フローチャート。
FIG. 3 is a flowchart illustrating a detection area setting procedure of an area setting unit according to the present invention.

【図4】本発明の領域設定部の踏段走行領域の抽出処理
についての説明図。
FIG. 4 is an explanatory diagram illustrating a step traveling region extraction process of the region setting unit according to the present invention.

【図5】本発明の乗り出し、いたずら検出領域設定の処
理に関する説明図。
FIG. 5 is an explanatory diagram relating to a process of setting a embarkation and mischief detection area according to the present invention.

【図6】本発明の画像認識部による乗り出し、いたずら
検出の処理に関する説明図。
FIG. 6 is an explanatory diagram relating to a process of detecting embarrassing and mischief by the image recognition unit of the present invention.

【図7】本発明の乗り出し検出領域設定の処理について
の詳細フローチャート。
FIG. 7 is a detailed flowchart of a process of setting a start detection area according to the present invention.

【図8】本発明のいたずら検出領域設定の処理について
の詳細フローチャート。
FIG. 8 is a detailed flowchart of a mischief detection area setting process according to the present invention.

【図9】本発明のいたずら検出領域設定の処理について
の詳細フローチャート。
FIG. 9 is a detailed flowchart of a mischief detection area setting process according to the present invention.

【図10】本発明の領域位置判定部の領域位置判定手順
を示すフローチャート。
FIG. 10 is a flowchart illustrating an area position determination procedure of an area position determination unit according to the present invention.

【符号の説明】[Explanation of symbols]

1…ハンドレール、2…踏段、3…ギヤ、4…電動機、
5…制御装置、6…乗降口床、7…撮像手段(カメラ
等)、8…監視装置、9…表示手段(表示器等)、10
…音声出力手段(スピーカー等)、11…踏段2のデマ
ケーションライン、12…踏段走行領域、13…乗り出
し検出領域、14…いたずら検出領域、15…管理人
室、16…管理人室への通報手段(表示器,スピーカー
等)、81…入力部、82…画像メモリ、83…画像処
理部、84…領域設定部、85…領域位置判定部、86
…画像認識部、87…回数判定部、88…案内部、89
…出力部。
1 ... handrail, 2 ... step, 3 ... gear, 4 ... electric motor,
Reference numeral 5: control device, 6: entrance floor, 7: imaging means (camera, etc.), 8: monitoring device, 9: display means (display, etc.), 10
... voice output means (speaker etc.), 11 ... demarcation line of step 2, 12 ... step running area, 13 ... embarking detection area, 14 ... mischief detection area, 15 ... manager room, 16 ... report to manager room Means (display, speaker, etc.) 81 input unit 82 image memory 83 image processing unit 84 area setting unit 85 area position determination unit 86
... Image Recognition Unit, 87 ... Number Determination Unit, 88 ... Guide Unit, 89
... Output section.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 千葉 久生 茨城県ひたちなか市市毛1070番地 株式会 社日立製作所水戸工場内 Fターム(参考) 3F321 EA01 EA07 EA11 EB00 FB11 GA31 5C087 AA02 AA03 AA09 AA10 AA19 AA37 AA42 AA44 DD03 DD12 EE05 EE07 EE18 GG02 GG06 GG19 GG31  ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Hisao Chiba 1070 Ma, Hitachinaka-shi, Ibaraki F-term in Mito Plant of Hitachi, Ltd.F-term (reference) AA44 DD03 DD12 EE05 EE07 EE18 GG02 GG06 GG19 GG31

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】乗客コンベア及びその周辺の状況を示す画
像を撮像し、この撮像画像を基にして画像処理を行い、
画像処理された画像データを基にして監視を行うための
領域を自動的に設定する乗客コンベアの監視装置におい
て、 前回設定された監視のための領域の位置と今回設定され
た領域の位置を比較する手段と、その差が所定値以上の
場合に報知する手段を備えたことを特徴とする乗客コン
ベアの監視装置。
1. An image showing a condition of a passenger conveyor and its surroundings is taken, and image processing is performed based on the taken image.
In a passenger conveyor monitoring device that automatically sets an area for monitoring based on image processed image data, compare the position of the previously set area for monitoring with the position of the currently set area And a means for notifying when the difference is greater than or equal to a predetermined value.
【請求項2】乗客コンベア及びその周辺の状況を示す画
像を撮像し、この撮像画像を基にして画像処理を行い、
画像処理された画像データを基にして監視を行うための
領域を自動的に設定する乗客コンベアの監視装置におい
て、 監視のための領域が自動的に設定できなかった場合に報
知する手段を備えたことを特徴とする乗客コンベアの監
視装置。
2. An image showing a condition of a passenger conveyor and its surroundings is taken, and image processing is performed based on the taken image.
In a passenger conveyor monitoring device for automatically setting an area for monitoring based on image-processed image data, a means for notifying when a monitoring area cannot be automatically set is provided. A passenger conveyor monitoring device, characterized in that:
【請求項3】乗客コンベア及びその周辺の状況を示す画
像を撮像し、この撮像画像により乗客コンベアの監視を
行う乗客コンベアの監視装置において、 撮像画像を基にして監視を行うための領域を自動的に設
定する領域設定手段と、前記領域設定手段で設定された
領域内の画像を基にして乗客コンベアを不正規な状態で
利用している乗客を検出する画像認識手段と、この画像
認識手段によって検出された不正規な状態で利用してい
る乗客の数が所定値を越えたか否かを判定する手段と、
所定値を越えた場合に撮像画像を基にして監視を行うた
めの領域を再度自動的に設定する手段と、前回設定され
た領域の位置と今回設定された領域の位置を比較する手
段と、その差が所定値以上の場合に報知する手段を備え
たことを特徴とする乗客コンベアの監視装置。
3. A passenger conveyor monitoring device that captures an image showing a situation of a passenger conveyor and its surroundings, and monitors the passenger conveyor based on the captured image, automatically arranging an area for monitoring based on the captured image. Area setting means for setting the position, image recognition means for detecting a passenger using the passenger conveyor in an irregular state based on an image in the area set by the area setting means, and the image recognition means Means for determining whether or not the number of passengers using in an irregular state detected by the user exceeds a predetermined value;
Means for automatically setting an area for monitoring again based on the captured image when a predetermined value is exceeded, means for comparing the position of the previously set area with the position of the currently set area, A monitoring device for a passenger conveyor, comprising means for notifying when the difference is equal to or greater than a predetermined value.
JP11079138A 1999-03-24 1999-03-24 Monitor for passenger conveyor Pending JP2000272863A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11079138A JP2000272863A (en) 1999-03-24 1999-03-24 Monitor for passenger conveyor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11079138A JP2000272863A (en) 1999-03-24 1999-03-24 Monitor for passenger conveyor

Publications (1)

Publication Number Publication Date
JP2000272863A true JP2000272863A (en) 2000-10-03

Family

ID=13681609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11079138A Pending JP2000272863A (en) 1999-03-24 1999-03-24 Monitor for passenger conveyor

Country Status (1)

Country Link
JP (1) JP2000272863A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005062924A (en) * 2003-08-08 2005-03-10 Omron Corp Three-dimensional object recognition device and setting method therefor
JP2010062596A (en) * 2008-09-01 2010-03-18 Hitachi Ltd Image monitoring system
JP2010064821A (en) * 2008-09-09 2010-03-25 Toshiba Elevator Co Ltd Escalator monitoring system
WO2016129320A1 (en) * 2015-02-10 2016-08-18 コニカミノルタ株式会社 Image processing system, image processing device, image processing method, and image processing program
JP2020022177A (en) * 2019-09-18 2020-02-06 日本電気株式会社 Video monitoring system and video monitoring method
JP2020152547A (en) * 2019-03-20 2020-09-24 東芝エレベータ株式会社 Elevator system
US11019268B2 (en) 2015-03-27 2021-05-25 Nec Corporation Video surveillance system and video surveillance method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005062924A (en) * 2003-08-08 2005-03-10 Omron Corp Three-dimensional object recognition device and setting method therefor
JP2010062596A (en) * 2008-09-01 2010-03-18 Hitachi Ltd Image monitoring system
JP4663767B2 (en) * 2008-09-01 2011-04-06 株式会社日立製作所 Image surveillance system
JP2010064821A (en) * 2008-09-09 2010-03-25 Toshiba Elevator Co Ltd Escalator monitoring system
CN101670973B (en) * 2008-09-09 2013-01-23 东芝电梯株式会社 Escalator monitoring system
JP6098770B2 (en) * 2015-02-10 2017-03-22 コニカミノルタ株式会社 Image processing system, image processing apparatus, image processing method, and image processing program
WO2016129320A1 (en) * 2015-02-10 2016-08-18 コニカミノルタ株式会社 Image processing system, image processing device, image processing method, and image processing program
JPWO2016129320A1 (en) * 2015-02-10 2017-04-27 コニカミノルタ株式会社 Image processing system, image processing apparatus, image processing method, and image processing program
JP2017107594A (en) * 2015-02-10 2017-06-15 コニカミノルタ株式会社 Image processing system, image processing device, image processing method, and image processing program
US11019268B2 (en) 2015-03-27 2021-05-25 Nec Corporation Video surveillance system and video surveillance method
US11228715B2 (en) 2015-03-27 2022-01-18 Nec Corporation Video surveillance system and video surveillance method
JP2020152547A (en) * 2019-03-20 2020-09-24 東芝エレベータ株式会社 Elevator system
CN111717738A (en) * 2019-03-20 2020-09-29 东芝电梯株式会社 Elevator system
JP2020022177A (en) * 2019-09-18 2020-02-06 日本電気株式会社 Video monitoring system and video monitoring method

Similar Documents

Publication Publication Date Title
CN109257569B (en) Security video monitoring and analyzing method
JP4753320B2 (en) Escalator monitoring system
JP6134641B2 (en) Elevator with image recognition function
US20190185295A1 (en) User detection system and image processing device
JP4087045B2 (en) Train presence / absence determination method and apparatus and monitoring system
CN109492548B (en) Method for obtaining region mask picture based on video analysis
JP2011195288A (en) Man conveyer image processor
JP2000272863A (en) Monitor for passenger conveyor
JP4883415B2 (en) Monitoring device and program
JP2003246268A (en) Method and device for detecting person who has fallen from platform
JP3812384B2 (en) Leading vehicle recognition device
CN114708552A (en) Three-dimensional area intrusion detection method and system based on human skeleton
JPH08180276A (en) Method and device for obstacle detection
JP2000255964A (en) Monitoring apparatus for escalator
JPH11322247A (en) Monitor for man conveyor
JP2004252550A (en) Driving support device
JP2000053361A (en) Passenger monitoring device for man-conveyer
JPH0926472A (en) Detecting device for fallen person from station platform
JP2000034087A (en) Passenger monitoring method and device in man conveyor
JP2003224844A (en) Home supervisory system
KR101159941B1 (en) Elevator monitoring system and operating method thereof
KR100897914B1 (en) Stereo vision based monitoring system in railway station and method thereof
JP2011084373A (en) Safety device of passenger conveyor
JP2000007264A (en) Man conveyor device
JPH1160132A (en) Safety device for man-conveyer