JP2000053361A - Passenger monitoring device for man-conveyer - Google Patents

Passenger monitoring device for man-conveyer

Info

Publication number
JP2000053361A
JP2000053361A JP10227840A JP22784098A JP2000053361A JP 2000053361 A JP2000053361 A JP 2000053361A JP 10227840 A JP10227840 A JP 10227840A JP 22784098 A JP22784098 A JP 22784098A JP 2000053361 A JP2000053361 A JP 2000053361A
Authority
JP
Japan
Prior art keywords
image
area
stay
passenger
man
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10227840A
Other languages
Japanese (ja)
Inventor
政雄 ▲高▼藤
Masao Takato
Yoshiki Kobayashi
小林  芳樹
Tadaaki Kitamura
忠明 北村
Shigehisa Sakimura
茂寿 崎村
Toshimitsu Hida
敏光 飛田
Kenichi Yamashita
健一 山下
Hisao Chiba
久生 千葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP10227840A priority Critical patent/JP2000053361A/en
Publication of JP2000053361A publication Critical patent/JP2000053361A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Escalators And Moving Walkways (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize operation of a man-conveyer without passenger residence by setting a residence detecting region for detecting passenger residence for an image inputted by an image input means, and by calling attention with a guide means when an object exists in the residence detecting region more than a designated time. SOLUTION: During operation of a man-conveyer, an image processing device 3a is started, takes in an image at a doorway with a camera 1a, sets a residence detecting region based on this image, and records the information. It photographs a background image to record it, and performs differential process between the present image and the recorded background image, and converts the differential process result to a binary image with an image conversion circuit 104. Using the binary image after noise removal, a histogram process circuit 105 creates x-axis and y-axis projection distributions. Then, it judges extent of traffic on the man-conveyer from area of a step region, calculates the in-region residence time, and when residence's occurrence is judged, performs attention guidance with a guiding device 22a.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はマンコンベアの乗客
監視装置に係り、特に乗客の行動状態を検出し案内,表
示,制御を行う監視装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a passenger monitoring device for a conveyor, and more particularly to a monitoring device for detecting, guiding, displaying, and controlling the behavior of passengers.

【0002】[0002]

【従来の技術】従来、この種の技術としては、特開平5
−319762 号公報に開示されているように、マンコンベ
ア上の乗客とマンコンベア乗降口付近の乗客を撮像し、
乗客を含む画像を時系列的に並べて、その乱れを検出す
ることにより転倒などの現象を検知するものが知られて
いる。また、特開平9−301664 号公報に記載のように、
画像処理により、乗客の多少を判断すること、乗降口で
の乗客の停止を検出するものが知られている。
2. Description of the Related Art Conventionally, this kind of technology is disclosed in
As disclosed in -319762, passengers on the conveyor and passengers near the entrance of the conveyor are imaged,
2. Description of the Related Art There is known an image in which images including passengers are arranged in chronological order, and a phenomenon such as a fall is detected by detecting the disturbance. Further, as described in JP-A-9-301664,
It is known to determine the number of passengers by image processing and to detect the stop of the passengers at the entrance / exit.

【0003】[0003]

【発明が解決しようとする課題】上記従来技術はマンコ
ンベアの乗客の流れを画像データを基に監視し、乗客の
流れの乱れから転倒事故の発生を検出し、警報を発する
かマンコンベアの速度制御を行って、事故の拡大を防止
しようとするものであるが、乗客のハンドレールからの
乗り出しについては考慮していない。上記従来技術の後
者は画像処理により、乗客の多少を判断し、乗降口での
乗客の停止等を検知する最適な乗客案内行うというもの
であるが、具体的な実現手段については開示されていな
い。さらに、後者の従来技術は乗降口付近での乗客のう
ろつきについては考慮していない。本発明は上述のよう
な点に鑑みてなされたもので、その目的は、カメラから
の映像を処理することにより、乗降口付近でのうろつ
き,立ち話,いたずら等の滞留検出を高精度にできる監
視装置を提供することである。
The above prior art monitors the flow of passengers in a conveyor on the basis of image data, detects the occurrence of a fall accident from disturbances in the flow of passengers, and issues an alarm or the speed of the conveyor. It attempts to prevent the accident from spreading by controlling it, but does not consider the passengers getting out of the handrail. The latter is based on image processing, which determines the number of passengers and performs optimal passenger guidance for detecting a stop of the passenger at the entrance / exit, but does not disclose specific means for realizing the same. . Furthermore, the latter prior art does not consider the wandering of passengers near the entrance. SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and has as its object to process a video from a camera, thereby enabling high-accuracy detection of stagnation such as prowl, standing talk, and mischief near an entrance / exit. It is to provide a device.

【0004】[0004]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明によるマンコンベアの乗客監視装置は、画
像入力手段により入力された入力画像に人物の滞留を検
出するための滞留検出領域を設定する領域設定手段と、
この領域設定手段により検出された人物の滞留の経過時
間を計測する時間計測手段と、滞留検出領域内の物体を
抽出する物体抽出手段と、物体抽出手段により抽出され
た物体があらかじめ指定された時間以上該滞留検出領域
に存在することを検出する滞留検出手段と、検出結果に
基づいて注意を喚起する案内手段を有する構成とするこ
とで達成される。
In order to achieve the above object, a passenger monitoring apparatus for a passenger conveyor according to the present invention provides a stay detection area for detecting a stay of a person in an input image input by an image input means. Area setting means for setting
A time measuring means for measuring the elapsed time of the stay of the person detected by the area setting means, an object extracting means for extracting an object in the stay detection area, and an object extracting means for extracting the object extracted by the object extracting means for a predetermined time. The above is achieved by the configuration including the stay detection means for detecting presence in the stay detection area and the guide means for calling attention based on the detection result.

【0005】[0005]

【発明の実施の形態】以下、本発明の実施の形態を以下
図を用いて説明する。図1は本発明の全体構成図であ
る。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is an overall configuration diagram of the present invention.

【0006】カメラ1−a,1−bはマンコンベア2−
a,2−bの乗り口,降り口を撮影している。昇りマン
コンベアであるとすると、カメラ1−aはマンコンベア
2−a本体と2−aの乗り口と2−bの降り口を撮影
し、カメラ1−bは2−bの本体と2−bの乗り口を撮
影し、カメラ1−a,1−bで撮影した映像は、画像処
理装置3−a,3−bにそれぞれ入力される。画像処理
装置3−a,3−bは取り込まれた画像を処理する画像
処理部100,装置全体の制御や画像処理部100の結果
を処理するCPU110、対話的に処理領域等を設定するため
のマウス112やマンコンベア制御装置21との情報の
受け渡しを行うインタフェース部111からなる。以
下、画像処理装置3−aの動作内容を中心に説明する
が、3−bも同様に動作する。カメラ1−aで撮影した
映像は画像処理装置3−aに入力される。画像処理装置
3−aは撮影された画像信号を取り込み、A/D変換器
101によって、例えば256階調の濃度データに変換
して画像メモリ102に記憶する。なお、カラーカメラ
の場合は3組のA/D変換器により、R,G,Bの各色
成分毎に画像メモリ102に記憶する。さらに、該画像
処理部100は、CPU110の指令に基づいて、画像メモリ
102のデータを用いて、空間積和演算,画像間演算,
2値化,形状変換,ヒストグラム処理,正規化相関演
算,ラベリング(番号付け)等をそれぞれ、空間積和演
算回路115,画像間演算回路103,画素変換回路1
04,形状変換回路116,ヒストグラム処理回路10
5,正規化相関演算回路117,ラベリング回路118
等で処理し、必要に応じて処理結果、入力画像等をD/
A変換器107によって映像信号に変換してモニタ10
8に表示する。なお、ヒストグラムメモリ106は、画
像の投影分布,濃度頻度分布等を記憶するためのメモリ
である。CPU110はメモリ109を用いて、画像処理部10
0の処理結果に基づいて乗客の乗り出し事象の有無を判
定するとともに、事象の発生したマンコンベア制御装置
21−aまたは21−bに事象発生の情報をインタフェ
ース部111を介して伝送する。マンコンベア制御装置
21は、送られてきた事象の内容によりマンコンベアの
停止や案内装置22による案内,表示等を行う。
The cameras 1-a and 1-b are connected to a man conveyor 2-
The entrance and exit of a and 2-b are photographed. Assuming that it is a rising conveyor, the camera 1-a photographs the main body of the conveyor 2-a, the entrance of 2-a and the exit of 2-b, and the camera 1-b captures the main body of 2-b and 2-1-2. The images taken by the cameras 1-a and 1-b by photographing the entrance of b are input to the image processing devices 3-a and 3-b, respectively. The image processing devices 3-a and 3-b include an image processing unit 100 that processes the captured image, a CPU 110 that controls the entire apparatus and processes the result of the image processing unit 100, and interactively sets a processing area and the like. It comprises an interface unit 111 for exchanging information with the mouse 112 and the conveyor control device 21. Hereinafter, the operation of the image processing apparatus 3-a will be mainly described, but the operation of the image processing apparatus 3-b will be the same. The video taken by the camera 1-a is input to the image processing device 3-a. The image processing device 3-a takes in the captured image signal, converts it into density data of, for example, 256 gradations by the A / D converter 101, and stores it in the image memory 102. In the case of a color camera, the image data is stored in the image memory 102 for each of R, G, and B color components by three sets of A / D converters. Further, the image processing unit 100 uses the data of the image memory 102 to perform a spatial product-sum operation, an inter-image operation,
Binarization, shape conversion, histogram processing, normalized correlation operation, labeling (numbering), etc., are respectively performed by the spatial product-sum operation circuit 115, the inter-image operation circuit 103, and the pixel conversion circuit 1.
04, shape conversion circuit 116, histogram processing circuit 10
5, normalized correlation operation circuit 117, labeling circuit 118
And the processing result, the input image, etc.
The video signal is converted into a video signal by the A
8 is displayed. The histogram memory 106 is a memory for storing a projection distribution, a density frequency distribution, and the like of an image. The CPU 110 uses the memory 109 to store the image
Based on the processing result of 0, the presence / absence of a passenger embarking event is determined, and information of the event occurrence is transmitted via the interface unit 111 to the conveyor control device 21-a or 21-b where the event has occurred. The man-conveyor control device 21 stops the man-conveyor and performs guidance and display by the guidance device 22 according to the content of the sent event.

【0007】図2は本発明の滞留検出の説明図であり、
カメラの視野の中心軸をエスカレータの両側のハンドレ
ール間の中心付近で乗降口の上部に設定したカメラから
エスカレータ本体及び乗降口付近を見た図を示してい
る。エスカレータの左側ハンドレール23−L,右側ハ
ンドレール23−R,マンコンベアの乗り場,降り場を
構成する床板27,踏板28がある。乗客20が床板上
を移動軌跡29のように影25とともに移動している。
影25の発生の有無は周囲の照明条件に依存する。
FIG. 2 is an explanatory diagram of stay detection according to the present invention.
The figure which looked at the escalator main body and the vicinity of the entrance / exit from the camera which set the center axis of the visual field of the camera near the center between the handrails on both sides of the escalator and above the entrance / exit is shown. There are a left handrail 23-L and a right handrail 23-R of the escalator, a floor board 27 and a tread board 28 which constitute a platform and an exit of a man conveyor. The passenger 20 is moving on the floorboard along with the shadow 25 as a movement trajectory 29.
The presence or absence of the shadow 25 depends on the surrounding lighting conditions.

【0008】乗客の滞留を検出するために、本監視装置
の設置者あるいは監視員等はあらかじめマウス112等
を用いて乗降口の床板27付近に滞留検出領域24を、
ステップ(踏板)28付近にステップ領域30を設定し
ておく。なお、滞留検出領域24およびステップ領域3
0は取り込んだ画像を処理して、ステップ(踏板)28の
領域情報から自動的に設定することも可能である。
In order to detect the stay of passengers, the installer or the observer of the present monitoring apparatus uses a mouse 112 or the like to set a stay detection area 24 near the floor plate 27 at the entrance / exit.
A step area 30 is set near the step (stepboard) 28. Note that the stay detection area 24 and the step area 3
0 can process the captured image and automatically set it from the area information of step (stepboard) 28.

【0009】図3は本発明の一実施例の動作を示す処理
フローである。まず、画像処理装置3が起動されると画
像メモリ102,ヒストグラムメモリ106のクリア等
の初期化が行われ(200)、カメラ1から画像が取り
込まれる(205)。この画像を基にマウス112を用
いて、例えばオペレータが対話的に滞留検出領域24を
設定するか、本装置が位置情報等を基に自動的に滞留検
出領域24を設定し、それらの情報をメモリ109に記
憶する(210)。次に、背景画像を取り込み、画像メ
モリ102に記憶し(215)、監視を開始する。な
お、入力画像を繰り返し処理することにより、人物等の
いない背景画像を自動的に生成することも可能である。
FIG. 3 is a processing flow chart showing the operation of one embodiment of the present invention. First, when the image processing apparatus 3 is started, initialization such as clearing of the image memory 102 and the histogram memory 106 is performed (200), and an image is captured from the camera 1 (205). Using the mouse 112 on the basis of this image, for example, the operator interactively sets the stagnation detection area 24, or the apparatus automatically sets the stagnation detection area 24 based on the position information and the like, and stores the information. It is stored in the memory 109 (210). Next, the background image is captured, stored in the image memory 102 (215), and monitoring is started. Note that a background image without a person or the like can be automatically generated by repeatedly processing an input image.

【0010】監視開始以降は、まず、現在の画像を取り
込み(220)、あらかじめ画像メモリ102に記憶し
てある背景画像との間で差分処理を画像間演算回路10
3で実行し、その差分結果を画素変換回路104で
「1」及び「0」の値からなる2値画像に変換し、形状
変換回路116を用いて収縮・膨張処理によりノイズを
除去する(225)。さらに、マンコンベアの交通量を
求めるためにステップ領域30の時刻t−1(前時刻)
と時刻t(現時刻)の2枚の画像間で差分処理(フレー
ム間差分処理)を画像間演算回路103で実行し、その
差分結果を画素変換回路104で「1」及び「0」の値
からなる2値画像に変換し、形状変換回路116を用い
て収縮・膨張処理によりノイズを除去する(230)。
After the start of monitoring, first, the current image is fetched (220), and a difference process is performed between the image and the background image stored in the image memory 102 in advance.
3, the result of the difference is converted into a binary image composed of "1" and "0" values by the pixel conversion circuit 104, and noise is removed by contraction / expansion processing using the shape conversion circuit 116 (225). ). Further, at time t-1 (previous time) of the step area 30 to obtain the traffic volume of the conveyor.
Processing (inter-frame difference processing) between the two images at time t and the current time (current time) is executed by the inter-image calculation circuit 103, and the difference result is expressed by the pixel conversion circuit 104 as “1” and “0”. The image is converted into a binary image composed of the following, and noise is removed by contraction / expansion processing using the shape conversion circuit 116 (230).

【0011】以下、本発明の中心である滞留検出情報生
成処理240及び滞留判定処理250について図4〜図1
0を用いて説明する。
Hereinafter, a stay detection information generation process 240 and a stay determination process 250 which are the core of the present invention will be described with reference to FIGS.
Explanation will be made using 0.

【0012】うろつき,立ち話,いたずら等の滞留者を
検出するためには、個々の物体を追跡して、滞留検出領
域内に指定時間以上存在するかどうかを判定すればよい
が、滞留検出領域が比較的狭く、カメラに近いため人物
の姿勢等により物体の大きさが大きく変化したり、人の
流れが混んでくるとカメラの視野上、人物同士の重なり
が生じる。そのため個々の物体の正確な追跡は困難であ
る。また、乗客のうろつきは、交通量が少ないときに発
生するが、交通量が多いとうろつくことはできないので
起こらないと考えられる。交通量が多い場合は、ハンド
レールの外側等の人の流れにあまり影響を与えない場所
でのいたずらや立ち話が発生する可能性がある。このい
たずらや立ち話では人はほとんど位置を変えないと考え
られる。交通量が少ないときに滞留を検出するのは比較
的簡単であるが、交通量が多いときの滞留を検出するの
は単純には行かない。そこで、交通量が多いときの滞留
を検出するために、滞留検出領域を分割して、交通量に
より滞留検出処理の対象領域を変更することが考えられ
る。
In order to detect a stagnant person such as prowl, standing talk, mischief, etc., it is sufficient to track each object and determine whether or not the object is present in the stagnant detection area for a specified time or more. Since the object is relatively narrow and close to the camera, the size of the object greatly changes depending on the posture of the person or the like, and when the flow of the person becomes crowded, the persons overlap in the field of view of the camera. Therefore, it is difficult to accurately track individual objects. In addition, the wandering of the passenger occurs when the traffic volume is small, but it is considered that it does not occur when the traffic volume is large because the passenger cannot prowl. When the traffic volume is large, there is a possibility that pranks and standing talks may occur in places such as the outside of the handrail that do not significantly affect the flow of people. In this naughty or standing story, it is assumed that people rarely change position. It is relatively easy to detect staying when traffic is light, but it is not easy to detect staying when traffic is heavy. Therefore, in order to detect the stay when the traffic volume is large, it is conceivable to divide the stay detection area and change the target area of the stay detection processing according to the traffic volume.

【0013】図4は滞留検出領域24を滞留検出領域W
(全体)24−W,ハンドレール23−L付近の滞留検
出領域L(左側)24−L,ハンドレール23−R付近
の滞留検出領域R(右側)24−Rに分割した場合を示
す。
FIG. 4 shows that the stay detection area 24 is replaced with the stay detection area W.
(Whole) 24-W, a stay detection area L near the handrail 23-L (left) 24-L, and a stay detection area R near the handrail 23-R (right) 24-R are shown.

【0014】滞留検出領域24を複数の領域に分割し
て、交通量により滞留検出処理の対象領域を変えること
により、混雑時においても平常時においても精度よく滞
留検出を行う場合の実施例を図5を用いて説明する。
FIG. 1 shows an embodiment in which the stay detection area 24 is divided into a plurality of areas, and the target area of the stay detection processing is changed according to the traffic volume, so that the stay detection can be performed accurately even in a congested state or in a normal state. 5 will be described.

【0015】まず、ステップ(225)で求めたノイズ
除去後の2値画像を用いてヒストグラム処理回路105
で図6に示すx軸投影分布および、y軸投影分布を作成
する(242)。x軸投影分布および、y軸投影分布は
ヒストグラムメモリ106に格納される。時空間重なり
情報作成(244)は以下のようにして実現される。ヒ
ストグラムメモリ106に格納されているx軸投影分布
および、y軸投影分布の頻度がしきい値th−h以上の部
分を抽出し、時空間重なり情報テーブル51に記憶し、
該テーブル51を用いて時空間重なり情報を作成する。
First, the histogram processing circuit 105 uses the binary image after noise removal obtained in step (225).
Then, the x-axis projection distribution and the y-axis projection distribution shown in FIG. 6 are created (242). The x-axis projection distribution and the y-axis projection distribution are stored in the histogram memory 106. The spatio-temporal overlap information creation (244) is realized as follows. A portion where the frequency of the x-axis projection distribution and the y-axis projection distribution stored in the histogram memory 106 is equal to or larger than the threshold th-h is extracted and stored in the spatiotemporal overlap information table 51;
Spatio-temporal overlap information is created using the table 51.

【0016】時空間重なり情報作成(244)を図7を
用いて具体的に説明する。図7(a),(c)は時刻t−
1および時刻tにおけるx軸投影分布の頻度がしきい値
th−h以上の部分を模式的に表したもので、横軸はx軸
座標を表す。図7(a)に対応した時空間重なり情報テ
ーブル51−a,51−bを図7(b)に示す。図7
(a)に示すように現時刻tにおいてラベル1の物体が
座標x3から座標x4の位置に、ラベル2の物体が座標
x5から座標x6の位置に存在しているとすると、図7
(b)に示すように時空間重なり情報テーブル51−b
のラベル1の存在開始位置はx3、存在終了位置はx
4、出現時刻はt、ラベル2の存在開始位置はx5、存
在終了位置はx6,出現時刻はtとなる。一方、前時刻
t−1においてラベル1の物体が座標x1から座標x2
の位置に存在していたとすると、図7(b)に示すよう
に時空間重なり情報テーブル51−aのラベル1の存在
開始位置はx1、存在終了位置はx2、出現時刻はt−
1となっている。上記2組のテーブル51−a,51−
bを用いて時空間重なり情報を更新する。現時刻tの時
空間重なり情報テーブル51−bの物体の開始位置およ
び終了位置を基準にラベル毎に前時刻t−1の時空間重
なり情報テーブル51−aの物体の開始位置および終了
位置を参照して重なりをチェックする。ラベル1のよう
に前時刻の物体と位置的に重なる場合には、前時刻の該
テーブル51−aの該物体の出現時刻を参照して、現時
刻の該テーブル51−bの出現時刻と比較し、古い時刻
t−1の方を出現時刻欄に書き込む。ラベル2のように
前時刻の物体と位置的に重ならない場合には現時刻tが
そのまま出現時刻になる。以上述べたようにして物体の
時間的,空間的重なり情報が作成される。なお、時刻t
−1および時刻tにおける物体の対応関係は図7(c)
に示すように出現,連続,合流,分離、および消失のい
ずれかに分類できる。次に、ヒストグラム処理回路10
5を用いて各滞留検出領域毎に物体の面積を求める(2
46)。
The spatiotemporal overlap information creation (244) will be specifically described with reference to FIG. FIGS. 7A and 7C show time t−
The frequency of the x-axis projection distribution at 1 and time t is a threshold
The portion over th-h is schematically shown, and the horizontal axis represents x-axis coordinates. FIG. 7B shows the spatiotemporal overlap information tables 51-a and 51-b corresponding to FIG. 7A. FIG.
As shown in FIG. 7A, assuming that the object of label 1 exists at the position of coordinates x3 to x4 and the object of label 2 exists at the position of coordinates x5 to x6 at the current time t, as shown in FIG.
As shown in (b), the spatiotemporal overlap information table 51-b
The start position of label 1 is x3, and the end position is x
4. The appearance time is t, the existence start position of the label 2 is x5, the existence end position is x6, and the appearance time is t. On the other hand, at the previous time t-1, the object of the label 1 is moved from the coordinate x1 to the coordinate x2.
As shown in FIG. 7B, the existence start position of the label 1 in the spatiotemporal overlap information table 51-a is x1, the existence end position is x2, and the appearance time is t-, as shown in FIG.
It is 1. The two sets of tables 51-a, 51-
The spatio-temporal overlap information is updated using b. With reference to the start position and end position of the object in the spatiotemporal overlap information table 51-b at the current time t, refer to the start position and end position of the object in the spatiotemporal overlap information table 51-a at the previous time t-1 for each label as a reference. And check for overlap. When the position overlaps with the object at the previous time as in label 1, the appearance time of the object in the table 51-a at the previous time is referred to and compared with the appearance time of the table 51-b at the current time. Then, the old time t-1 is written in the appearance time column. When the position does not overlap with the object at the previous time as in the label 2, the current time t becomes the appearance time as it is. As described above, temporal and spatial overlap information of the object is created. Note that time t
FIG. 7C shows the correspondence between objects at −1 and at time t.
Can be classified into any of appearance, continuous, confluence, separation, and disappearance. Next, the histogram processing circuit 10
5 is used to determine the area of the object for each stay detection area (2
46).

【0017】次に滞留判定処理(250)について説明
する。まず、ステップ230で求めたステップ領域30
の面積がしきい値th−as以上かどうかでマンコンベア
の交通量の多少を判断する(251)。交通量がそれほ
ど多くない通常の場合には滞留検出領域全体(W)を対
象にステップ(244)で生成した時空間重なり情報テ
ーブル51の出現時刻を参照して、現時刻を用いて領域
内滞留時間を算出し、該時間が指定時間th−tW以上で
あるかどうか判定する(252)。指定時間th−tW以上
であれば、さらにステップ(246)で求めた面積情報を
用いて、しきい値th−apW以上の面積が指定時間th−t
W以上であるかどうか判定する(253)。しきい値th−
apW以上の面積が指定時間th−tW以上存在すれば、滞
留が発生したと判断し、乗客に対してマイク等で注意案
内を行う(260)とともに、ステップ(220)に戻
り、以上述べた処理を繰り返す。一方指定時間未満であ
れば滞留は発生していないと判断し、ステップ(22
0)に戻り、以上述べた処理を繰り返す。
Next, the stay determination process (250) will be described. First, the step area 30 obtained in step 230
Is smaller than or equal to the threshold th-as, the traffic of the conveyor is determined (251). In a normal case where the traffic volume is not so large, referring to the appearance time of the spatiotemporal overlap information table 51 generated in step (244) for the entire stay detection area (W), and using the current time to stay in the area The time is calculated, and it is determined whether the time is equal to or longer than the specified time th-tW (252). If the time is equal to or longer than the specified time th-tW, the area equal to or larger than the threshold value th-apW is further determined using the area information obtained in step (246).
It is determined whether it is not less than W (253). Threshold th-
If the area equal to or larger than apW is equal to or larger than the designated time th-tW, it is determined that a stagnation has occurred, the passenger is cautioned by a microphone or the like (260), and the process returns to step (220) to perform the above-described processing. repeat. On the other hand, if it is less than the designated time, it is determined that no stagnation has occurred, and step (22)
Returning to 0), the processing described above is repeated.

【0018】一方、出勤時の駅のエスカレータのように
連続的に乗客が来るような交通量が多い場合には、滞留
検出領域全体に対して上で述べた時空間重なり情報およ
び面積情報を用いて滞留発生を判定すると誤った判断を
することになる。また、交通量が多い場合には床板27
の中央付近で滞留が発生する可能性は極めて低く、発生
するとしても両側のハンドレール付近になると考えられ
る。そこで、交通量が多い場合には、判定すべき滞留検
出領域を両側のハンドレール付近の滞留検出領域L、お
よび滞留検出領域Rに限定して処理を行う。すなわち、
滞留検出領域L、および滞留検出領域R対象にステップ
(244)で生成した時空間重なり情報テーブル51の
出現時刻を参照して、現時刻を用いて領域内滞留時間を
算出し、該時間が指定時間th−tL以上であるかどうか
判定する(254)。指定時間th−tL以上であれば、さ
らにステップ(246)で求めた面積情報を用いて、しき
い値th−apL以上の面積が指定時間th−tL以上である
かどうか判定する(255)。しきい値th−apL以上の面
積が指定時間th−tL以上存在すれば、滞留が発生した
と判断し、乗客に対してマイク等で注意案内を行う(2
60)とともに、ステップ(220)に戻り、以上述べ
た処理を繰り返す。一方指定時間未満であれば滞留は発
生していないと判断し、ステップ(220)に戻り、以
上述べた処理を繰り返す。
On the other hand, when there is a large traffic volume, such as an escalator at a station at the time of commuting, where passengers come continuously, the above-mentioned spatiotemporal overlap information and area information are used for the entire stay detection area. If the occurrence of stagnation is determined, an erroneous determination will be made. Also, if the traffic volume is large,
It is very unlikely that stagnation will occur near the center of the vehicle, and even if it occurs, it will be near the handrails on both sides. Therefore, when the traffic volume is large, the processing is performed by limiting the stay detection area to be determined to the stay detection areas L and R near the handrails on both sides. That is,
With reference to the appearance time in the spatiotemporal overlap information table 51 generated in step (244) for the stay detection area L and the stay detection area R, the stay time in the area is calculated using the current time, and the time is designated. It is determined whether or not the time is equal to or longer than the time th-tL (254). If it is equal to or longer than the specified time th-tL, it is further determined whether or not the area equal to or larger than the threshold value th-apL is equal to or longer than the specified time th-tL using the area information obtained in step (246) (255). If the area equal to or larger than the threshold value th-apL is equal to or larger than the designated time th-tL, it is determined that stagnation has occurred, and caution is given to the passenger with a microphone or the like (2).
Along with 60), the process returns to step (220) and repeats the above-described processing. On the other hand, if it is less than the designated time, it is determined that no stagnation has occurred, the process returns to step (220), and the above-described processing is repeated.

【0019】次に、別の実施例として、滞留検出領域2
4を複数の領域に分割して、交通量により滞留検出処理
の対象領域を変えるとともに、対象領域毎に処理内容を
変えることにより、混雑時においても平常時においても
精度よく滞留検出を行う場合の実施例を図8に示す。図
8は図3における滞留検出情報生成処理240及び滞留
判定処理250に相当する滞留検出情報生成処理340
及び滞留判定処理350のみを示しており、図3の他の部
分は本実施例においても同じであるので省略する。
Next, as another embodiment, the stay detection area 2
4 is divided into a plurality of areas, the target area of the stagnation detection processing is changed according to the traffic volume, and the processing content is changed for each target area, so that the stagnation detection can be accurately performed even in a congested state and in a normal state. An example is shown in FIG. FIG. 8 shows a stay detection information generation process 340 corresponding to the stay detection information generation process 240 and the stay determination process 250 in FIG.
Only the stay determination processing 350 is shown, and the other parts in FIG.

【0020】滞留検出情報生成処理340において、滞
留検出領域のx軸投影分布,y軸投影分布作成(34
2),時空間重なり情報作成(344)および滞留検出
領域の面積抽出(346)はすでに述べた図5の滞留検
出領域のx軸投影分布,y軸投影分布作成(242),
時空間重なり情報作成(244)および滞留検出領域の
面積抽出(246)と同じ処理である。
In the stagnation detection information generation process 340, the x-axis projection distribution and the y-axis projection distribution of the stagnation detection area are created (34).
2), creation of spatio-temporal overlap information (344) and extraction of the area of the stagnation detection area (346) are described above. Creation of the x-axis projection distribution and y-axis projection distribution of the stagnation detection area in FIG.
This process is the same as the process of creating spatiotemporal overlap information (244) and extracting the area of the stay detection area (246).

【0021】図5と異なるのは、時間的には必ずしも完
全には連続していないが、ほぼ連続して空間的に重なっ
ている物体の空間重なり情報をステップ(225)で求
めた2値画像を累積することによって求める(348)
ことである。
The difference from FIG. 5 is that the binary overlap information obtained in step (225) is the spatial overlap information of objects that are not completely continuous in time but are almost continuously spatially overlapped. Is obtained by accumulating (348)
That is.

【0022】図9を用いて画像累積について説明する。
ステップ(225)で求めた2値画像60とあらかじめ
画像メモリ102に記憶してある累積画像61とを画像
間演算回路103を用いて加算62し、画像63を得
る。一方、該2値画像60を画素変換回路104を用い
て反転64し、反転画像65を得る。画像間演算回路1
03を用いて該画像63から該反転画像65を減算66
し、画像67を得、さらに該画像67から該反転画像6
5を減算66し、累積画像61を得る。以上の処理によ
り、物体部分は+1され、物体以外の部分は−2され
る。本処理により、物体部分がほぼ同じ位置に連続的に
存在していると次第に累積値が高くなっていくが、移動
物体、あるいはランダムに発生するノイズの部分は累積
値はほとんど高くならず、零に近い値を有することにな
る。物体以外の部分を−nする場合のnの値をいくつに
するかは移動物体の交通量密度によるが、nは1〜3が
妥当である。
The image accumulation will be described with reference to FIG.
An image 63 is obtained by adding 62 the binary image 60 obtained in step (225) and the cumulative image 61 stored in the image memory 102 in advance using the inter-image calculation circuit 103. On the other hand, the binary image 60 is inverted 64 using the pixel conversion circuit 104 to obtain an inverted image 65. Inter-image calculation circuit 1
03 is used to subtract 66 the inverted image from the image 63 66
Then, an image 67 is obtained, and the inverted image 6 is obtained from the image 67.
5 is subtracted 66 to obtain a cumulative image 61. By the above processing, the object portion is incremented by 1, and the portion other than the object is incremented by -2. According to this processing, the cumulative value gradually increases when the object portion is continuously present at substantially the same position. However, the cumulative value of the moving object or the portion of the noise generated at random hardly increases, and the cumulative value becomes zero. . The value of n when -n is applied to a portion other than the object depends on the traffic density of the moving object, but n is preferably 1 to 3.

【0023】次に滞留判定処理(350)について説明
する。まず、ステップ230で求めたステップ領域30
の面積がしきい値th−as以上かどうかでマンコンベアの
交通量の多少を判断する(351)。交通量がそれほど
多くない通常の場合には図5と同様に滞留検出領域全体
(W)を対象にステップ(344)で生成した時空間重
なり情報テーブル51の出現時刻を参照して、現時刻を
用いて領域内滞留時間を算出し、該時間が指定時間th−
tW以上であるかどうか判定する(352)。指定時間
th−tW以上であれば、さらにステップ(346)で求め
た面積情報を用いて、しきい値th−apW以上の面積が指
定時間th−tW以上であるかどうか判定する(353)。
しきい値th−apW以上の面積が指定時間th−tW以上存
在すれば、滞留が発生したと判断し、乗客に対してマイ
ク等で注意案内を行う(260)とともに、ステップ
(220)に戻り、以上述べた処理を繰り返す。一方指
定時間未満であれば滞留は発生していないと判断し、ス
テップ(220)に戻り、以上述べた処理を繰り返す。
Next, the stay determination process (350) will be described. First, the step area 30 obtained in step 230
Is smaller than or equal to the threshold th-as, it is determined whether the traffic volume of the conveyor is small (351). In the normal case where the traffic volume is not so large, the current time is determined by referring to the appearance time of the spatiotemporal overlap information table 51 generated in step (344) for the entire stagnation detection area (W) as in FIG. Is used to calculate the residence time in the area, and the time is calculated as the designated time th−
It is determined whether it is not less than tW (352). Specified time
If it is not less than th-tW, it is further determined whether or not the area not less than the threshold value th-apW is not less than the specified time th-tW by using the area information obtained in step (346) (353).
If the area equal to or greater than the threshold value th-apW is equal to or greater than the specified time th-tW, it is determined that a stagnation has occurred, the passenger is cautioned with a microphone or the like (260), and the process returns to step (220). The above-described processing is repeated. On the other hand, if it is less than the designated time, it is determined that no stagnation has occurred, and the process returns to step (220) and repeats the above-described processing.

【0024】一方、出勤時の駅のエスカレータのように
連続的に乗客が来るような交通量が多い場合には、床板
27の中央付近で滞留が発生する可能性は極めて低く、
発生するとしても両側のハンドレール付近になると考え
られる。また、交通量が多い場合には、うろつくことは
できず、滞留者はほぼ同じ位置に連続的に存在すると考
えられる。そこで、交通量が多い場合には、判定すべき
滞留検出領域を両側のハンドレール付近の滞留検出領域
L、および滞留検出領域Rに限定し、さらに、ほとんど
動かないことを考慮して、累積画像(空間重なり情報)
を用いて滞留か否かを判定する。すなわち、滞留検出領
域L、および滞留検出領域Rを対象にステップ(348)
で求めた累積画像(空間重なり情報)を用いてしきい値
th−aaL以上の面積を持つ物体が指定時間th−taL以上
存在するかを判定する(354)。しきい値th−aaL以上
の面積を持つ物体が指定時間th−taL以上であれば、さ
らにステップ(346)で求めた面積情報を用いて、し
きい値th−apL以上の面積が指定時間th−tL以上であ
るかどうか判定する(355)。しきい値th−apL以上
の面積が指定時間th−tL以上存在すれば、滞留が発生
したと判断し、乗客に対してマイク等で注意案内を行う
(260)とともに、ステップ(220)に戻り、以上
述べた処理を繰り返す。一方指定時間未満であれば滞留
は発生していないと判断し、ステップ(220)に戻
り、以上述べた処理を繰り返す。
On the other hand, when there is a large traffic volume such as an escalator at a station at the time of going to work, the possibility of stagnation near the center of the floorboard 27 is extremely low.
Even if it occurs, it is considered to be near the handrails on both sides. In addition, when the traffic volume is large, it is not possible to wander, and it is considered that the staying person is continuously present at almost the same position. Therefore, when the traffic volume is large, the stagnation detection area to be determined is limited to the stagnation detection area L and the stagnation detection area R near both handrails. (Spatial overlap information)
Is used to determine whether or not it is staying. That is, step (348) is performed for the stay detection area L and the stay detection area R.
Using the accumulated image (spatial overlap information) obtained in
It is determined whether an object having an area not less than th-aaL exists for not less than a specified time th-taL (354). If the object having the area equal to or larger than the threshold value th-aaL is equal to or larger than the specified time th-taL, the area equal to or larger than the threshold value th-apL is further specified using the area information obtained in step (346). It is determined whether or not −tL or more (355). If the area equal to or greater than the threshold value th-apL is equal to or greater than the specified time th-tL, it is determined that a stagnation has occurred, and the passenger is cautioned with a microphone or the like (260), and the process returns to step (220). The above-described processing is repeated. On the other hand, if it is less than the designated time, it is determined that no stagnation has occurred, and the process returns to step (220) and repeats the above-described processing.

【0025】以上は、あらかじめ複数の滞留検出領域2
4を設定しておき、交通量によって、処理対象領域24
を変える、さらには処理対象領域24によって処理内容
を変える実施例について述べた。しかし、マンコンベア
の設置場所により乗客の流れ(交通流)が異なることを
考えると、マンコンベアの設置場所により個別に連続的
な乗客の影響をあまり受けない領域24を設定すること
になる。また、連続的な乗客の影響をあまり受けない領
域24を最適に設定するのは難しいと考えられる。そこ
で、別の実施例として、滞留検出領域24は固定にし、
交通流によって処理内容を変える例を図10に示す。全
体の処理の流れは上述の図3と同じである。図8と異な
るのは図11に示すように1台のマンコンベアの乗降口
付近に1個所設定した滞留検出領域24に対して、交通
量によって処理内容を変えることである。具体的には、
滞留検出情報生成処理440は図8の滞留検出情報生成
処理340と同一で、ステップ(442)〜ステップ
(448)は図8のステップ(342)〜ステップ(3
48)と同じ処理である。
The above description is based on a plurality of stay detection areas 2
4 is set in advance, and the processing target area 24
Have been described, and the processing contents are changed according to the processing target area 24. However, considering that the flow of passengers (traffic flow) differs depending on the installation location of the conveyer, an area 24 that is hardly affected by continuous passengers is individually set depending on the installation location of the conveyer. It is also considered difficult to optimally set the area 24 that is not significantly affected by continuous passengers. Therefore, as another embodiment, the stay detection area 24 is fixed,
FIG. 10 shows an example in which the processing content is changed depending on the traffic flow. The entire processing flow is the same as that in FIG. The difference from FIG. 8 is that, as shown in FIG. 11, the processing content is changed depending on the traffic amount for the stagnation detection area 24 set at one place near the entrance of one man conveyor. In particular,
The staying detection information generation process 440 is the same as the staying detection information generation process 340 in FIG. 8, and steps (442) to (448) are performed in steps (342) to (3) in FIG.
This is the same processing as 48).

【0026】次に滞留判定処理(450)について説明
する。まず、ステップ230で求めたステップ領域30
の面積がしきい値th−as以上かどうかでマンコンベアの
交通量の多少を判断する(451)。交通量がそれほど
多くない通常の場合には図8と同様に滞留検出領域全体
24を対象にステップ(444)で生成した時空間重な
り情報テーブル51の出現時刻を参照して、現時刻を用
いて領域内滞留時間を算出し、該時間が指定時間th−t
W以上であるかどうか判定する(452)。指定時間th
−tW以上であれば、さらにステップ(446)で求め
た面積情報を用いて、しきい値th−apW以上の面積が指
定時間th−tW以上であるかどうか判定する(45
3)。しきい値th−apW以上の面積が指定時間th−tW
以上存在すれば、滞留が発生したと判断し、乗客に対し
てマイク等で注意案内を行う(260)とともに、ステッ
プ(220)に戻り、以上述べた処理を繰り返す。一方
指定時間未満であれば滞留は発生していないと判断し、
ステップ(220)に戻り、以上述べた処理を繰り返
す。
Next, the stay determination process (450) will be described. First, the step area 30 obtained in step 230
Is smaller than or equal to the threshold th-as, the traffic volume of the conveyor is judged (451). In a normal case where the traffic volume is not so large, referring to the appearance time of the spatiotemporal overlap information table 51 generated in step (444) for the entire stagnation detection area 24 as in FIG. Calculate the residence time in the area, and calculate the time
It is determined whether or not it is not less than W (452). Specified time th
If it is not less than -tW, it is further determined whether or not the area not less than the threshold value th-apW is not less than the specified time th-tW using the area information obtained in step (446) (45).
3). The area over the threshold value th-apW is the specified time th-tW
If it exists, it is determined that a stay has occurred, and a cautionary guidance is given to the passenger with a microphone or the like (260), and the process returns to step (220) to repeat the above-described processing. On the other hand, if it is less than the designated time, it is determined that no stagnation has occurred,
Returning to step (220), the processing described above is repeated.

【0027】一方、出勤時の駅のエスカレータのように
連続的に乗客が来るような交通量が多い場合には、滞留
検出領域全体24を対象にステップ(448)で求めた
累積画像(空間重なり情報)を用いてしきい値th−aaL
以上の面積を持つ物体が指定時間th−taL以上存在する
かを判定する(454)。しきい値th−aaL以上の面積
を持つ物体が指定時間th−taL以上であれば、さらにス
テップ(446)で求めた面積情報を用いて、しきい値
th−apL以上の面積が指定時間th−tL以上であるかど
うか判定する(455)。しきい値th−apL以上の面積
が指定時間th−tL以上存在すれば、滞留が発生したと
判断し、乗客に対してマイク等で注意案内を行う(26
0)とともに、ステップ(220)に戻り、以上述べた
処理を繰り返す。一方指定時間未満であれば滞留は発生
していないと判断し、ステップ(220)に戻り、以上
述べた処理を繰り返す。
On the other hand, when there is a large traffic volume such as an escalator at the station at the time of commuting, the passengers come continuously, and the accumulated image (spatial overlap) obtained in step (448) for the entire stay detection area 24 is targeted. Information) using the threshold th-aaL
It is determined whether an object having the above area exists for the specified time th-taL or more (454). If the object having the area equal to or greater than the threshold value th-aaL is equal to or greater than the designated time th-taL, the threshold value is further determined using the area information obtained in step (446).
It is determined whether the area not less than th-apL is not less than the designated time th-tL (455). If the area equal to or larger than the threshold value th-apL is equal to or larger than the designated time th-tL, it is determined that the stagnation has occurred, and the passenger is cautioned with a microphone or the like (26).
With (0), the process returns to step (220), and the above-described processing is repeated. On the other hand, if it is less than the designated time, it is determined that no stagnation has occurred, and the process returns to step (220) and repeats the above-described processing.

【0028】なお、領域全体24で累積画像を求めて滞
留者を検出すると、駅の出退勤時のように交通量が極め
て多い場合には常に乗客が存在する状態が発生し、累積
画像がしきい値を越え、滞留が発生していないにもかか
わらず、滞留発生と誤検知する可能性が高くなる。そこ
で、移動している連続乗客とほぼ静止している滞留者を
識別するために、乗客の服装の明るさや色が個々に異な
ることに着目し、累積画像の入力情報である2値画像を
背景差分結果の絶対値を2値化した画像(物体領域全体
が抽出された画像)ではなく、背景領域に対する明るさ
の違う領域、あるいは色の違う領域毎に累積画像を求め
ることにする。こうすると、ほぼ静止している滞留者の
領域は累積されるが、移動している連続乗客の領域は服
装の違いにより連続的に抽出されないので図9で述べた
−nの効果で、連続乗客の領域はほとんど累積されな
い。具体的に明るさの違いを例に説明する。背景差分結
果を背景領域と背景より明るい(+)領域と背景より暗
い(−)領域の3領域に分類し、背景より明るい(+)
領域と背景より暗い(−)領域をそれぞれ別々に累積
し、別々の累積画像を求める。そして、(+)累積画像
と(−)累積画像をそれぞれ用いてしきい値th−aa以上
の面積を持つ物体が指定時間th−ta以上存在するかを判
定し、どちらかの累積画像が判定条件を満足すれば、滞
留者が存在すると判断し、注意案内(260)をする。
両方の累積画像が判定条件を満足しなければ、滞留者が
存在しないと判断し、ステップ(220)に戻って処理
を繰り返す。色の場合はいくつかの色範囲毎に累積画像
を求め、上記と同様に滞留者を検出する。
When a cumulative image is obtained in the whole area 24 to detect a staying person, a state where passengers are always present occurs when traffic is extremely large, such as when leaving or leaving a station, and the cumulative image is thresholded. If the value exceeds the value and stagnation does not occur, the possibility of erroneously detecting that stagnation has occurred increases. Therefore, in order to distinguish between a moving continuous passenger and an almost stationary occupant, attention is paid to the fact that the brightness and color of the passenger's clothes are different from each other, and a binary image, which is input information of an accumulated image, is used as a background. An accumulated image is obtained not for an image obtained by binarizing the absolute value of the difference result (an image in which the entire object region is extracted) but for an area having a different brightness from a background area or an area having a different color. In this case, the area of the stagnant who is almost stationary is accumulated, but the area of the moving continuous passenger is not continuously extracted due to the difference in clothes, so the effect of -n described in FIG. Are hardly accumulated. Specifically, the difference in brightness will be described as an example. The background subtraction result is classified into three regions, a background region, a region brighter than the background (+), and a region darker than the background (-), and is brighter than the background (+).
The region and the (−) region darker than the background are separately accumulated, and separate accumulated images are obtained. Then, using the (+) cumulative image and the (-) cumulative image, it is determined whether an object having an area greater than or equal to the threshold value th-aa exists for a specified time th-ta or more, and one of the cumulative images is determined. If the conditions are satisfied, it is determined that there is a staying person, and an attention guide (260) is given.
If both accumulated images do not satisfy the determination condition, it is determined that there is no resident, and the process returns to step (220) to repeat the process. In the case of color, a cumulative image is obtained for each of several color ranges, and a staying person is detected in the same manner as described above.

【0029】ここで、交通量の計測方法について別の方
法について述べる。ステップ(230)で求めたステップ領
域30の2値画像をラベリング回路118に入力し、物
体に番号付けすることにより物体数を求め、この物体数
があるしきい値th−n以上のとき交通流が多いと判断す
ることもできる。さらにステップ領域30ではなく、ス
テップ(225)で求めた滞留検出領域24の2値画像を
ラベリング回路118に入力し、物体に番号付けするこ
とにより物体数を求め、この物体数があるしきい値th−
n以上のとき交通流が多いと判断することもできる。ま
た、さらにステップ(225)で求めた滞留検出領域2
4の2値画像をヒストグラム処理回路105に入力し、
物体の面積を求め、該面積がしきい値th−a以上のとき
交通流が多いと判断することもできる。また、さらに上
記、領域の面積および物体数の両者がそれぞれしきい値
以上のとき交通流が多いと判断することもできる。
Here, another method of measuring the traffic volume will be described. The binary image of the step area 30 obtained in step (230) is input to the labeling circuit 118, and the number of objects is obtained by numbering the objects. You can also judge that there are many. Further, the binary image of the stay detection area 24 obtained in step (225) is input to the labeling circuit 118 instead of the step area 30, and the number of objects is obtained by numbering the objects. th-
When n is greater than or equal to n, it can be determined that the traffic flow is large. Further, the stagnation detection area 2 obtained in step (225)
4 is input to the histogram processing circuit 105,
The area of the object is obtained, and when the area is equal to or larger than the threshold th-a, it can be determined that the traffic flow is large. Further, when both the area of the area and the number of objects are each equal to or larger than the threshold value, it can be determined that the traffic flow is large.

【0030】さらに、滞留検出領域24の物体領域の抽
出方法としてステップ(225)で述べた背景差分によ
る方法の代わりに、滞留検出領域24の物体領域のフレ
ーム間差分を用いる方法もある。ここではさらに、図1
2を用いて正規化相関演算を用いる方法について述べ
る。正規化相関演算そのものについては文献(田村秀行
監修:コンピュータ画像処理入門、pp.149−15
0、総研出版(株)H6/4)に述べられている。ま
ず、滞留検出領域24を複数のメッシュ領域40に分割
し、背景画像42および入力画像43の各メッシュ領域
40毎に正規化相関回路117を用いてメッシュ領域4
0−aと40−b間の正規化相関値を求める。背景部分
は背景画像42と入力画像43でパターンがほぼ同じな
ので相関値が高くなり、物体部分20は背景画像42と
入力画像43ではパターンが異なるので相関値が低くな
る。また、物体の影の部分25は背景画像42と入力画
像43では明るさが異なるが、パターンがほぼ同じなの
で相関値が高くなる。そこで、該正規化相関値がしきい
値th−crより小さい領域が図12(d)に示す2値画像4
5の黒領域41で表す物体領域となる。該2値画像45
から分かるように正規化相関演算により、影を除いた物
体領域を抽出することが可能である。メッシュを細かく
することにより、黒領域41で表す物体領域をより物体
20の形状に近付けることができるが、処理時間が若干
増加する。なお、図12(c)は参考までに入力画像4
3と背景画像42との差分結果を2値化した2値画像4
4を示す。
Further, as a method of extracting the object region of the stagnation detection region 24, there is a method of using an inter-frame difference of the object region of the stagnation detection region 24 instead of the method using the background difference described in step (225). Here, FIG.
2, a method of using a normalized correlation operation will be described. The normalization correlation operation itself is described in the literature (supervised by Hideyuki Tamura: Introduction to Computer Image Processing, pp. 149-15)
0, Soken Shuppan Co., Ltd. H6 / 4). First, the stagnation detection area 24 is divided into a plurality of mesh areas 40, and the mesh area 4 of each of the mesh areas 40 of the background image 42 and the input image 43 is determined using the normalization correlation circuit 117.
A normalized correlation value between 0-a and 40-b is determined. The background portion has a high correlation value because the pattern is substantially the same between the background image 42 and the input image 43, and the object portion 20 has a low correlation value since the pattern differs between the background image 42 and the input image 43. The brightness of the shadow portion 25 of the object differs between the background image 42 and the input image 43, but the pattern is almost the same, so that the correlation value increases. Therefore, an area where the normalized correlation value is smaller than the threshold value th-cr is a binary image 4 shown in FIG.
The object area is represented by the black area 41 of FIG. The binary image 45
As can be seen from the above, it is possible to extract the object region excluding the shadow by the normalized correlation operation. By making the mesh finer, the object region represented by the black region 41 can be made closer to the shape of the object 20, but the processing time slightly increases. FIG. 12C shows the input image 4 for reference.
Binary image 4 obtained by binarizing the difference between 3 and background image 42
4 is shown.

【0031】本発明によれば、滞留検出領域の背景差分
またはフレーム間差分または正規化相関演算を用いて物
体を抽出することにより、高精度に滞留物体を抽出でき
る。また、該抽出物体の面積情報を用いて滞留物体を検
出することにより、高精度に滞留物体を検出できる。
According to the present invention, a staying object can be extracted with high accuracy by extracting an object using a background difference or an inter-frame difference of a stay detection area or a normalized correlation operation. Further, by detecting the staying object using the area information of the extracted object, the staying object can be detected with high accuracy.

【0032】さらにまた、該抽出物体の空間重なり情報
を用いて滞留物体を検出することにより、高精度に滞留
物体を検出できる。
Furthermore, by detecting the staying object using the spatial overlap information of the extracted object, the staying object can be detected with high accuracy.

【0033】さらにまた、物体の背景画像との明るさの
違い、あるいは色の違いの情報に基づいて該抽出物体の
空間重なり情報(累積画像)を求め、該情報を用いて滞
留物体を検出することにより、高精度に滞留物体を検出
できる。
Furthermore, spatial overlap information (cumulative image) of the extracted object is obtained based on information on the difference in brightness or color from the background image of the object, and a staying object is detected using the information. Thus, the staying object can be detected with high accuracy.

【0034】さらにまた、該抽出物体の時空間重なり情
報を用いて滞留物体を検出することにより、高精度に滞
留物体を検出できる。
Furthermore, by detecting the staying object using the spatiotemporal overlap information of the extracted object, the staying object can be detected with high accuracy.

【0035】さらにまた、該領域設定手段によりあらか
じめ設定された複数の滞留検出領域に対し、マンコンベ
アの交通量によって処理の対象となる滞留検出領域を変
更して滞留物体を検出することにより、高精度に滞留物
体を検出できる。
Still further, by changing a stagnation detection area to be processed with respect to a plurality of stagnation detection areas set in advance by the area setting means according to the traffic volume of the conveyor, and detecting a stagnant object, Accurate detection of staying objects.

【0036】さらにまた、ステップ領域の面積情報また
は/および滞留検出領域の面積情報を用いてマンコンベ
アの交通量を求めることにより、高精度に滞留物体を検
出できる。
Further, by obtaining the traffic volume of the man conveyor using the area information of the step area and / or the area information of the stay detection area, the staying object can be detected with high accuracy.

【0037】さらにまた、ステップ領域の面積情報およ
び物体数、または滞留検出領域の面積情報および物体数
を用いてマンコンベアの交通量を求めることにより、高
精度に滞留物体を検出できる。
Furthermore, by obtaining the traffic volume of the man conveyor using the area information and the number of objects of the step area or the area information and the number of objects of the stay detection area, the staying object can be detected with high accuracy.

【0038】さらにまた、該領域設定手段によりあらか
じめ設定された複数の滞留検出領域に対し、処理の対象
となる滞留検出領域によって処理内容を変更して滞留物
体を検出することにより、高精度に滞留物体を検出でき
る。
Furthermore, by changing the processing contents of a plurality of stagnation detection areas set in advance by the area setting means according to the stagnation detection areas to be processed and detecting the stagnated objects, the stagnation object is detected with high precision. Objects can be detected.

【0039】さらにまた、該領域設定手段によりあらか
じめ設定された滞留検出領域全体に対し、交通量によっ
て滞留検出手段の処理内容を変更して滞留物体を検出す
ることにより、高精度に滞留物体を検出できる。
Furthermore, by detecting the staying object by changing the processing contents of the stay detection means according to the traffic volume, the staying object can be detected with high accuracy for the entire stay detection area preset by the area setting means. it can.

【0040】[0040]

【発明の効果】本発明によれば、滞留検出領域の背景差
分またはフレーム間差分または正規化相関演算を用いて
物体を抽出することにより、高精度に滞留物体を抽出で
きる。
According to the present invention, an object can be extracted with high accuracy by extracting an object using the background difference or inter-frame difference of the stay detection area or the normalized correlation operation.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の全体構成図である。FIG. 1 is an overall configuration diagram of the present invention.

【図2】本発明の説明図である。FIG. 2 is an explanatory diagram of the present invention.

【図3】本発明の監視処理の流れを示すフロー図であ
る。
FIG. 3 is a flowchart showing the flow of a monitoring process according to the present invention.

【図4】ステップ領域および複数の滞留検出領域設定の
例を示す図である。
FIG. 4 is a diagram illustrating an example of setting a step area and a plurality of stay detection areas.

【図5】滞留検出情報生成および滞留判定の処理の流れ
を示すフロー図である。
FIG. 5 is a flowchart showing a flow of processing for generating stay detection information and determining stay;

【図6】x軸投影分布,y軸投影分布作成の説明図であ
る。
FIG. 6 is an explanatory diagram of creating an x-axis projection distribution and a y-axis projection distribution.

【図7】時空間重なり情報作成の説明図である。FIG. 7 is an explanatory diagram of creating spatiotemporal overlap information.

【図8】本発明の別の実施例の滞留検出情報生成および
滞留判定の処理の流れを示すフロー図である。
FIG. 8 is a flowchart showing a flow of processing for generating stay detection information and determining stay based on another embodiment of the present invention.

【図9】空間重なり情報(累積画像)作成の説明図であ
る。
FIG. 9 is an explanatory diagram of creating spatial overlap information (cumulative image).

【図10】本発明の別の実施例の滞留検出情報生成およ
び滞留判定の処理の流れを示すフロー図である。
FIG. 10 is a flowchart showing a flow of processing of stay detection information generation and stay determination according to another embodiment of the present invention.

【図11】1個の滞留検出領域設定の例を示す図であ
る。
FIG. 11 is a diagram illustrating an example of setting one stay detection area.

【図12】正規化相関演算による物体抽出の説明図であ
る。
FIG. 12 is an explanatory diagram of object extraction by a normalized correlation operation.

【符号の説明】[Explanation of symbols]

1−a,1−b…カメラ、2−a,2−b…マンコンベ
ア、3−a,3−b…画像処理装置、21−a,21−
b…マンコンベア制御装置、22−a,22−b…案内
装置、23…ハンドレール、24…滞留検出領域、10
0…画像処理部、108…モニタ、109…メモリ、1
10…CPU、111…インタフェース部、112…マ
ウス。
1-a, 1-b camera, 2-a, 2-b man conveyor, 3-a, 3-b image processing device, 21-a, 21-
b: man conveyor control device, 22-a, 22-b: guide device, 23: handrail, 24: stay detection area, 10
0: image processing unit, 108: monitor, 109: memory, 1
10 CPU, 111 interface unit, 112 mouse.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 北村 忠明 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 (72)発明者 崎村 茂寿 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 (72)発明者 飛田 敏光 茨城県ひたちなか市市毛1070番地 株式会 社日立製作所水戸工場内 (72)発明者 山下 健一 茨城県ひたちなか市市毛1070番地 株式会 社日立製作所水戸工場内 (72)発明者 千葉 久生 茨城県ひたちなか市市毛1070番地 株式会 社日立製作所水戸工場内 Fターム(参考) 3F321 EA04 EB07 EC06 GA31 5B057 AA16 AA19 BA02 BA24 CH09 CH18 DA06 DA15 DB06 DC04 DC14 DC23 DC25 DC32 DC34 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Tadaaki Kitamura 7-1-1, Omikacho, Hitachi City, Ibaraki Prefecture Inside Hitachi, Ltd. Hitachi Research Laboratory, Ltd. (72) Inventor Shigehisa Sakimura 7-1, Omikamachi, Hitachi City, Ibaraki Prefecture No. 1 Inside Hitachi, Ltd.Hitachi Research Laboratories (72) Inventor Toshimitsu Tobita 1070 Ma, Hitachinaka City, Ibaraki Prefecture Inside Mito Plant, Hitachi Ltd. (72) Inventor Kenichi Yamashita 1070 Ma, Hitachinaka City, Ibaraki Stock Inside the Mito Plant of Hitachi, Ltd. (72) Inventor Hisao Chiba 1070, Ma, Hitachinaka-shi, Ibaraki F-term in Mito Plant of Hitachi, Ltd.F-term (reference) DC04 DC14 DC23 DC25 DC32 DC34

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】マンコンベア上の乗客を撮影し、乗客を含
む画像を取り込む画像入力手段により取り込まれた画像
を用いて乗客の状態を監視するマンコンベアの乗客監視
装置において、 前記画像入力手段により入力された入力画像に人物の滞
留を検出するための滞留検出領域を設定する領域設定手
段と、 該領域設定手段により検出された人物の滞留の経過時間
を計測する時間計測手段と、 前記滞留検出領域内の物体を抽出する物体抽出手段と、 該物体抽出手段により抽出された物体があらかじめ指定
された時間以上該滞留検出領域に存在することを検出す
る滞留検出手段と、 該検出結果に基づいて注意を喚起する案内手段を有する
マンコンベアの乗客監視装置。
1. A passenger monitoring device for a conveyer for photographing a passenger on a conveyer and monitoring the condition of the passenger using an image input by an image input unit for inputting an image including the passenger, wherein the image input unit Area setting means for setting a stay detection area for detecting stay of a person in an input image input; time measuring means for measuring elapsed time of stay of a person detected by the area setting means; Object extraction means for extracting an object in the area, stay detection means for detecting that the object extracted by the object extraction means is present in the stay detection area for a predetermined time or more, based on the detection result A passenger conveyor monitoring device for man-conveyors that has guidance means to call attention.
【請求項2】請求項1において、前記物体抽出手段は、
背景差分またはフレーム間差分または正規化相関演算を
用いて物体を抽出するマンコンベアの乗客監視装置。
2. The method according to claim 1, wherein said object extracting means comprises:
A passenger monitoring device of a man conveyor that extracts an object using a background difference, an inter-frame difference, or a normalized correlation operation.
【請求項3】請求項1において、前記滞留検出手段は、
前記物体抽出手段により抽出された抽出物体の面積情報
を用いて滞留物体を検出するマンコンベアの乗客監視装
置。
3. The apparatus according to claim 1, wherein the stay detection means comprises:
A passenger monitoring device of a man conveyor for detecting a staying object using area information of the extracted object extracted by the object extracting means.
【請求項4】請求項1において、前記滞留検出手段は、
前記物体抽出手段により抽出された抽出物体の空間重な
り情報を用いて滞留物体を検出するマンコンベアの乗客
監視装置。
4. The apparatus according to claim 1, wherein the stay detection means comprises:
A passenger monitoring device of a man conveyor that detects a staying object by using spatial overlap information of an extracted object extracted by the object extracting means.
【請求項5】請求項4において、前記滞留検出手段は、
物体の背景画像との明るさの違い、あるいは色の違いの
情報に基づいて該抽出物体の空間重なり情報を求め、該
空間重なり情報を用いて滞留物体を検出するマンコンベ
アの乗客監視装置。
5. The stagnation detecting means according to claim 4,
A passenger monitoring device for a man-conveyor that obtains spatial overlap information of an extracted object based on information on a difference in brightness or a color of an object from a background image, and detects a staying object using the spatial overlap information.
【請求項6】請求項1において、前記滞留検出手段は、
前記物体抽出手段により抽出された抽出物体の時空間重
なり情報を用いて滞留物体を検出するマンコンベアの乗
客監視装置。
6. The apparatus according to claim 1, wherein the stay detecting means includes:
A passenger monitoring device of a man conveyor that detects a staying object using spatiotemporal overlap information of the extracted object extracted by the object extracting means.
【請求項7】請求項1において、前記滞留検出手段は、
前記領域設定手段によりあらかじめ設定された複数の滞
留検出領域に対し、マンコンベアの交通量によって処理
の対象となる滞留検出領域を変更するマンコンベアの乗
客監視装置。
7. The method according to claim 1, wherein the stay detecting means includes:
A passenger conveyor monitoring device for a man conveyor that changes a stay detection region to be processed according to a traffic volume of the man conveyor, for a plurality of stay detection regions set in advance by the region setting means.
【請求項8】請求項1において、前記滞留検出手段は、
前記領域設定手段によりあらかじめ設定された複数の滞
留検出領域に対し、処理の対象となる滞留検出領域によ
って処理内容を変更するマンコンベアの乗客監視装置。
8. The apparatus according to claim 1, wherein the stay detecting means includes:
A passenger monitoring device of a man-conveyor that changes the processing content according to a stay detection area to be processed, for a plurality of stay detection areas preset by the area setting means.
【請求項9】請求項1において、前記滞留検出手段は、
前記領域設定手段によりあらかじめ設定された滞留検出
領域全体に対し、交通量によって処理内容を変更するマ
ンコンベアの乗客監視装置。
9. The method according to claim 1, wherein the stay detecting means includes:
A passenger monitoring device of a man-conveyor that changes the processing content according to the traffic volume for the entire stay detection area preset by the area setting means.
JP10227840A 1998-08-12 1998-08-12 Passenger monitoring device for man-conveyer Pending JP2000053361A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10227840A JP2000053361A (en) 1998-08-12 1998-08-12 Passenger monitoring device for man-conveyer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10227840A JP2000053361A (en) 1998-08-12 1998-08-12 Passenger monitoring device for man-conveyer

Publications (1)

Publication Number Publication Date
JP2000053361A true JP2000053361A (en) 2000-02-22

Family

ID=16867201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10227840A Pending JP2000053361A (en) 1998-08-12 1998-08-12 Passenger monitoring device for man-conveyer

Country Status (1)

Country Link
JP (1) JP2000053361A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1419988A1 (en) * 2002-11-06 2004-05-19 Inventio Ag Stereoscopic monitoring system for escalators and moving walkways
CN1315715C (en) * 2002-11-06 2007-05-16 因温特奥股份公司 Camera for monitoring escalator and mobile footway
JP2009166983A (en) * 2008-01-18 2009-07-30 Hitachi Ltd Safety device for passenger conveyor, and safety control method
JP2010132444A (en) * 2008-12-08 2010-06-17 Mitsubishi Electric Corp Passenger detecting device for passenger conveyer
JP2010168126A (en) * 2009-01-20 2010-08-05 Toshiba Elevator Co Ltd Man conveyor monitoring device and man conveyor system
JP2010173747A (en) * 2009-01-27 2010-08-12 Mitsubishi Electric Building Techno Service Co Ltd Crowdedness detection system and crowdedness detection method for escalator and remodeling method for existing escalator
CN102519750A (en) * 2011-12-28 2012-06-27 日立电梯(中国)有限公司 Escalator load test apparatus and test method thereof
US8794421B2 (en) 2010-08-20 2014-08-05 Otis Elevator Company Remote controlled passenger conveyor and method for remotely controlling a passenger conveyor
CN107089581A (en) * 2017-04-13 2017-08-25 快意电梯股份有限公司 Security monitoring promptly stops terraced system and control method
JP7074215B1 (en) * 2021-01-12 2022-05-24 フジテック株式会社 How to detect the status of the exit of the passenger conveyor

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1419988A1 (en) * 2002-11-06 2004-05-19 Inventio Ag Stereoscopic monitoring system for escalators and moving walkways
CN1315715C (en) * 2002-11-06 2007-05-16 因温特奥股份公司 Camera for monitoring escalator and mobile footway
JP2009166983A (en) * 2008-01-18 2009-07-30 Hitachi Ltd Safety device for passenger conveyor, and safety control method
JP2010132444A (en) * 2008-12-08 2010-06-17 Mitsubishi Electric Corp Passenger detecting device for passenger conveyer
JP2010168126A (en) * 2009-01-20 2010-08-05 Toshiba Elevator Co Ltd Man conveyor monitoring device and man conveyor system
JP2010173747A (en) * 2009-01-27 2010-08-12 Mitsubishi Electric Building Techno Service Co Ltd Crowdedness detection system and crowdedness detection method for escalator and remodeling method for existing escalator
US8794421B2 (en) 2010-08-20 2014-08-05 Otis Elevator Company Remote controlled passenger conveyor and method for remotely controlling a passenger conveyor
CN102519750A (en) * 2011-12-28 2012-06-27 日立电梯(中国)有限公司 Escalator load test apparatus and test method thereof
CN102519750B (en) * 2011-12-28 2015-04-01 日立电梯(中国)有限公司 Escalator load test apparatus and test method thereof
CN107089581A (en) * 2017-04-13 2017-08-25 快意电梯股份有限公司 Security monitoring promptly stops terraced system and control method
JP7074215B1 (en) * 2021-01-12 2022-05-24 フジテック株式会社 How to detect the status of the exit of the passenger conveyor

Similar Documents

Publication Publication Date Title
JP3279479B2 (en) Video monitoring method and device
AU718373C (en) Video imaging systems
US20090310822A1 (en) Feedback object detection method and system
US20110202178A1 (en) Video-based system and method of elevator door detection
US20080144961A1 (en) Method and Image Evaluation Unit for Scene Analysis
JP3183320B2 (en) Counting method and apparatus for each moving object direction
CN109879130B (en) Image detection system
JP2000053361A (en) Passenger monitoring device for man-conveyer
JP2001333422A (en) Monitoring device
JP4883415B2 (en) Monitoring device and program
JP2599701B2 (en) Elevator Standby Passenger Number Detection Method
FR2800895B1 (en) BUS PASSENGER COUNTING SYSTEM AND METHOD
JPH06105312A (en) Method for monitoring still object and device therefor
JPH09293141A (en) Mobile object detection device
JP3784796B2 (en) Mobile body-associated information display device
JP2000034087A (en) Passenger monitoring method and device in man conveyor
JPH0514891A (en) Image monitor device
KR20030018487A (en) Method and apparatus for counting the number of entering people at the gate using image
JP2000272863A (en) Monitor for passenger conveyor
JP4096757B2 (en) Image tracking device
JP2000115750A (en) Mobile object monitor
JP2000034088A (en) Passenger monitoring device for man conveyor
JP3690695B2 (en) Fire detection equipment
JP2000057352A (en) Image processor, object detector and image processing method
JPH11322247A (en) Monitor for man conveyor