JP5386744B2 - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
JP5386744B2
JP5386744B2 JP2010023680A JP2010023680A JP5386744B2 JP 5386744 B2 JP5386744 B2 JP 5386744B2 JP 2010023680 A JP2010023680 A JP 2010023680A JP 2010023680 A JP2010023680 A JP 2010023680A JP 5386744 B2 JP5386744 B2 JP 5386744B2
Authority
JP
Japan
Prior art keywords
image
determination
vehicle
area
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010023680A
Other languages
Japanese (ja)
Other versions
JP2011166243A (en
Inventor
一成 岩永
幸 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2010023680A priority Critical patent/JP5386744B2/en
Publication of JP2011166243A publication Critical patent/JP2011166243A/en
Application granted granted Critical
Publication of JP5386744B2 publication Critical patent/JP5386744B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、監視対象となる領域を監視する監視システムに関し、特に、駅においてホームから線路へ転落する人を自動的に検知する監視システムに関する。   The present invention relates to a monitoring system that monitors an area to be monitored, and more particularly to a monitoring system that automatically detects a person who falls from a platform to a track at a station.

例えば、駅のホームなどから線路へ人が転落した場合には、速やかに転落者の存在を当該ホームに進入する電車などの車両の運転士などに伝達し、安全確保のために当該車両を止める必要がある。目視による転落者の発見及びその伝達は、監視員に掛かる負担が大きく、監視員が転落者を発見してから通信機などを使用して伝達するまでの動作にも時間を要するため、一瞬を争う状況では危険に繋がる可能性がある。
そこで、マットセンサやワイヤセンサなどの外部センサを用いることで、転落者を自動的に検知する手法が試みられてきたが、線路上は電車が通過するため、これらのセンサが設置可能な場所には制限があり、転落者がセンサ設置場所以外で転落する場合には見逃しが発生するなどの問題があった。
For example, when a person falls from the platform of a station to the track, the presence of the fallen person is promptly transmitted to the driver of a train or other vehicle entering the platform, and the vehicle is stopped to ensure safety. There is a need. The detection and transmission of a fallen person by visual inspection is a heavy burden on the observer, and it takes time for the observer to detect the fallen person and transmit it using a communication device. In fighting situations it can lead to danger.
Therefore, attempts have been made to automatically detect a fallen person by using an external sensor such as a mat sensor or a wire sensor. However, since a train passes on the track, these sensors can be installed in places where they can be installed. There is a limit, and there are problems such as oversight when a fallen person falls outside the sensor installation location.

こうしたことから、従来からある指定領域内に侵入する物体を画像処理によって検知する技術を駅のホームからの転落者検知に応用する方法が考えられる。画像処理によれば、マットセンサやワイヤセンサのように設置位置に起因する見逃しを低減することが可能になる。このような画像処理による物体検知技術では、入力画像と背景画像との差に基づいて物体を検知するいわゆる差分法による方法が広く用いられる。   For this reason, a method of applying a technique for detecting an object entering a specified area by image processing to a fallen person from a station platform can be considered. According to the image processing, it is possible to reduce oversight caused by the installation position like a mat sensor or a wire sensor. In such object detection technology based on image processing, a so-called difference method for detecting an object based on a difference between an input image and a background image is widely used.

ここで、差分法とは、撮像装置などから得られた入力画像と、予め用意した検出すべき物体が映っていない背景画像との画素毎の差分を計算して得た差分画像において、当該差分画像の各画素と予め用意したしきい値(例えば、20など)との比較を行い、しきい値以上の差分値を持つ画素の位置より、検出すべき物体を見つける手法である。但し、差分法に基づく転落者検知では、ホーム上に存在する人の影や、ホームへ進入する電車やそのヘッドライトなどのように、転落者以外の外乱ノイズを誤検知する可能性がある。   Here, the difference method is a difference image obtained by calculating a difference for each pixel between an input image obtained from an imaging device or the like and a background image on which an object to be detected that is prepared is not reflected. In this method, each pixel of an image is compared with a threshold value (for example, 20) prepared in advance, and an object to be detected is found from the position of a pixel having a difference value equal to or greater than the threshold value. However, in the fallen person detection based on the difference method, there is a possibility that disturbance noises other than the fallen person may be erroneously detected, such as a shadow of a person existing on the platform, a train approaching the platform, or a headlight thereof.

特開2002−157599号公報JP 2002-157599 A 特開2007−233919号公報JP 2007-233919 A 特許第4087045号公報Japanese Patent No. 4087045 特開2006−82618号公報JP 2006-82618 A 特許第3607653号公報Japanese Patent No. 3607653 特開2008−176768号公報JP 2008-176768 A

上述のように、撮像装置を用いて監視対象領域内に侵入する物体を監視する監視システムにおいて、駅などでホームから線路への転落者を検知する場合、画像処理に基づく監視によるホームから線路への転落者の監視では、ホーム上に存在する人の影や、ホームへ進入する電車やヘッドライトなどの外乱を転落者として誤検知する可能性があるといった問題があった。
本発明は、このような従来の事情に鑑み為されたもので、ホーム及び線路を撮像する監視カメラの映像(画像)を画像処理し、ホーム監視における外乱と転落者を区別し、転落者のみを正確に検出して発報等することができる監視システムを提供することを目的とする。
As described above, in a monitoring system for monitoring an object that enters an area to be monitored using an imaging device, when detecting a fallen person from a home to a track at a station or the like, from the home to the track by monitoring based on image processing. In the monitoring of the fallen person, there is a problem that a shadow of a person existing on the platform or a disturbance such as a train or a headlight entering the home may be erroneously detected as a fallen person.
The present invention has been made in view of such a conventional situation, and performs image processing of a video (image) of a monitoring camera that images a home and a track, distinguishes disturbances from a home monitoring from a fallen person, and falls only. It is an object of the present invention to provide a monitoring system that can accurately detect and issue a report.

上記目的を達成するため、本発明に係る監視システムでは、次のような構成により、駅のホームからの転落者の有無を判定する。
すなわち、撮像手段が、駅のホーム及び線路に関する監視対象の領域の画像を撮像する。境界線設定手段が、前記ホームと前記線路との境界線を設定する。特徴条件設定手段が、物体の画像が転落者の画像であるか否かを判定するための特徴に関する条件を設定する。物体検出手段が、前記撮像手段により撮像された画像に含まれる物体の画像を検出する。特徴検出手段が、前記物体検出手段により検出された物体の画像の特徴を検出する。特徴条件判定手段が、前記特徴検出手段により検出された特徴が前記特徴条件設定手段により設定された条件を満たすか否かを判定する。位置変化検出手段が、前記物体検出手段により検出された物体の画像の位置の変化を検出する。境界線判定手段が、前記位置変化検出手段による検出結果に基づいて、前記物体検出手段により検出された物体の画像が前記境界線設定手段により設定された境界線を横切ったか否かを判定する。転落者判定手段が、前記特徴条件判定手段により前記特徴検出手段により検出された特徴が前記特徴条件設定手段により設定された条件を満たすことが判定され、且つ、前記境界線判定手段により前記物体検出手段により検出された物体の画像が前記境界線設定手段により設定された境界線を横切ったことが判定された場合に、前記物体検出手段により検出された物体の画像が転落者の画像であると判定することで、転落者の有無を判定する。
In order to achieve the above object, in the monitoring system according to the present invention, the presence / absence of a fallen person from the station platform is determined by the following configuration.
In other words, the imaging means captures an image of a monitoring target area related to the station platform and the track. A boundary line setting means sets a boundary line between the home and the track. The feature condition setting means sets a condition relating to a feature for determining whether or not the object image is a fallen person image. The object detection unit detects an image of the object included in the image captured by the imaging unit. The feature detection means detects the feature of the image of the object detected by the object detection means. The feature condition determining unit determines whether or not the feature detected by the feature detecting unit satisfies a condition set by the feature condition setting unit. The position change detection means detects a change in the position of the image of the object detected by the object detection means. The boundary line determination unit determines whether or not the image of the object detected by the object detection unit crosses the boundary line set by the boundary line setting unit based on the detection result by the position change detection unit. The fallen person determination means determines that the feature detected by the feature detection means by the feature condition determination means satisfies the condition set by the feature condition setting means, and the object detection by the boundary line determination means When it is determined that the image of the object detected by the means crosses the boundary set by the boundary setting means, the image of the object detected by the object detection means is an image of a fallen person By determining, the presence or absence of a fallen person is determined.

従って、駅のホームからの転落者の有無の判定の精度を高めることができ、例えば、ホーム及び線路を撮像する監視カメラの映像を画像処理し、ホーム監視における外乱と転落者を区別し、転落者のみを正確に検出して発報等すること、などができる。   Accordingly, it is possible to improve the accuracy of determining whether or not there is a fallen person from the platform of the station. It is possible to detect only the person accurately and issue a report.

ここで、駅のホーム及び線路に関する監視対象の領域としては、転落者の有無を監視するための種々な領域が用いられてもよく、例えば、ホームの一部又は全部と当該ホームに隣接した線路(複数の駅にわたって続く線路の一部)を含むような領域を用いることができる。
また、ホームと線路との境界線としては、種々な境界の線が用いられてもよく、また、線としては、直線や曲線など、種々な線が用いられてもよい。
Here, various areas for monitoring the presence or absence of a fallen person may be used as the area to be monitored regarding the platform and the railway line of the station. For example, a part or the whole of the platform and a railway line adjacent to the platform. An area including (a part of a track extending over a plurality of stations) can be used.
In addition, various boundary lines may be used as the boundary line between the home and the track, and various lines such as a straight line and a curve may be used as the line.

また、物体の画像が転落者の画像であるか否かを判定するための特徴としては、種々なものが用いられてもよく、例えば、幅や高さなどの大きさや、速度などを用いることができる。
また、このような特徴に関する条件としては、例えば、「所定値以上(又は、所定値より大きい)」、「所定値以下(又は、所定値より小さい)」、「所定の範囲の内(又は、所定の範囲の外)」といった条件を用いることができる。
Various features may be used for determining whether the image of the object is a fallen person's image. For example, a size such as a width or a height, or a speed may be used. Can do.
In addition, as conditions regarding such features, for example, “more than a predetermined value (or larger than a predetermined value)”, “below a predetermined value (or smaller than a predetermined value)”, “within a predetermined range (or A condition such as “outside of a predetermined range” can be used.

また、境界線や条件などの情報を設定する方法としては、種々な方法が用いられてもよく、例えば、人による操作に応じて設定する方法や、予めシステム(例えば、ある装置)に初期設定される方法などを用いることができる。設定された情報は、例えば、システム(例えば、ある装置)のメモリに記憶される。
また、撮像された画像に含まれる物体の画像は、例えば、その物体が存在しないときの背景画像との比較(差分等)、或いは、その物体のテンプレートを画像中で検索した結果、に基づいて検出することができる。
Various methods may be used as a method for setting information such as boundary lines and conditions. For example, a method for setting information according to a human operation, or an initial setting in a system (for example, a certain device) in advance. Can be used. The set information is stored in a memory of a system (for example, a certain device), for example.
The image of the object included in the captured image is based on, for example, a comparison (difference or the like) with a background image when the object does not exist, or a result of searching a template of the object in the image. Can be detected.

また、物体の画像の位置の変化としては、例えば、その物体が移動した軌跡を検出することができる。
また、物体の画像が境界線を横切ったか否かを判定することに関して、境界線を横切る方向を設定する態様を用いることもでき、この場合、物体の画像が設定された方向で境界線を横切った場合にのみ、物体の画像が境界線を横切ったと判定し、物体の画像が異なる方向で境界線を横切っても、物体の画像が境界線を横切ったとは判定しない。
Further, as a change in the position of the image of the object, for example, a trajectory along which the object has moved can be detected.
In addition, regarding the determination of whether or not the object image has crossed the boundary line, it is possible to use a mode in which the direction across the boundary line is set. In this case, the object image crosses the boundary line in the set direction. Only when the object image crosses the boundary line, and even if the object image crosses the boundary line in a different direction, it is not determined that the object image crosses the boundary line.

本発明に係る監視システムでは、一構成例として、次のような構成とした。
すなわち、車両状況判定手段が、前記監視対象の領域における車両の存在の状況を判定する。判定停止手段が、前記車両状況判定手段による判定結果に基づいて、前記監視対象の領域に車両が存在しない状況から存在する状況となったことが判定された場合(例えば、車両が進入してきた場合)には、転落者の有無の判定を停止する。判定再開手段が、前記判定停止手段により転落者の有無の判定が停止させられた状態において、前記車両状況判定手段による判定結果に基づいて、前記監視対象の領域に車両が存在する状況から存在しない状況となったことが判定された場合(例えば、車両が退出した場合)には、転落者の有無の判定を再開する。
The monitoring system according to the present invention has the following configuration as a configuration example.
That is, the vehicle status determination means determines the status of the presence of the vehicle in the monitored area. When the determination stop means determines that the situation exists from the situation in which no vehicle exists in the monitored area based on the determination result by the vehicle situation determination means (for example, when the vehicle has entered) ) Stops the determination of the presence or absence of a fallen person. The determination restarting means does not exist from the situation in which the vehicle exists in the monitored area based on the determination result by the vehicle status determination means in the state where the determination of the presence or absence of the fallen person is stopped by the determination stop means. When it is determined that the situation has occurred (for example, when the vehicle has left), the determination of the presence or absence of a fallen person is resumed.

従って、例えば、監視対象の領域に車両が進入してきて滞在しているときには転落者の有無の判定を停止して、その後、監視対象の領域から車両が退出したときには転落者の有無の判定を再開することができ、これにより、車両を転落者であると誤って検出してしまうことを防止することができる。   Therefore, for example, when the vehicle has entered and stayed in the monitored area, the determination of the presence or absence of a fallen person is stopped, and then the determination of the presence or absence of a fallen person is resumed when the vehicle leaves the monitored area. Thus, it is possible to prevent the vehicle from being erroneously detected as a fallen person.

ここで、監視対象の領域における車両の存在の状況としては、種々な状況が判定されてもよく、例えば、車両の進入、滞在、退出などの1以上の状況を判定する構成を用いることができる。
また、監視対象の領域における車両の存在の状況を判定する方法としては、種々な方法が用いられてもよく、例えば、監視対象の領域における車両の存在の状況を示す情報を含んだ所定の信号(例えば、外部からの信号)を受信してその信号の内容に基づいて判定する方法や、或いは、監視対象の領域の画像(例えば、リアルタイムの画像)と車両が存在しないときの背景画像との差分等に基づいて判定する方法や、或いは、これら両方の方法を組み合わせて使用する方法などを用いることができる。
Here, various situations may be determined as the situation of the presence of the vehicle in the monitoring target area. For example, a configuration in which one or more situations such as entry, stay, and exit of the vehicle are determined can be used. .
In addition, various methods may be used as a method for determining the vehicle presence state in the monitoring target region, for example, a predetermined signal including information indicating the vehicle presence state in the monitoring target region. A method of receiving (for example, an external signal) and determining based on the content of the signal, or an image of an area to be monitored (for example, a real-time image) and a background image when no vehicle is present A method of determining based on the difference or the like, or a method of using both of these methods in combination can be used.

また、転落者の有無の判定を停止する態様としては、例えば、転落者の有無の判定に関する全ての処理を停止する態様が用いられてもよく、或いは、最終的な転落者の有無の判定は停止して行わないが、例えば物体の画像の特徴の検出や位置の変化の検出などの一部の処理は停止しないで行うような態様が用いられてもよい。
また、転落者の有無の判定を再開する態様としては、例えば、停止させられた処理の全てを再開させる。
In addition, as an aspect of stopping the determination of the presence or absence of a fallen person, for example, an aspect of stopping all the processes related to the determination of the presence or absence of a fallen person may be used, or For example, a mode in which some processes such as detection of the feature of the image of the object and detection of a change in position are performed without stopping may be used.
Moreover, as an aspect which restarts determination of the presence or absence of a fallen person, for example, all the stopped processes are restarted.

以上説明したように、本発明に係る監視システムによると、駅のホームからの転落者の有無の判定の精度を高めることができる。   As described above, according to the monitoring system of the present invention, it is possible to improve the accuracy of the determination of the presence or absence of a fallen person from the station platform.

本発明の一実施例に係る監視システムの構成例を示す図である。It is a figure which shows the structural example of the monitoring system which concerns on one Example of this invention. 撮像装置によって撮像された入力画像の一例を示す図である。It is a figure which shows an example of the input image imaged by the imaging device. ホームから線路への進入を検知するための設定を行った画像の一例を示す図である。It is a figure which shows an example of the image which performed the setting for detecting approach to a track from a home. 転落者を検知した時に表示装置に表示される出力画像の一例を示す図である。It is a figure which shows an example of the output image displayed on a display apparatus when a fallen person is detected. 監視領域に車両が進入している時の入力画像の一例を示す図である。It is a figure which shows an example of the input image when the vehicle has approached the monitoring area | region. 車両の進入の有無を判断するための設定の一例を示す図である。It is a figure which shows an example of the setting for judging the presence or absence of the approach of a vehicle. 車両進入時の入力画像の一例を示す図である。It is a figure which shows an example of the input image at the time of vehicle approach. 矩形に鳥が入った場合の入力画像の一例を示す図である。It is a figure which shows an example of the input image when a bird enters a rectangle.

本発明に係る実施例を図面を参照して説明する。
なお、本実施例において、画像に対するしきい値やライン等の設定処理や、画像中における所定の対象やその矩形領域や位置変化(軌跡)等の検出(検知)処理などの各種の画像処理は、種々な方法を用いて行われてもよく、公知の様々な技術が利用されてもよく、例えば、差分法などは公知の技術である(例えば、特許文献6など参照。)。
Embodiments according to the present invention will be described with reference to the drawings.
In the present embodiment, various image processing such as threshold value and line setting processing for an image, and detection (detection) processing of a predetermined target in the image, its rectangular area, position change (trajectory), etc. Various methods may be used, and various known techniques may be used. For example, the difference method or the like is a known technique (see, for example, Patent Document 6).

図1には、本発明の一実施例に係る監視システムの構成例を示してある。
本例の監視システムは、撮像装置1と、物体検出装置2と、指示装置3と、警報出力装置4と、表示装置5を備えている。
また、物体検出装置2は、映像入力回路11と、画像処理プロセッサ12と、プログラムメモリ13と、ワークメモリ14と、外部I/F(インタフェース)回路15と、映像出力回路16と、データバス(通信路)17により構成されている。
FIG. 1 shows a configuration example of a monitoring system according to an embodiment of the present invention.
The monitoring system of this example includes an imaging device 1, an object detection device 2, an instruction device 3, an alarm output device 4, and a display device 5.
The object detection apparatus 2 includes a video input circuit 11, an image processor 12, a program memory 13, a work memory 14, an external I / F (interface) circuit 15, a video output circuit 16, a data bus ( (Communication path) 17.

撮像装置1は、例えばカメラを用いて構成され、監視の対象となる領域を撮像する。この撮像された入力画像は、物体検出装置2における映像入力回路11を介してワークメモリ14へ記録される。
物体検出装置2では、例えば、撮像装置1で撮影された入力画像を処理して監視領域の物体を抽出し、抽出した物体が転落者など検知すべき対象であるか否かを判定して、監視領域中の物体を検出する。
設定装置(本例では、指示装置3)は、物体検出装置2における画像処理などで使用されるパラメータを調整する。
警報出力装置4は、物体検出装置2における検出結果などに基づいて、警報を出力する。
表示装置5は、物体検出装置2における検出結果などに基づいて、出力画像を画面に表示する。
The imaging device 1 is configured using, for example, a camera and images a region to be monitored. The captured input image is recorded in the work memory 14 via the video input circuit 11 in the object detection device 2.
In the object detection device 2, for example, an input image captured by the imaging device 1 is processed to extract an object in the monitoring area, and it is determined whether or not the extracted object is a target to be detected such as a fallen person. Detect an object in the monitoring area.
The setting device (indicating device 3 in this example) adjusts parameters used in image processing or the like in the object detection device 2.
The alarm output device 4 outputs an alarm based on the detection result in the object detection device 2 and the like.
The display device 5 displays the output image on the screen based on the detection result in the object detection device 2 and the like.

物体検出装置2において、画像処理プロセッサ12は、プログラムメモリ13に記録されているプログラムに従って、ワークメモリ14内に記録された入力画像を処理し、その処理結果を映像出力回路16を介して表示装置5へ表示する。また、画像処理プロセッサ12は、画像処理の結果、警報の発報が必要であると判断された場合には、外部I/F回路15を介して警報信号を出力し、これにより、警報出力装置4により警報を発報する。   In the object detection device 2, the image processor 12 processes the input image recorded in the work memory 14 in accordance with the program recorded in the program memory 13, and displays the processing result via the video output circuit 16. 5 is displayed. Further, the image processor 12 outputs an alarm signal via the external I / F circuit 15 when it is determined that the alarm should be issued as a result of the image processing, whereby the alarm output device Alarm is issued according to 4.

また、画像処理プロセッサ12は、外部I/F回路15を介して入力される、例えばマウス、キーボードなどの指示装置3を使ったオペレータ(人)からの指示に基づいて、前記したプログラムのパラメータを変更や修正しながら前記した入力画像を処理する。
また、映像入力回路11と、画像処理プロセッサ12と、プログラムメモリ13と、ワークメモリ14と、外部I/F回路15と、映像出力回路16は、データバス17に接続されている。
In addition, the image processor 12 sets the parameters of the above-described program based on an instruction from an operator (person) using the pointing device 3 such as a mouse or a keyboard, which is input via the external I / F circuit 15. The input image is processed while changing or correcting.
The video input circuit 11, the image processor 12, the program memory 13, the work memory 14, the external I / F circuit 15, and the video output circuit 16 are connected to a data bus 17.

図2には、撮像装置1によって撮像された入力画像の一例を示してある。
本例の監視システムでは、特に、ホーム101から線路102付近へ進入する人を転落者として自動的に検知し、警報を発報することを目的とする。
FIG. 2 shows an example of an input image imaged by the imaging device 1.
In the monitoring system of this example, the object is to automatically detect a person entering the vicinity of the track 102 from the home 101 as a fallen person and issue an alarm.

図3には、ホーム101から線路102への進入を検知するための設定を行った画像の一例を示してある。
具体的には、検知ライン111と、矢印112で示される方向が設定されている。本例では、転落者はホーム101から線路102へ移動するため、検知ライン111を矢印112が示す方向に超えた物体のみを検知する。これにより、影や日照変化などの誤検知を削減することができる。
FIG. 3 shows an example of an image that has been set to detect entry from the platform 101 to the track 102.
Specifically, the direction indicated by the detection line 111 and the arrow 112 is set. In this example, since the fallen person moves from the home 101 to the track 102, only the object that exceeds the detection line 111 in the direction indicated by the arrow 112 is detected. This can reduce false detections such as shadows and changes in sunshine.

更に、本例では、検知した物体が発報するべき転落者であるかどうかの識別精度を上げるために、検知した物体の大きさや速度が一定範囲内であった場合にのみ、検知した物体を警報の対象と判断する。
本例では、一例として、1人の人間が高さ2mの箇所から自由落下した場合に想定され得る大きさと速度を転落者の条件とし、具体例として、検知した物体が幅0.5m〜2.0m、高さ0.5m〜2.0m、速度3.0m/s〜7.0m/sの範囲内であった時にのみ、物体が転落者であると判定する。
ここで、検知ライン111、方向(本例では、矢印112)、及び転落者の大きさや速度などの条件は、オペレータが指示装置3を用いて物体検出装置2に任意に入力して設定することができる。
Furthermore, in this example, in order to increase the identification accuracy of whether or not the detected object is a fallen person to be notified, the detected object is detected only when the size and speed of the detected object are within a certain range. Judged as the target of the alarm.
In this example, as an example, the size and speed that can be assumed when one person falls freely from a 2 m height is used as the condition of the fallen person. As a specific example, the detected object has a width of 0.5 m to 2 m. Only when the height is within a range of 0.0 m, a height of 0.5 m to 2.0 m, and a speed of 3.0 m / s to 7.0 m / s, the object is determined to be a fallen person.
Here, the conditions such as the detection line 111, the direction (in this example, the arrow 112), and the size and speed of the fallen person are arbitrarily set by the operator using the pointing device 3 in the object detection device 2. Can do.

図4には、転落者を検知した時に表示装置5に表示される出力画像の一例を示してある。
検知により発見した転落者121に対して、物体検出装置2により当該転落者121の位置を示す矩形122及び移動の履歴を示す軌跡123が入力画像に付与されて出力される。本例では、これらの矩形122や軌跡123は、検知ライン111を矢印112の方向に超えた物体の中で、特に大きさや速度などが前述した転落者の条件に合致したものに対してのみ表示される。また、転落者121を検知すると同時に、警報出力装置4に警報信号が送信されて、警報が発報される。
FIG. 4 shows an example of an output image displayed on the display device 5 when a fallen person is detected.
For the fallen person 121 found by the detection, the object detection device 2 adds a rectangle 122 indicating the position of the faller 121 and a trajectory 123 indicating the movement history to the input image and outputs them. In this example, the rectangle 122 and the trajectory 123 are displayed only for objects that exceed the detection line 111 in the direction of the arrow 112, particularly those whose size, speed, etc. meet the above-mentioned conditions of the fallen person. Is done. At the same time that the fallen person 121 is detected, an alarm signal is transmitted to the alarm output device 4 to generate an alarm.

なお、警報の発報時に、出力画像をワイヤレスネットワークなどを介して遠隔で運転士などの表示装置へ送信し、運転士などにより現場の様子を視覚的に容易に確認できるようにしてもよい。
また、転落者の進入がホームからの一方向によらない場合には、複数の検知ラインを設置する方法や、進入方向によらず踏切などに進入した物体を検知すべき転落者の候補とするための検知エリアを検知ラインの代わりに設定する方法が用いられてもよい。
When an alarm is issued, an output image may be transmitted remotely to a display device such as a driver via a wireless network, etc., so that the driver can easily visually confirm the state of the site.
In addition, if the approach of a fallen person does not depend on one direction from the home, a method of installing a plurality of detection lines or a candidate of a fallen person who should detect an object that has entered a railroad crossing regardless of the approaching direction A method of setting a detection area for the detection line instead of the detection line may be used.

また、ホーム101からの転落者の監視では電車などの車両が監視領域内に進入することから、車両を転落者と誤検知する可能性があるため、本例では、電車が監視領域内に滞在している間は物体検出処理を止める。
図5には、監視領域に車両131が進入している時の入力画像の一例を示してある。
更に、車両131が一定時間停車することで背景差分法における背景画像に車両131が映り込んで異常な背景画像が生成される可能性があるため、本例では、車両131の入退出時は背景画像の更新を行わないようにする。
In addition, since a vehicle such as a train enters the monitoring area in monitoring the fallen person from the home 101, there is a possibility that the vehicle is erroneously detected as a fallen person. In this example, the train stays in the monitoring area. During this time, the object detection process is stopped.
FIG. 5 shows an example of an input image when the vehicle 131 enters the monitoring area.
Furthermore, since the vehicle 131 may be reflected in the background image in the background subtraction method and an abnormal background image may be generated by stopping the vehicle 131 for a certain time, in this example, when the vehicle 131 enters and exits, the background Do not update the image.

ここで、車両の進入及び退出を判断する方法としては、種々な方法が用いられてもよく、例えば、踏切信号などの車両の入退出の情報を持った外部信号を外部I/F回路15より入力することが確実であり、具体的には、車両の進入を知らせる信号が入力された時に、物体検出処理及び背景画像の更新を停止し、更に、車両の退出を知らせる信号が入力された時に、物体検出処理及び背景画像の更新を再開する。なお、このような信号が入力されてから、入力画像の監視領域の中に車両が実際に進入してくるまで、信号の仕様やカメラの設置場所によって時間差がある場合があるが、例えば、時間差が予測可能である場合には、物体検出処理や背景画像更新の停止及び再開は、予測した時間分ずらすのがよい。   Here, various methods may be used as a method for judging the entry and exit of the vehicle. For example, an external signal having information on entry and exit of the vehicle such as a crossing signal is sent from the external I / F circuit 15. When the signal that informs the entry of the vehicle is inputted, the object detection process and the update of the background image are stopped, and further, the signal that informs the exit of the vehicle is inputted. Then, the object detection process and the update of the background image are resumed. There may be a time difference between the input of such a signal and the actual entry of the vehicle into the monitoring area of the input image depending on the signal specifications and the camera installation location. Can be predicted, the object detection process and background image update stop and restart should be shifted by the predicted time.

また、車両の接近を伝達する信号を利用することができない場合や、又は、このような信号を利用することはできるが信号の入力と実際の車両の監視領域内への進入の時間差を予測することができない場合には、例えば、特定の領域で、入力画像と背景画像との間でテンプレートマッチングなどを実施し、相関値の大小によって車両の進入の有無を判断する方法で代替することが可能である。   Moreover, when the signal which conveys approach of a vehicle cannot be used, or such a signal can be used, but the time difference of the input of a signal and the actual vehicle approach area is estimated. If this is not possible, for example, template matching can be performed between the input image and the background image in a specific area, and the method can be replaced by determining whether the vehicle has entered based on the magnitude of the correlation value. It is.

これについて、図6及び図7を参照して説明する。
図6には、車両の進入の有無を判断するための設定の一例を示してある。
本例では、設定装置(本例では、指示装置3)によって相関値を計算する領域を矩形141、矩形142のように1つ以上描写し、それぞれの矩形141、142で入力画像と背景画像との間の相関値を、SSD(Sum of Squared Difference)法などのテンプレートマッチングなどにより測定する。
This will be described with reference to FIGS.
FIG. 6 shows an example of a setting for determining whether or not a vehicle has entered.
In this example, one or more regions such as a rectangle 141 and a rectangle 142 are drawn by the setting device (in this example, the indication device 3), and the input image and the background image are represented by the rectangles 141 and 142, respectively. Are measured by template matching such as SSD (Sum of Squared Difference) method.

この測定の結果、例えば、矩形141、矩形142のいずれかの領域で相関値がしきい値を下回った時に、車両が進入したものと判断する。車両が進入したと判断する相関値のしきい値としては、本例では、0.5とする。図6の例では、矩形141、142の範囲内に車両などが進入しておらず入力画像と背景画像(本例では、車両などが存在しないときの画像)が類似しているため、例えば、入力画像と背景画像との相関値が矩形141で0.95、矩形142で0.90などといったように高い値を示し、物体検出処理及び背景画像更新は継続して実施される。   As a result of this measurement, for example, it is determined that the vehicle has entered when the correlation value falls below a threshold value in one of the rectangular 141 and rectangular 142 regions. In this example, the threshold value of the correlation value for determining that the vehicle has entered is 0.5. In the example of FIG. 6, since no vehicle or the like has entered the range of the rectangles 141 and 142, the input image is similar to the background image (in this example, an image when no vehicle is present). The correlation value between the input image and the background image indicates a high value such as 0.95 for the rectangle 141, 0.90 for the rectangle 142, etc., and the object detection process and the background image update are continued.

図7には、車両進入時の入力画像の一例を示してある。
矩形141、142の範囲内に車両などが進入すると、入力画像と背景画像のパターンが大きく異なり、例えば、矩形141における入力画像と背景画像との相関値は0.3などといったように低い値を示す。この時、相関値はしきい値とした0.5を下回るため、車両が監視領域内に進入したものと判定し、物体検出処理及び背景画像更新を停止する。
FIG. 7 shows an example of an input image at the time of entering the vehicle.
When a vehicle or the like enters the range of the rectangles 141 and 142, the pattern of the input image and the background image are greatly different. For example, the correlation value between the input image and the background image in the rectangle 141 is a low value such as 0.3. Show. At this time, since the correlation value is below the threshold value of 0.5, it is determined that the vehicle has entered the monitoring area, and the object detection process and the background image update are stopped.

なお、テンプレートマッチングなどによる車両進入の判定で、例えば小動物などのように車両以外の物体が矩形141、142内に進入した場合などにおいても、相関値が下がるため、車両進入の誤判定を起こす可能性がある。
図8には、矩形142に鳥151が入った場合の入力画像の一例を示してある。
この時、矩形142で鳥151の進入により相関値が0.4になったとすると、相関値がしきい値を下回るため、誤って車両の進入と判断し、車両が進入していないにも関わらず、物体検出処理や背景更新処理を誤って停止してしまう。
In addition, in the determination of vehicle entry by template matching or the like, for example, when an object other than a vehicle such as a small animal enters the rectangles 141 and 142, the correlation value decreases, so that erroneous determination of vehicle entry may occur. There is sex.
FIG. 8 shows an example of an input image when a bird 151 enters a rectangle 142.
At this time, if the correlation value becomes 0.4 due to the entry of the bird 151 in the rectangle 142, the correlation value falls below the threshold value, so it is erroneously determined that the vehicle has entered and the vehicle has not entered. Therefore, the object detection process and the background update process are erroneously stopped.

そこで、車両進入の誤判定の頻度を軽減するための有効な方法として、本例では、複数の矩形を連動させて、特定の順番で相関値が変動した場合にのみ、車両の進入とみなすなどの方法を用いる。
例えば、車両が画面奥から手前に向かって走行する場合、矩形141の方が矩形142より早く車両が到達するので、相関値についても矩形141、矩形142の順でしきい値を下回るようになるため、車両進入の判定についても、この順序通りに相関値がしきい値を下回った場合にのみ動作する(車両の進入とみなす)ものとし、例えば、矩形142単体でしきい値を下回った場合には車両の進入とみなさない、などというように、複数の矩形141、142を組み合わせて車両の進入判定条件を変える。これにより、矩形142に鳥151が入ったような場合においても、矩形141では変動が小さく相関値がしきい値を下回らないため、車両の進入とはみなさないことが実現される。
Therefore, as an effective method for reducing the frequency of erroneous determination of vehicle entry, in this example, a plurality of rectangles are linked and regarded as vehicle entry only when the correlation value fluctuates in a specific order, etc. The method is used.
For example, when the vehicle travels from the back to the front of the screen, the rectangle 141 reaches the vehicle earlier than the rectangle 142, so the correlation value also falls below the threshold value in the order of the rectangle 141 and the rectangle 142. Therefore, the determination of vehicle entry also operates only when the correlation value falls below the threshold value in this order (considered as vehicle entry). For example, when the rectangle 142 alone falls below the threshold value The vehicle entry determination condition is changed by combining a plurality of rectangles 141 and 142 such that the vehicle is not regarded as a vehicle entry. As a result, even when the bird 151 enters the rectangle 142, since the fluctuation is small in the rectangle 141 and the correlation value does not fall below the threshold value, it is realized that the vehicle is not regarded as entering the vehicle.

また、検知ライン111を転落者と予測される物体が通過した直後に、矩形141若しくは矩形142で相関値がしきい値を下回った時には、転落者が矩形141、142内に進入したことがその原因である可能性が高いため、例えば、物体検出処理の停止は実施しない。また、車両の進入判定としては、外部信号により車両が接近していると分かっている時間又はその時間の前後数分間のみ判定を実施するなどというように、外部の情報と組み合わせて行うことで、車両進入判定の誤作動を低減することができる。   In addition, immediately after an object predicted to be a fallen person passes through the detection line 111, when the correlation value of the rectangle 141 or the rectangle 142 falls below the threshold value, it is confirmed that the faller has entered the rectangles 141 and 142. For example, the object detection process is not stopped because the possibility is high. In addition, as the vehicle entry determination, by performing in combination with external information, such as performing a determination that the vehicle is approaching by an external signal or only a few minutes before and after that time, It is possible to reduce malfunction of vehicle entry determination.

以上のように、本例では、監視領域を撮像レンズ及び撮像素子を有する撮像装置1によって撮像して得られた入力画像を処理し、当該入力画像から物体を抽出して監視領域内の物体を検出する監視システムにおいて、次のような処理を行う。
すなわち、検知ライン設定機能により、撮像装置1によって駅におけるホーム101と線路102の映像を撮像した映像上に、仮想的なホーム・線路境界線(本例では、検知ライン111)を設定する。物体追跡機能により、検出した物体の位置変化(本例では、軌跡123)を得る。物体特徴抽出機能により、検出した物体の大きさ、速度などの少なくとも1つ以上の物体の特徴を抽出する。ライン交差判定機能により、物体追跡機能によって得た物体の位置変化によって、物体が検知ライン設定機能によって設定されたホーム・線路境界線を横切ったか否かを判定する。転落判定機能により、物体特徴抽出機能によって抽出された物体の特徴と、ライン交差判定機能による判定結果(物体が境界線を横切ったか否かの判定結果)に基づいて、転落者の有無を判定する。
As described above, in this example, the input image obtained by imaging the monitoring area by the imaging device 1 having the imaging lens and the imaging element is processed, and the object in the monitoring area is extracted by extracting the object from the input image. In the monitoring system to be detected, the following processing is performed.
That is, a virtual home / line boundary line (in this example, the detection line 111) is set on the video obtained by imaging the video of the home 101 and the line 102 at the station by the imaging device 1 by the detection line setting function. By the object tracking function, a change in the position of the detected object (in this example, a locus 123) is obtained. The object feature extraction function extracts at least one feature of the object such as the size and speed of the detected object. The line intersection determination function determines whether or not the object has crossed the home / line boundary set by the detection line setting function based on the change in the position of the object obtained by the object tracking function. The fall determination function determines the presence or absence of a fallen person based on the object features extracted by the object feature extraction function and the determination result by the line intersection determination function (determination result whether or not the object crosses the boundary line). .

これらの機能により、例えば、ホーム101と線路102の境界を横切って線路側に移動した所定範囲の大きさ(又は、所定の範囲の速度、など)の物体を転落者と判断することで、監視領域内の転落者を自動的に検知する。これにより、例えば、ノイズと転落者を識別して、監視領域内の転落者のみを検知する(又は、その確実度を高める)ことが可能となる。   With these functions, for example, an object having a predetermined range of size (or a predetermined range of speed, etc.) moved to the track side across the boundary between the home 101 and the track 102 is judged as a fallen person. Automatically detect falls in the area. Thereby, for example, it is possible to identify noise and a fallen person and detect only the fallen person in the monitoring area (or increase the certainty thereof).

また、本例の監視システムでは、次のような処理を行う。
すなわち、外部信号入力機能により、監視領域への車両の進入の有無についての情報を外部信号によって入力する。転落判定停止機能により、監視領域への車両の進入時及び滞在時には、前記した転落者の有無の判定を停止する。転落判定再開機能により、車両の退出後に、前記した転落者の有無の判定を再開する。
In the monitoring system of this example, the following processing is performed.
That is, the external signal input function inputs information about the presence or absence of the vehicle entering the monitoring area using an external signal. The fall determination stop function stops the above-described determination of the presence or absence of a fallen person when the vehicle enters or stays in the monitoring area. The fall determination restart function restarts the above-described determination of the presence or absence of a fallen person after leaving the vehicle.

更に、本例の監視システムでは、次のような処理を行う。
すなわち、相関計算機能により、監視領域への車両進入時に(例えば、外部信号によってそれを知らされた時に)、入力画像と背景画像との相関値を計算する。車両判定機能により、相関値が所定の値を下回る場合(又は、相関値が所定の値以下となる場合)に、監視領域内に車両が進入、滞在していることを判定する。そして、車両判定機能によって監視領域内への車両の進入がないことが判定された場合に、前記した転落判定機能により転落者の有無を判定する。
Further, in the monitoring system of this example, the following processing is performed.
That is, the correlation value between the input image and the background image is calculated by the correlation calculation function when the vehicle enters the monitoring area (for example, when notified by an external signal). When the correlation value is lower than a predetermined value by the vehicle determination function (or when the correlation value is equal to or lower than the predetermined value), it is determined that the vehicle has entered and stayed in the monitoring area. And when it determines with the vehicle determination function not having approached the vehicle into a monitoring area | region, the above-mentioned fall determination function determines the presence or absence of a fallen person.

従って、本例の監視システムでは、例えば、少ない誤発報で、ホームから線路への転落者を正確に検出することができる。これにより、監視員や車両の運転士などがすぐに転落のあった監視領域のリアルタイムの映像を確認することができ、誤発報が減少することでシステムの信頼性も高まり、以前より少ない労力での転落監視が可能となり、迅速な危険回避行動が行えるようになる。   Therefore, in the monitoring system of this example, for example, a person who falls from the home to the track can be accurately detected with few false alarms. This makes it possible for surveillance personnel and vehicle drivers to immediately check the real-time video of the monitoring area where the vehicle has fallen, reducing the number of false alarms and improving system reliability, and reducing labor. It is possible to monitor the fall at, and to perform quick danger avoidance behavior.

なお、本例の監視システムでは、撮像装置1の機能により撮像手段が構成されており、指示装置3及び物体検出装置2の機能により境界線(本例では、検知ライン)設定手段や特徴条件(本例では、幅や高さや速度の条件)設定手段が構成されており、また、物体検出装置2の画像処理プロセッサ12が入力画像を処理する機能により、入力画像に対する物体検出手段や、その物体の画像の特徴検出手段や、その物体の画像の特徴が条件を満たすか否かを判定する特徴条件判定手段や、その物体の画像の位置変化検出手段や、その物体の画像が境界線を横切ったか否かを判定する(本例では、横切った方向も判定する)境界線判定手段や、特徴や境界線の判定結果に基づいて転落者の有無を判定する転落者判定手段が構成されている。
また、本例の監視システムでは、外部信号や画像処理により物体検出装置2が監視領域における車両の存在状況を判定する機能により車両状況判定手段が構成されており、その判定結果に応じて物体検出装置2が転落者の有無の判定を停止や再開する機能により判定停止手段や判定再開手段が構成されている。
In the monitoring system of this example, an imaging unit is configured by the function of the imaging device 1, and a boundary line (in this example, a detection line) setting unit and a characteristic condition (characteristics) are configured by the functions of the pointing device 3 and the object detection device 2. In this example, width, height, and speed conditions) setting means are configured, and the object detection means for the input image and the object by the function of the image processor 12 of the object detection device 2 processing the input image. Image feature detection means, feature condition determination means for determining whether the image feature of the object satisfies the condition, position change detection means for the object image, and the object image crosses the boundary line A boundary line determination means for determining whether or not a person has fallen (in this example, a crossing direction is also determined) and a fallen person determination means for determining the presence or absence of a fallen person based on the determination results of features and boundary lines. .
Further, in the monitoring system of this example, the vehicle state determination means is configured by the function of the object detection device 2 determining the vehicle presence state in the monitoring area by an external signal or image processing, and object detection is performed according to the determination result. A determination stop unit and a determination restart unit are configured by the function of the device 2 that stops or restarts the determination of the presence or absence of a fallen person.

ここで、本発明に係るシステムや装置などの構成としては、必ずしも以上に示したものに限られず、種々な構成が用いられてもよい。また、本発明は、例えば、本発明に係る処理を実行する方法或いは方式や、このような方法や方式を実現するためのプログラムや当該プログラムを記録する記録媒体などとして提供することも可能であり、また、種々なシステムや装置として提供することも可能である。
また、本発明の適用分野としては、必ずしも以上に示したものに限られず、本発明は、種々な分野に適用することが可能なものである。
また、本発明に係るシステムや装置などにおいて行われる各種の処理としては、例えばプロセッサやメモリ等を備えたハードウエア資源においてプロセッサがROM(Read Only Memory)に格納された制御プログラムを実行することにより制御される構成が用いられてもよく、また、例えば当該処理を実行するための各機能手段が独立したハードウエア回路として構成されてもよい。
また、本発明は上記の制御プログラムを格納したフロッピー(登録商標)ディスクやCD(Compact Disc)−ROM等のコンピュータにより読み取り可能な記録媒体や当該プログラム(自体)として把握することもでき、当該制御プログラムを当該記録媒体からコンピュータに入力してプロセッサに実行させることにより、本発明に係る処理を遂行させることができる。
Here, the configuration of the system and apparatus according to the present invention is not necessarily limited to the configuration described above, and various configurations may be used. The present invention can also be provided as, for example, a method or method for executing the processing according to the present invention, a program for realizing such a method or method, or a recording medium for recording the program. It is also possible to provide various systems and devices.
The application field of the present invention is not necessarily limited to the above-described fields, and the present invention can be applied to various fields.
In addition, as various processes performed in the system and apparatus according to the present invention, for example, the processor executes a control program stored in a ROM (Read Only Memory) in hardware resources including a processor and a memory. A controlled configuration may be used, and for example, each functional unit for executing the processing may be configured as an independent hardware circuit.
The present invention can also be understood as a computer-readable recording medium such as a floppy (registered trademark) disk or a CD (Compact Disc) -ROM storing the control program, and the program (itself). The processing according to the present invention can be performed by inputting the program from the recording medium to the computer and causing the processor to execute the program.

1・・撮像装置、 2・・物体検出装置、 3・・指示装置、 4・・警報出力装置、 5・・表示装置、 11・・映像入力回路、 12・・画像処理プロセッサ、 13・・プログラムメモリ、 14・・ワークメモリ、 15・・外部I/F回路、 16・・映像出力装置、 17・・データバス(通信路)、
101・・ホーム、 102・・線路、 111・・検知ライン、 112・・矢印、 121・・転落者、 122、141、142・・矩形、 123・・軌跡、 131・・車両、 151・・鳥、
1 .... Imaging device 2 .... Object detection device 3 .... Indicating device 4 .... Alarm output device 5 .... Display device 11 .... Video input circuit 12 .... Image processor 13 ... Program Memory, 14.Work memory, 15.External I / F circuit, 16.Video output device, 17.Data bus (communication path),
101 ························································································· •••••••••••••••••••••••••••••••••••••••••• Bird ,

Claims (2)

駅のホームからの転落者の有無を判定する監視システムであって、
駅のホーム及び線路に関する監視対象の領域の画像を撮像する撮像手段と、
前記ホームと前記線路との境界線を設定する境界線設定手段と、
物体の画像が転落者の画像であるか否かを判定するための特徴に関する条件であって、所定の高さから自由落下した物体が人間である場合に想定される物体の大きさ又は速度の少なくとも一方の条件を設定する特徴条件設定手段と、
前記撮像手段により撮像された画像に含まれる物体の画像を検出する物体検出手段と、
前記物体検出手段により検出された物体の画像の特徴を検出する特徴検出手段と、
前記特徴検出手段により検出された特徴が前記特徴条件設定手段により設定された条件を満たすか否かを判定する特徴条件判定手段と、
前記物体検出手段により検出された物体の画像の位置の変化を検出する位置変化検出手段と、
前記位置変化検出手段による検出結果に基づいて、前記物体検出手段により検出された物体の画像が前記境界線設定手段により設定された境界線を横切ったか否かを判定する境界線判定手段と、
前記特徴条件判定手段により前記特徴検出手段により検出された特徴が前記特徴条件設定手段により設定された条件を満たすことが判定され、且つ、前記境界線判定手段により前記物体検出手段により検出された物体の画像が前記境界線設定手段により設定された境界線を横切ったことが判定された場合に、前記物体検出手段により検出された物体の画像が転落者の画像であると判定することで、転落者の有無を判定する転落者判定手段と、
前記監視対象の領域について用意した背景画像と前記撮像手段により撮像された画像とについて、画像内の複数の部分領域毎にテンプレートマッチングを行って画像間の相関値を部分領域毎に算出し、部分領域毎の相関値に基づいて前記監視対象の領域における車両の存在の状況を判定し、このとき、しきい値を下回る相関値の部分領域が特定の時系列順に生じた場合に、前記監視対象の領域に車両が存在する状況になったと判定する車両状況判定手段と、
前記車両状況判定手段による判定結果に基づいて、前記監視対象の領域に車両が存在しない状況から存在する状況となったことが判定された場合には、転落者の有無の判定を停止する判定停止手段と、
前記判定停止手段により転落者の有無の判定が停止させられた状態において、前記車両状況判定手段による判定結果に基づいて、前記監視対象の領域に車両が存在する状況から存在しない状況となったことが判定された場合には、転落者の有無の判定を再開する判定再開手段と、
を備えたことを特徴とする監視システム。
A monitoring system that determines the presence or absence of a fallen person from a station platform,
An imaging means for capturing an image of an area to be monitored related to the station platform and track;
Boundary line setting means for setting a boundary line between the home and the track;
This is a condition related to the characteristics for determining whether the image of the object is an image of a fallen person, and the size or speed of the object that is assumed when the object that has fallen freely from a predetermined height is a human being Characteristic condition setting means for setting at least one condition ;
Object detection means for detecting an image of an object included in the image captured by the imaging means;
Feature detection means for detecting features of an image of the object detected by the object detection means;
Feature condition determination means for determining whether the feature detected by the feature detection means satisfies a condition set by the feature condition setting means;
Position change detection means for detecting a change in the position of the image of the object detected by the object detection means;
Boundary line determination means for determining whether the image of the object detected by the object detection means crosses the boundary line set by the boundary line setting means based on the detection result by the position change detection means;
The feature detected by the feature detection unit by the feature condition determination unit is determined to satisfy the condition set by the feature condition setting unit, and the object detected by the object detection unit by the boundary line determination unit Is determined to be a fallen person's image by determining that the image of the object detected by the object detection means is an image of a fallen person. A fallen person judging means for judging the presence or absence of a person,
For the background image prepared for the monitoring target area and the image captured by the imaging means, template matching is performed for each of the plurality of partial areas in the image, and a correlation value between the images is calculated for each partial area. Based on the correlation value for each area, the situation of the presence of the vehicle in the area to be monitored is determined. At this time, when partial areas having correlation values below the threshold value occur in a specific time-series order, the monitoring object Vehicle status determination means for determining that a vehicle exists in the area of
Based on the determination result by the vehicle state determination means, when it is determined that the vehicle is not present in the monitored area, the determination stop is made to stop the determination of the presence or absence of a fallen person. Means,
In the state where the determination of whether or not there is a fallen person has been stopped by the determination stop means, the situation has changed from the situation in which a vehicle is present in the monitored area based on the determination result by the vehicle situation determination means. Is determined, a determination restarting means for restarting the determination of the presence or absence of a fallen person,
A monitoring system characterized by comprising:
駅のホームからの転落者の有無を判定する監視システムにより実施される監視方法であって、A monitoring method implemented by a monitoring system for determining the presence or absence of a fallen person from a station platform,
前記監視システムは、駅のホーム及び線路に関する監視対象の領域の画像を撮像する撮像手段を有しており、  The monitoring system includes an imaging unit that captures an image of an area to be monitored related to a station platform and a track,
前記撮像手段により撮像された画像に含まれる物体の画像を検出し、  Detecting an image of an object included in an image captured by the imaging means;
前記検出された物体の画像の特徴及び当該物体の画像の位置の変化を検出し、  Detecting changes in the image characteristics of the detected object and the position of the image of the object;
物体の画像が転落者の画像であるか否かを判定するための特徴に関する条件であって、所定の高さから自由落下した物体が人間である場合に想定される物体の大きさ又は速度の少なくとも一方について設定された条件を、前記検出された物体の画像の特徴が満たすか否かを判定し、  This is a condition related to the characteristics for determining whether the image of the object is an image of a fallen person, and the size or speed of the object that is assumed when the object that has fallen freely from a predetermined height is a human being Determining whether or not the image feature of the detected object satisfies a condition set for at least one of the conditions;
前記検出された物体の画像の位置の変化に基づいて、前記ホームと前記線路とについて設定された境界線を前記検出された物体の画像が横切ったか否かを判定し、  Based on the change in the position of the detected object image, it is determined whether the detected object image has crossed the boundary set for the home and the track;
前記検出された物体の画像の特徴が前記設定された条件を満たすことが判定され、且つ、前記検出された物体の画像が前記設定された境界線を横切ったことが判定された場合に、前記検出された物体の画像が転落者の画像であると判定することで、転落者の有無を判定し、  When it is determined that the image feature of the detected object satisfies the set condition, and it is determined that the image of the detected object crosses the set boundary line, By determining that the image of the detected object is an image of a fallen person,
前記監視対象の領域について用意した背景画像と前記撮像手段により撮像された画像とについて、画像内の複数の部分領域毎にテンプレートマッチングを行って画像間の相関値を部分領域毎に算出し、部分領域毎の相関値に基づいて前記監視対象の領域における車両の存在の状況を判定し、このとき、しきい値を下回る相関値の部分領域が特定の時系列順に生じた場合に、前記監視対象の領域に車両が存在する状況になったと判定し、  For the background image prepared for the monitoring target area and the image captured by the imaging means, template matching is performed for each of the plurality of partial areas in the image, and a correlation value between the images is calculated for each partial area. Based on the correlation value for each area, the situation of the presence of the vehicle in the area to be monitored is determined. At this time, when partial areas having correlation values below the threshold value occur in a specific time-series order, the monitoring object It is determined that there is a vehicle in the area of
前記判定された車両の存在の状況に基づいて、前記監視対象の領域に車両が存在しない状況から存在する状況となったことが判定された場合には、転落者の有無の判定を停止し、転落者の有無の判定を停止した状態において、前記監視対象の領域に車両が存在する状況から存在しない状況となったことが判定された場合には、転落者の有無の判定を再開する、  Based on the determined situation of the presence of the vehicle, when it is determined that the situation exists from the situation in which no vehicle exists in the monitored area, the determination of the presence or absence of a fallen person is stopped, In the state where the determination of the presence or absence of a fallen person has been stopped, if it is determined that the situation does not exist from the situation where a vehicle exists in the monitored area, the determination of the presence or absence of a fallen person is resumed.
ことを特徴とする監視方法。  A monitoring method characterized by that.
JP2010023680A 2010-02-05 2010-02-05 Monitoring system Active JP5386744B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010023680A JP5386744B2 (en) 2010-02-05 2010-02-05 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010023680A JP5386744B2 (en) 2010-02-05 2010-02-05 Monitoring system

Publications (2)

Publication Number Publication Date
JP2011166243A JP2011166243A (en) 2011-08-25
JP5386744B2 true JP5386744B2 (en) 2014-01-15

Family

ID=44596457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010023680A Active JP5386744B2 (en) 2010-02-05 2010-02-05 Monitoring system

Country Status (1)

Country Link
JP (1) JP5386744B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022190494A1 (en) 2021-03-12 2022-09-15 荏原環境プラント株式会社 Fallen person detection system, fallen person detection method, and fallen person detection program

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5959951B2 (en) 2012-06-15 2016-08-02 キヤノン株式会社 Video processing apparatus, video processing method, and program
JP6096601B2 (en) * 2013-06-03 2017-03-15 株式会社東芝 Station platform fall detection device
JP2015207945A (en) * 2014-04-22 2015-11-19 オムロン株式会社 Moving image processing apparatus, moving image processing method and moving image processing program
JP6544031B2 (en) * 2015-05-11 2019-07-17 オムロン株式会社 Movement detection apparatus, movement detection method, and movement detection program
JP2018122641A (en) * 2017-01-30 2018-08-09 東京急行電鉄株式会社 Determination device
JP6970277B2 (en) * 2018-03-23 2021-11-24 株式会社日立国際電気 Monitoring system
WO2021014873A1 (en) * 2019-07-25 2021-01-28 Necソリューションイノベータ株式会社 Monitoring device, monitoring method, and computer readable recording medium
JP2022162473A (en) * 2021-04-12 2022-10-24 パナソニックIpマネジメント株式会社 Monitoring device and monitoring system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07228250A (en) * 1994-02-21 1995-08-29 Teito Kousokudo Kotsu Eidan Intrack monitoring device and platform monitoring device
JP4561266B2 (en) * 2004-09-14 2010-10-13 富士通株式会社 Falling object detector
JP2007089105A (en) * 2005-09-20 2007-04-05 Ara Software:Kk Walk monitoring system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022190494A1 (en) 2021-03-12 2022-09-15 荏原環境プラント株式会社 Fallen person detection system, fallen person detection method, and fallen person detection program

Also Published As

Publication number Publication date
JP2011166243A (en) 2011-08-25

Similar Documents

Publication Publication Date Title
JP5386744B2 (en) Monitoring system
US8693725B2 (en) Reliability in detecting rail crossing events
US10696517B2 (en) Elevator security and control system based on passenger movement
US10419724B2 (en) Monitoring system, monitoring method, and monitoring program
JP4600929B2 (en) Stop low-speed vehicle detection device
JP6233624B2 (en) Information processing system, information processing method, and program
JPWO2017047687A1 (en) Monitoring system
US20080100473A1 (en) Spatial-temporal Image Analysis in Vehicle Detection Systems
US20150146006A1 (en) Display control apparatus and display control method
KR20190046351A (en) Method and Apparatus for Detecting Intruder
JPWO2014174738A1 (en) Monitoring device, monitoring method and monitoring program
KR100916960B1 (en) Monitoring system in railway station
JP2012243128A (en) Monitoring device, monitoring method and monitoring program
Lee et al. Real-time fire detection using camera sequence image in tunnel environment
JP6604821B2 (en) Station surveillance camera system
WO2016147704A1 (en) Monitoring device, monitoring system, monitoring method, and computer-readable recording medium
JP2017019351A (en) Fallen person detection device, fallen person detection system, fallen person detection method, and fallen person detection program
JP6978986B2 (en) Warning system, warning control device and warning method
CN103974028A (en) Method for detecting fierce behavior of personnel
CN113674311A (en) Abnormal behavior detection method and device, electronic equipment and storage medium
JP2012124773A (en) Monitoring system
KR100897914B1 (en) Stereo vision based monitoring system in railway station and method thereof
JP2006268678A (en) Device and method for detecting stopping or low-speed vehicle
JP2021151830A (en) Abnormity detection system, information process device, abnormity detection method and program for the same
US20220036074A1 (en) Warning system, warning method, and computer program product

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110620

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130918

R150 Certificate of patent or registration of utility model

Ref document number: 5386744

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250