JP2017019351A - Fallen person detection device, fallen person detection system, fallen person detection method, and fallen person detection program - Google Patents

Fallen person detection device, fallen person detection system, fallen person detection method, and fallen person detection program Download PDF

Info

Publication number
JP2017019351A
JP2017019351A JP2015137379A JP2015137379A JP2017019351A JP 2017019351 A JP2017019351 A JP 2017019351A JP 2015137379 A JP2015137379 A JP 2015137379A JP 2015137379 A JP2015137379 A JP 2015137379A JP 2017019351 A JP2017019351 A JP 2017019351A
Authority
JP
Japan
Prior art keywords
fallen
fallen person
peripheral region
height
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015137379A
Other languages
Japanese (ja)
Inventor
薫 大平
Kaoru Ohira
薫 大平
民雄 藤崎
Tamio Fujisaki
民雄 藤崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2015137379A priority Critical patent/JP2017019351A/en
Publication of JP2017019351A publication Critical patent/JP2017019351A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology to accurately detect a fallen person who has fallen from a structure on a peripheral region of the structure.SOLUTION: A fallen person detection device 1 detects a fallen person who has fallen from a structure whose floor surface is formed into a first height, on a peripheral region of the structure whose floor surface height is a second height. A moving image captured by a far-infrared camera 2 installed at an angle for capturing an image of a step between the structure and the peripheral region from a peripheral region side is input in an image input unit 12. An image processing unit 13 processes a frame image related to the moving image input in the image input unit 12, detects an object captured in the frame image, and determines whether or not the detected object has moved from a structure side to the peripheral region side. The image processing unit 13 determines whether or not the object is a fallen person using the result of determination on a movement direction of the object.SELECTED DRAWING: Figure 2

Description

この発明は、構造物から転落した転落者を検知する技術に関し、特に駅ホームから列車の軌道に転落した転落者を検知する技術に関する。   The present invention relates to a technique for detecting a fallen person who has fallen from a structure, and more particularly to a technique for detecting a fallen person who has fallen from a station platform to a train track.

従来、列車の軌道に位置する人を画像処理により検知する技術の提案がなされている(例えば、特許文献1参照)。この特許文献1は、列車の軌道を近赤外線カメラで撮像したフレーム画像を処理し、列車の軌道に位置するオブジェクトを検出すると、そのオブジェクトの大きさや形状によって人であるかどうかを判定する構成である。   Conventionally, a technique for detecting a person located on a train track by image processing has been proposed (see, for example, Patent Document 1). This Patent Document 1 is configured to process a frame image obtained by capturing a train track with a near-infrared camera and detect an object located on the train track to determine whether the person is a person based on the size and shape of the object. is there.

特開2007−186136号公報JP 2007-186136 A

しかしながら、特許文献1は、列車の軌道に人がいるかどうかを検知する構成であって、駅ホームから列車の軌道に転落した転落者を検知する構成ではなかった。すなわち、特許文献1の構成では、列車の軌道にいることが検知された人が、駅ホームから列車の軌道に転落した転落者であるか、保線作業等を行うために列車の軌道に入った作業員であるかを区別して検知することができない。   However, Patent Document 1 is a configuration that detects whether or not there is a person on the train track, and is not a configuration that detects a fallen person who has fallen from the station platform to the train track. That is, in the configuration of Patent Document 1, the person who is detected to be on the train track is a fallen person who has fallen from the station platform to the train track, or entered the train track to perform track maintenance work or the like. It is impossible to detect whether it is a worker or not.

このため、特許文献1に記載された構成では、列車の軌道にいる人が、駅ホームから列車の軌道に転落した転落者であれば駅係員等に対する報知を行い、なんらかの理由で列車の軌道に入った作業員であれば駅係員等に対する報知を行わない、とする動作制御を実現することができない。駅ホームから列車の軌道に転落した転落者の検知、救出を最優先することから、特許文献1に記載された構成では、作業員がなんらかの理由で列車の軌道に入ったときにも駅係員等に対する報知を行わざるをえず、駅係員等の作業負担を増加させたり、列車の運行を妨げたりすることがある。   For this reason, in the configuration described in Patent Literature 1, if a person on the train track falls down from the station platform to the train track, the person in charge of the station staff is notified, and for some reason, the train track It is impossible to realize the operation control that the worker who has entered does not notify the station staff or the like. Since the priority is given to detection and rescue of a fallen person who has fallen from the station platform to the train track, in the configuration described in Patent Document 1, even when the worker enters the train track for any reason, the station staff, etc. Inevitably, there is a need to increase the work burden of station staff and the like, and may impede train operation.

この発明の目的は、構造物から、この構造物の周辺領域に転落した転落者の検知が精度よく行える技術を提供することにある。   An object of the present invention is to provide a technique capable of accurately detecting a fallen person who has fallen from a structure to a peripheral region of the structure.

この発明の転落者検知装置は、上記目的を達するために以下のように構成している。   The fallen person detecting device of the present invention is configured as follows to achieve the above object.

この転落者検知装置は、床面が第1の高さに形成された構造物から、床面の高さが第1の高さよりも低い第2の高さである構造物の周辺領域に転落した転落者の検知を行う。例えば、ここで言う構造物は駅ホームであり、周辺領域は線路が敷設された列車の軌道である。   This fallen person detection device falls from a structure in which the floor surface is formed at the first height to a peripheral region of the structure in which the height of the floor surface is a second height lower than the first height. Detect fallen people. For example, the structure mentioned here is a station platform, and the surrounding area is a track of a train on which a track is laid.

画像入力部には、撮像装置によって撮像された動画像が入力される。撮像装置は、周辺領域側から、構造物と周辺領域との段差を撮像する角度で設置されている。撮像装置は、可視光画像を撮像する可視光カメラであってもよいし、遠赤外線画像を撮像する遠赤外線カメラであってもよい。   A moving image captured by the imaging device is input to the image input unit. The imaging device is installed at an angle that captures a step between the structure and the peripheral region from the peripheral region side. The imaging device may be a visible light camera that captures a visible light image, or may be a far infrared camera that captures a far infrared image.

オブジェクト検知部は、画像入力部に入力された動画像にかかるフレーム画像を処理し、このフレーム画像に撮像されているオブジェクトを検知する。オブジェクト検知部は、背景差分画像や、フレーム間差分画像を生成することにより、撮像されているオブジェクトを検知する。   The object detection unit processes a frame image applied to the moving image input to the image input unit, and detects an object captured in the frame image. The object detection unit detects the imaged object by generating a background difference image or an inter-frame difference image.

移動方向判定部は、オブジェクト検知部が検知したオブジェクトが、構造物側から周辺領域側に移動したかどうかを判定する。例えば、移動方向判定部は、オブジェクト検知部によって検知されたオブジェクトが、構造物側から周辺領域側に移動したかどうかを、
(1)フレーム画像上に定めた、第1の高さと、第2の高さとの間に位置する境界を構造物側から周辺領域側に通過したオブジェクトであるかどうかによって判定する構成としてもよいし、
(2)フレーム画像上に定めた、第1の高さと、第2の高さとの間に位置する複数の境界を構造物側から周辺領域側に通過したかどうか、および複数の境界を通過した順番によって判定する構成としてもよい。
The movement direction determination unit determines whether the object detected by the object detection unit has moved from the structure side to the peripheral region side. For example, the movement direction determination unit determines whether or not the object detected by the object detection unit has moved from the structure side to the peripheral region side.
(1) It is good also as a structure determined by whether it is the object which passed the boundary located between the 1st height defined on the frame image and the 2nd height from the structure side to the peripheral region side. And
(2) Whether or not a plurality of boundaries located between the first height and the second height defined on the frame image have passed from the structure side to the peripheral region side, and have passed the plurality of boundaries It is good also as a structure determined by order.

なお、オブジェクトの移動経路は、オブジェクト検知部が検知したオブジェクトの位置(フレーム画像上の位置)を複数のフレーム画像にわたって追跡することにより行える。   The movement path of the object can be performed by tracking the position of the object (position on the frame image) detected by the object detection unit over a plurality of frame images.

転落者判定部は、移動方向判定部の判定結果を用いて、オブジェクト検知部が検知したオブジェクトが転落者であるかどうかを判定する。例えば、周辺領域に位置するオブジェクトであっても、構造物側から周辺領域側に移動していないオブジェクトについては、構造物から周辺領域に転落した転落者でないと判定する。   The fallen person determination unit determines whether the object detected by the object detection unit is a fallen person using the determination result of the movement direction determination unit. For example, even if an object is located in the peripheral area, an object that has not moved from the structure side to the peripheral area side is determined not to have fallen from the structure to the peripheral area.

なお、ここで言うオブジェクトとは、人に限らず、鳥や猫等の小動物や、物品等も含んでいる。   The object referred to here includes not only humans but also small animals such as birds and cats, and articles.

また、オブジェクト検知部によって検知されたオブジェクトについて、周辺領域内に滞在している時間が予め定めた閾値時間を越えているかどうかを判定する滞在時間判定部や、オブジェクト検知部によって検知されたオブジェクトについて、そのオブジェクトの大きさが予め定めた閾値サイズを越えているかどうかを判定するオブジェクトサイズ判定部を、追加的に備えてもよい。これらの構成を備える場合には、転落者判定部は、滞在時間判定部の判定結果や、オブジェクトサイズ判定部の判定結果をも用いて、オブジェクト検知部が検知したオブジェクトが転落者であるかどうかを判定する構成にすればよい。   For the object detected by the object detection unit, the stay time determination unit for determining whether the time staying in the peripheral area exceeds a predetermined threshold time, or the object detected by the object detection unit An object size determination unit that determines whether the size of the object exceeds a predetermined threshold size may be additionally provided. In the case of including these configurations, the faller determination unit uses the determination result of the stay time determination unit and the determination result of the object size determination unit to determine whether the object detected by the object detection unit is a fallen person. It may be configured to determine whether or not

このように構成すれば、構造物側から周辺領域側に移動したオブジェクトが、鳥や猫等の小動物や、物品を、構造物から周辺領域に転落した転落者であると判定するのを抑えられる。   If comprised in this way, it can suppress determining that the object which moved from the structure side to the peripheral region side is a fallen person who fell small animals, such as a bird and a cat, and articles from the structure to the peripheral region. .

この発明によれば、構造物から、この構造物の周辺領域に転落した転落者の検知が精度よく行える。   According to the present invention, it is possible to accurately detect a fallen person who has fallen from a structure to a peripheral region of the structure.

転落者検知システムの構成を示す図である。It is a figure which shows the structure of a fallen person detection system. 転落者検知装置の主要部の構成を示すブロック図である。It is a block diagram which shows the structure of the principal part of a fallen person detection apparatus. 遠赤外線カメラの撮像エリアを示す概略図である。It is the schematic which shows the imaging area of a far-infrared camera. 遠赤外線カメラによって撮像されるフレーム画像を説明する図である。It is a figure explaining the frame image imaged with a far-infrared camera. 画像処理部の機能構成を示す図である。It is a figure which shows the function structure of an image process part. 転落者検知装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a fallen person detection apparatus. 駅ホームから列車の軌道に転落する人の移動を説明する図である。It is a figure explaining the movement of the person who falls on the track of a train from a station platform. 駅ホームから列車の軌道への転落でないと判定されるオブジェクトの移動例を説明する図である。It is a figure explaining the example of a movement of the object determined not to fall on the track of a train from a station platform.

以下、この発明の実施形態である転落者検知システムについて説明する。   Hereinafter, a fallen person detection system which is an embodiment of the present invention will be described.

図1は、転落者検知システムの構成を示す図である。この転落者検知システムは、転落者検知装置1と、遠赤外線カメラ2と、車両感知器3と、報知装置4とを備える。この例にかかる転落者検知システムは、駅ホームから線路が敷設されている列車の軌道へ転落した転落者の検知を行う。また、転落者を検知したときには、報知装置4において、その旨を報知することで、駅係員や列車の運転者等に対して転落者を検知したことを通知する。この例では、駅ホームが、この発明で言う構造物に相当し、列車の軌道が、この発明で言う周辺領域に相当する。   FIG. 1 is a diagram illustrating a configuration of a fallen person detection system. This falling person detection system includes a falling person detection device 1, a far-infrared camera 2, a vehicle detector 3, and a notification device 4. The fallen person detection system according to this example detects a fallen person who has fallen from a station platform to a track of a train on which a track is laid. In addition, when a fallen person is detected, the notification device 4 notifies the fact that the faller has been detected to a station staff, a train driver, or the like by notifying the fact. In this example, the station platform corresponds to the structure referred to in the present invention, and the track of the train corresponds to the peripheral area referred to in the present invention.

図2は、転落者検知装置の主要部の構成を示すブロック図である。転落者検知装置1は、制御部11と、画像入力部12と、画像処理部13と、入出力部14と、を備えている。   FIG. 2 is a block diagram illustrating a configuration of a main part of the fallen person detection device. The fallen person detection device 1 includes a control unit 11, an image input unit 12, an image processing unit 13, and an input / output unit 14.

制御部11は、転落者検知装置1本体各部の動作を制御する。   The control part 11 controls operation | movement of each part of the faller detection apparatus 1 main body.

画像入力部12には、遠赤外線カメラ2が撮像した動画像が入力される。遠赤外線カメラ2のフレームレートは5〜30フレーム/sec程度であればよい。遠赤外線カメラ2によって撮像される撮像エリアのフレーム画像は、この撮像エリアの遠赤外線画像である。   A moving image captured by the far-infrared camera 2 is input to the image input unit 12. The frame rate of the far-infrared camera 2 may be about 5 to 30 frames / sec. The frame image of the imaging area captured by the far infrared camera 2 is a far infrared image of this imaging area.

図3は、遠赤外線カメラの撮像エリアを示す概略図である。図4は、遠赤外線カメラによって撮像されるフレーム画像を説明する図である。図3は、駅ホームおよび列車の軌道を上方からみた概略の平面図である。また、遠赤外線カメラ2によって撮像されるフレーム画像は、図4に示すような可視光画像ではなく、遠赤外線画像である。   FIG. 3 is a schematic diagram showing an imaging area of the far-infrared camera. FIG. 4 is a diagram for explaining a frame image captured by the far-infrared camera. FIG. 3 is a schematic plan view of the station platform and the train track as viewed from above. The frame image captured by the far-infrared camera 2 is not a visible light image as shown in FIG. 4 but a far-infrared image.

遠赤外線カメラ2は、図3に示すように、駅ホームを列車の軌道を挟んだ反対側に設置している。遠赤外線カメラ2は、図4に示すように、駅ホームの床面、列車の軌道の床面(線路の敷設面)、および駅ホームの床面と列車の軌道の床面との段差が撮像エリアに収まるアングルで設置している。図4に示すフレーム画像の高さ方向は、実空間上における撮像位置が遠赤外線カメラ2から遠くなる方向である。図3、図4では、駅ホーム全体を1台の遠赤外線カメラ2で撮像する例を示しているが、駅ホームを複数の領域に分割し、分割した領域毎に、その領域を撮像する遠赤外線カメラ2を設けてもよい。   As shown in FIG. 3, the far-infrared camera 2 has a station platform installed on the opposite side of the train track. As shown in FIG. 4, the far-infrared camera 2 images the floor surface of the station platform, the floor surface of the train track (laying surface of the track), and the level difference between the floor surface of the station platform and the floor surface of the train track. It is installed at an angle that fits in the area. The height direction of the frame image shown in FIG. 4 is a direction in which the imaging position in real space is far from the far-infrared camera 2. FIGS. 3 and 4 show an example in which the entire station platform is imaged by one far-infrared camera 2. However, the station platform is divided into a plurality of areas, and the far area that captures each area is divided. An infrared camera 2 may be provided.

なお、この例にかかる遠赤外線カメラ2は、可視光画像を撮像する可視光カメラで構成してもよい。   Note that the far-infrared camera 2 according to this example may be configured with a visible light camera that captures a visible light image.

画像処理部13は、遠赤外線カメラ2によって撮像された動画像にかかるフレーム画像(画像入力部12に入力されたフレーム画像)を処理し、駅ホームから列車の軌道に転落した転落者を検知する転落者検知処理を行う。画像処理部13が、この発明にかかる転落者検知方法を実行する。また、画像処理部13が、この発明にかかる転落者検知プログラムの各ステップを実行する画像処理プロセッサ(コンピュータ)を有している。画像処理部13の詳細については、後述する。   The image processing unit 13 processes a frame image (a frame image input to the image input unit 12) related to the moving image captured by the far-infrared camera 2, and detects a fallen person who has fallen from the station platform to the train track. Falling person detection processing is performed. The image processing unit 13 executes the fallen person detection method according to the present invention. The image processing unit 13 includes an image processing processor (computer) that executes each step of the fallen person detection program according to the present invention. Details of the image processing unit 13 will be described later.

入出力部14には、車両感知器3、および報知装置4が接続されている。車両感知器3は、駅ホームにおける列車の進入、停車、発車、通過等を感知する。すなわち、車両感知器3は、駅ホームの周辺における列車の有無を感知する。車両感知器3は、駅ホーム周辺における列車の有無を示す感知信号を入出力部14に入力する。また、報知装置4は、転落者検知装置1から転落者を検知した旨の入力があったときに、その旨を報知する。報知装置4は、例えば、駅ホームや駅務室に設置された警告灯の点灯や、列車の軌道に配置した信号機の表示制御等を行って、転落者が検知されたことを駅係員や列車の運転手に通知する。   The vehicle sensor 3 and the notification device 4 are connected to the input / output unit 14. The vehicle detector 3 senses train entry, stop, departure, passage, etc. at the station platform. That is, the vehicle detector 3 detects the presence or absence of a train around the station platform. The vehicle detector 3 inputs a detection signal indicating the presence or absence of a train around the station platform to the input / output unit 14. In addition, when there is an input from the fallen person detection apparatus 1 to the effect that the fallen person has been detected, the notification apparatus 4 notifies that fact. The notification device 4 performs, for example, lighting of a warning light installed in a station platform or station office, display control of a traffic light arranged on a track of a train, and the like. Notify the driver.

図5は、画像処理部の機能構成を示す図である。画像処理部13は、処理対象フレーム画像選択機能部21と、背景差分画像生成機能部22と、オブジェクト検知機能部23と、オブジェクト追跡機能部24と、移動方向判定機能部25と、滞在時間判定機能部26と、オブジェクトサイズ判定機能部27と、転落者判定機能部28と、を有している。   FIG. 5 is a diagram illustrating a functional configuration of the image processing unit. The image processing unit 13 includes a processing target frame image selection function unit 21, a background difference image generation function unit 22, an object detection function unit 23, an object tracking function unit 24, a movement direction determination function unit 25, and a stay time determination. A function unit 26, an object size determination function unit 27, and a fallen person determination function unit 28 are provided.

処理対象フレーム画像選択機能部21は、画像入力部12に入力されたフレーム画像(遠赤外線カメラ2が撮像した動画像にかかるフレーム画像)の中から、後述する画像処理を行うフレーム画像(処理対象フレーム画像)を選択する。処理対象フレーム画像選択機能部21は、画像入力部12に入力された動画像にかかるフレーム画像の全てを処理対象フレーム画像として選択する構成であってもよいし、画像入力部12に入力された動画像にかかるフレーム画像から、予め定められたフレーム間隔や、時間間隔で処理対象フレーム画像を選択する構成であってもよい。   The processing target frame image selection function unit 21 performs a frame image (processing target) for performing image processing, which will be described later, from among the frame images input to the image input unit 12 (frame images related to moving images captured by the far-infrared camera 2). Select (Frame Image). The processing target frame image selection function unit 21 may be configured to select all the frame images related to the moving image input to the image input unit 12 as processing target frame images, or may be input to the image input unit 12. A configuration may be used in which a processing target frame image is selected at a predetermined frame interval or time interval from a frame image related to a moving image.

なお、処理対象フレーム画像を選択するフレーム間間隔と、時間間隔との関係は、
処理対象フレーム画像を選択するフレーム間隔=
(遠赤外線カメラ2のフレームレート)×(処理対象フレーム画像を選択する時間間隔)
である。
In addition, the relationship between the frame interval for selecting the processing target frame image and the time interval is as follows:
Frame interval for selecting the target frame image =
(Frame rate of far-infrared camera 2) × (time interval for selecting a frame image to be processed)
It is.

背景差分画像生成機能部22は、選択された処理対象フレーム画像と、図示していない画像メモリに記憶している背景画像(遠赤外線カメラ2の撮像エリアの背景画像)との差分画像(所謂、背景差分画像)を生成する。また、背景差分画像生成機能部22は、画像メモリに記憶している背景画像を、処理対象フレーム画像を用いて更新する機能を有している。背景画像の更新については、すでに様々な技術が公知であるので、ここでは説明を省略する。   The background difference image generation function unit 22 is a difference image (a so-called so-called “differential image”) between a selected processing target frame image and a background image (background image of the imaging area of the far-infrared camera 2) stored in an image memory (not shown). Background difference image). The background difference image generation function unit 22 has a function of updating the background image stored in the image memory using the processing target frame image. Since various techniques are already known for updating the background image, description thereof is omitted here.

オブジェクト検知機能部23は、背景差分画像生成機能部22で生成された背景差分画像に基づき、オブジェクト領域を設定する。具体的には、生成された背景差分画像における前景画素の塊(フレーム画像上の領域)を推定し、この前景画素の塊に応じた領域をオブジェクト領域に設定する。このオブジェクト領域は、処理対象フレーム画像に撮像されているオブジェクトを検出した領域である。   The object detection function unit 23 sets an object area based on the background difference image generated by the background difference image generation function unit 22. Specifically, a foreground pixel block (an area on the frame image) in the generated background difference image is estimated, and an area corresponding to the foreground pixel block is set as an object area. This object region is a region where an object imaged in the processing target frame image is detected.

オブジェクト追跡機能部24は、処理対象フレーム画像上における、検出したオブジェクトの位置(フレーム画像上の位置)を検知することにより、遠赤外線カメラ2の撮像エリア内におけるオブジェクトの移動を追跡する。   The object tracking function unit 24 tracks the movement of the object in the imaging area of the far-infrared camera 2 by detecting the position of the detected object (position on the frame image) on the processing target frame image.

移動方向判定機能部25は、処理対象フレーム画像毎に検知したオブジェクトの位置に基づく移動経路が駅ホームから列車の軌道に転落した転落者の移動経路であるかどうかを判定する。   The movement direction determination function unit 25 determines whether or not the movement route based on the position of the object detected for each processing target frame image is the movement route of the fallen person who has fallen from the station platform to the train track.

滞在時間判定機能部26は、列車の軌道側に位置するオブジェクトについて、列車の軌道側に滞在している時間が予め定めた閾値時間以上であるかどうかを判定する。   The stay time determination function unit 26 determines whether the time staying on the track side of the train is greater than or equal to a predetermined threshold time for an object located on the track side of the train.

オブジェクトサイズ判定機能部27は、列車の軌道側に位置するオブジェクトについて、そのオブジェクトの大きさが予め定めた閾値サイズ以上であるかどうかを判定する。   The object size determination function unit 27 determines whether or not the size of the object located on the track side of the train is greater than or equal to a predetermined threshold size.

転落者判定機能部28は、移動方向判定機能部25がオブジェクトの移動方向について判定した判定結果、滞在時間判定機能部26がオブジェクトの滞在時間について判定した判定結果、およびオブジェクトサイズ判定機能部27がオブジェクトのサイズについて判定した判定結果を用いて、このオブジェクトが駅ホームから列車の軌道に転落した転落者であるかどうかを判定する。   The faller determination function unit 28 determines the determination result of the movement direction determination function unit 25 regarding the movement direction of the object, the determination result of the stay time determination function unit 26 determines the stay time of the object, and the object size determination function unit 27 Using the determination result determined for the size of the object, it is determined whether this object is a fallen person who has fallen from the station platform to the train track.

以下、転落者検知装置1が、転落者を検知する動作について詳細に説明する。図6は、転落者検知装置の動作を示すフローチャートである。   Hereinafter, the operation in which the fallen person detection apparatus 1 detects a fallen person is demonstrated in detail. FIG. 6 is a flowchart showing the operation of the fallen person detection device.

転落者検知装置1は、駅ホーム周辺における列車の有無を判定する(s1)。転落者検知装置1は、入出力部14に入力されている車両感知器3からの感知信号によって、s1にかかる判定を行う。転落者検知装置1は、s1で駅ホーム周辺に列車があれば、以下に示すs2以降の処理(画像処理部13における処理)を行わない。   The fallen person detection device 1 determines the presence or absence of a train around the station platform (s1). The fallen person detection device 1 makes a determination on s1 based on a detection signal from the vehicle sensor 3 input to the input / output unit 14. If there is a train around the station platform in s1, the fallen person detecting device 1 does not perform the processing after s2 (processing in the image processing unit 13) shown below.

なお、この例では、遠赤外線カメラ2は、駅ホーム周辺における列車の有無に関わらず、撮像エリアの動画像を撮像しているものとして説明するが、駅ホーム周辺に列車があれば、撮像エリアの動画像の撮像を一時的に停止し、駅ホーム周辺に列車がないときに限って、撮像エリアの動画像を撮像する構成にしてもよい。   In this example, the far-infrared camera 2 is described as capturing a moving image of the imaging area regardless of whether there is a train around the station platform. However, if there is a train around the station platform, the imaging area The moving image may be temporarily stopped and the moving image in the imaging area may be captured only when there is no train around the station platform.

転落者検知装置1は、駅ホーム周辺に列車が無ければ、画像処理部13が画像入力部12に入力されている遠赤外線カメラ2が撮像した撮像エリアの動画像にかかるフレーム画像の中から、処理対象フレーム画像を選択する(s2)。s2で選択する処理対象フレーム画像は、駅ホーム周辺に列車がないときに撮像したフレーム画像であり、且つ撮像タイミングが前回選択した処理対象フレーム画像よりも時間的に遅いフレーム画像である。s2にかかる処理は、処理対象フレーム画像選択機能部21によって行われる。   If there is no train around the station platform, the faller detection device 1 has the image processing unit 13 input to the image input unit 12 and the frame image related to the moving image of the imaging area captured by the far-infrared camera 2. A processing target frame image is selected (s2). The processing target frame image selected in s2 is a frame image captured when there is no train around the station platform, and is a frame image that is later in time than the processing target frame image selected at the previous imaging timing. The processing related to s2 is performed by the processing target frame image selection function unit 21.

画像処理部13は、s2で選択した処理対象フレーム画像について、背景差分画像を生成し(s3)、処理対象フレーム画像に撮像されているオブジェクトを検知する(s4)。s3、s4にかかる処理は、公知の背景差分方式によるオブジェクトの検知処理である。s3にかかる処理は、背景差分画像生成機能部22によって行われ、s4にかかる処理は、オブジェクト検知機能部23によって行われる。s4では、人に限らず、鳥や猫等の小動物や、物品もオブジェクトとして検知する。   The image processing unit 13 generates a background difference image for the processing target frame image selected in s2 (s3), and detects an object captured in the processing target frame image (s4). The processing relating to s3 and s4 is object detection processing by a known background difference method. The process related to s3 is performed by the background difference image generation function unit 22, and the process related to s4 is performed by the object detection function unit 23. In s4, not only people but also small animals such as birds and cats and articles are detected as objects.

なお、s4では、線路等で反射された列車や乗降客からの放射熱をオブジェクトとして誤検知することもある。   In s4, the radiant heat from the train or passengers reflected on the track or the like may be erroneously detected as an object.

画像処理部13は、s4で検知したオブジェクト毎に、そのオブジェクトを識別するIDと、今回の処理対象フレーム画像上における位置と、今回の処理対象フレーム画像の撮像タイミングとを対応付けたオブジェクトマップを作成する(s5)。s5では、前回の処理対象フレーム画像で検知されていなかったオブジェクトについてはIDを付与するが、前回の処理対象フレーム画像ですでに検知されていたオブジェクトについては新たなIDを付与しない。s5で作成されるオブジェクトマップは、フレーム画像上におけるオブジェクトの位置の変化、すなわちオブジェクトの移動経路、を示すデータである。   For each object detected in s4, the image processing unit 13 creates an object map that associates the ID for identifying the object, the position on the current processing target frame image, and the imaging timing of the current processing target frame image. Create (s5). In s5, an ID is assigned to an object that has not been detected in the previous processing target frame image, but a new ID is not assigned to an object that has already been detected in the previous processing target frame image. The object map created in s5 is data indicating a change in the position of the object on the frame image, that is, the movement path of the object.

画像処理部13は、s4で検知したオブジェクトの中に、列車の軌道側に位置するオブジェクトがあるかどうかを判定する(s6)。s6では、s4で検知したオブジェクトの位置が、図4に示した列車の軌道側であるかどうかを判定している。s4で検知した各オブジェクトの位置は、s5でオブジェクトマップを作成するときに検知されている。s5、およびs6にかかる処理は、オブジェクト追跡機能部24によって行われる。   The image processing unit 13 determines whether there is an object located on the track side of the train among the objects detected in s4 (s6). In s6, it is determined whether or not the position of the object detected in s4 is on the track side of the train shown in FIG. The position of each object detected in s4 is detected when the object map is created in s5. The processing related to s5 and s6 is performed by the object tracking function unit 24.

画像処理部13は、s6で列車の軌道に位置するオブジェクトがないと判定すると、駅ホームから列車の軌道に転落した転落者はいないと判定し(s11)、s1に戻る。   If the image processing unit 13 determines that there is no object located on the train track in s6, the image processing unit 13 determines that there is no person who has fallen from the station platform to the train track (s11), and returns to s1.

画像処理部13は、s6で列車の軌道に位置するオブジェクトがあると判定すると、そのオブジェクトの移動経路が、駅ホームから列車の軌道への転落にかかる方向であるかどうかを判定する(s7)。   If the image processing unit 13 determines that there is an object located on the train track in s6, the image processing unit 13 determines whether or not the moving path of the object is in the direction of falling from the station platform to the train track (s7). .

図7は、駅ホームから列車の軌道に転落する人の移動を説明する図である。図7に示す第1の境界ライン、および第2の境界ラインは、駅ホームの床面と、列車の軌道の床面との段差の高さ方向に並べたラインである。第1の境界ラインは、駅ホームの床面よりも低い位置であり、且つ第2の境界ラインよりも高い位置に定めている。また、第2の境界ラインは、列車の軌道の床面よりも高い位置に定めている。   FIG. 7 is a diagram illustrating the movement of a person who falls from a station platform to a train track. The first boundary line and the second boundary line shown in FIG. 7 are lines arranged in the height direction of the step between the floor surface of the station platform and the floor surface of the train track. The first boundary line is set at a position lower than the floor of the station platform and higher than the second boundary line. Further, the second boundary line is set at a position higher than the floor surface of the train track.

なお、第1の境界ライン、および第2の境界ラインは、便宜的に図示しているだけであり、画像処理部13が第1の境界ライン、および第2の境界ラインを処理対象フレーム画像に描いているわけではない。また、第2の境界ラインは、フレーム画像上における列車の軌道側の領域に定めてもよい。   Note that the first boundary line and the second boundary line are only shown for convenience, and the image processing unit 13 converts the first boundary line and the second boundary line into the processing target frame image. I'm not drawing. Further, the second boundary line may be defined in a region on the track side of the train on the frame image.

図7に示すように、駅ホームから列車の軌道に転落する人は、駅ホーム側から、第1の境界ライン、第2の境界ラインをこの順番に通過し、列車の軌道側に達する。駅ホームから列車の軌道への転落にかかる方向は、駅ホーム側から、第1の境界ライン、第2の境界ラインをこの順番に通過し、列車の軌道側に達する方向である。したがって、図8に示すように移動した鳥(オブジェクト)は、s7で駅ホームから列車の軌道への転落にかかる方向ではないと判定される。   As shown in FIG. 7, the person who falls from the station platform to the train track passes through the first boundary line and the second boundary line in this order from the station platform side, and reaches the train track side. The direction of the fall from the station platform to the track of the train is a direction that passes from the station platform side through the first boundary line and the second boundary line in this order and reaches the train track side. Therefore, it is determined that the bird (object) that has moved as shown in FIG. 8 is not in the direction of falling from the station platform to the train track in s7.

列車の軌道に位置するオブジェクトの移動方向は、そのオブジェクトについて作成されたオブジェクトマップから得られる。s7にかかる判定は、s6で列車の軌道に位置すると判定したオブジェクト毎に行う。s7にかかる判定は、s6で列車の軌道に位置すると判定しなかったオブジェクトについては行わない。s7にかかる処理は、移動方向判定機能部25によって行われる。   The moving direction of the object located on the track of the train is obtained from the object map created for the object. The determination relating to s7 is performed for each object determined to be located on the train track in s6. The determination relating to s7 is not performed for objects that have not been determined to be located on the train track in s6. The process related to s7 is performed by the movement direction determination function unit 25.

画像処理部13は、s7で駅ホームから列車の軌道への転落にかかる方向であると判定したオブジェクトが無ければ、s6で検出された列車の軌道に位置するオブジェクトを、転落者でないと判定する(s11)。s11にかかる処理は、転落者判定機能部28によって行われる。   The image processing unit 13 determines that the object located on the train track detected in s6 is not a fallen person if there is no object determined in s7 to be in the direction of falling from the station platform to the train track. (S11). The process related to s11 is performed by the fallen person determination function unit 28.

画像処理部13は、s7で駅ホームから列車の軌道への転落にかかる方向であると判定したオブジェクトがあれば、そのオブジェクトが列車の軌道に滞在している時間が、予め定めた閾値時間を超えているかどうかを判定する(s8)。列車の軌道に滞在している時間は、そのオブジェクトについて作成されたオブジェクトマップから得られる。s8にかかる判定は、s7で駅ホームから列車の軌道への転落にかかる方向であると判定したオブジェクト毎に行う。s8にかかる判定は、s7で駅ホームから列車の軌道への転落にかかる方向であると判定しなかったオブジェクトについては行わない。s8にかかる処理は、滞在時間判定機能部26によって行われる。   If there is an object determined to be in the direction of falling from the station platform to the train track in s7, the image processing unit 13 sets a predetermined threshold time for the time that the object stays on the train track. It is determined whether or not it exceeds (s8). The time spent on the train track is obtained from the object map created for that object. The determination relating to s8 is performed for each object that has been determined in s7 to be in the direction of falling from the station platform to the train track. The determination relating to s8 is not performed for an object that has not been determined in s7 to be in the direction of falling from the station platform to the train track. The process relating to s8 is performed by the stay time determination function unit 26.

画像処理部13は、列車の軌道に滞在している時間が閾値時間を越えていると判定したオブジェクトが無ければ、s7で駅ホームから列車の軌道への転落にかかる方向であると判定されたオブジェクトを、転落者でないと判定する(s11)。   If there is no object determined that the time staying on the train track exceeds the threshold time, the image processing unit 13 determines in s7 that the direction is to fall from the station platform to the train track. It is determined that the object is not a fallen person (s11).

画像処理部13は、列車の軌道に滞在している時間が閾値時間を越えているオブジェクトがあれば、そのオブジェクトの大きさが閾値サイズ以上であるかどうかを判定する(s9)。s9では、処理対象フレーム画像上におけるオブジェクトの大きさを、遠赤外線カメラ2からオブジェクトまでの距離によって補正し、補正したオブジェクトの大きさが所定サイズ以上であるかどうかを判定する。具体的には、図4や図7に示すフレーム画像の高さ方向の位置に応じて変化する補正係数を定めている。この補正係数は、フレーム画像の高さ方向の位置が高くなるにつれて大きくなる係数である。画像処理部13は、処理対象フレーム画像上における高さ方向の撮像位置に応じた補正係数と、処理対象フレーム画像上におけるオブジェクトの大きさと、を乗じた値を、補正したオブジェクトの大きさにし、閾値サイズと比較する。処理対象フレーム画像上におけるオブジェクトの大きさは、そのオブジェクトにかかる画素の個数にしてもよいし、処理対象フレーム画像上におけるオブジェクトを囲む矩形領域の面積にしてもよい。s9にかかる判定は、s8で列車の軌道に滞在している時間が閾値時間を越えていると判定したオブジェクト毎に行う。s9にかかる判定は、s8で列車の軌道に滞在している時間が閾値時間を越えていると判定しなかったオブジェクトについては行わない。   If there is an object for which the time staying on the track of the train exceeds the threshold time, the image processing unit 13 determines whether the size of the object is equal to or larger than the threshold size (s9). In s9, the size of the object on the processing target frame image is corrected by the distance from the far-infrared camera 2 to the object, and it is determined whether or not the corrected size of the object is a predetermined size or more. Specifically, a correction coefficient that varies depending on the position in the height direction of the frame image shown in FIGS. 4 and 7 is determined. This correction coefficient is a coefficient that increases as the position of the frame image in the height direction increases. The image processing unit 13 sets a value obtained by multiplying the correction coefficient corresponding to the imaging position in the height direction on the processing target frame image and the size of the object on the processing target frame image to the corrected object size, Compare with threshold size. The size of the object on the processing target frame image may be the number of pixels related to the object, or may be the area of a rectangular region surrounding the object on the processing target frame image. The determination relating to s9 is performed for each object that has been determined in s8 that the time staying on the track of the train exceeds the threshold time. The determination relating to s9 is not performed for an object that has not been determined in s8 that the time staying on the track of the train exceeds the threshold time.

画像処理部13は、閾値サイズを越えているオブジェクトが無ければ、s8で閾値時間を越えていると判定したオブジェクトは、転落者でないと判定する(s11)。   If there is no object exceeding the threshold size, the image processing unit 13 determines that the object determined to have exceeded the threshold time in s8 is not a fallen person (s11).

また、画像処理部13は、s9で閾値サイズを越えていると判定したオブジェクトがあれば、そのオブジェクトを転落者であると判定する(s10)。   In addition, if there is an object determined to exceed the threshold size in s9, the image processing unit 13 determines that the object is a fallen person (s10).

転落者検知装置1は、s10、またはs11の判定結果を報知装置4に出力し(s12)、s1に戻る。   The fallen person detection device 1 outputs the determination result of s10 or s11 to the notification device 4 (s12), and returns to s1.

報知装置4は、転落者検知装置1から転落者がいる旨の判定結果が入力されると、その旨を報知する。   When the determination result indicating that there is a fallen person is input from the faller detection apparatus 1, the notifying apparatus 4 notifies that fact.

このように、この例にかかる転落者検知装置1は、列車の軌道に位置するオブジェクトについて、そのオブジェクトが列車の軌道に入った移動方向によって、転落者であるかどうかを判定する構成にしているので、駅ホームから列車の軌道に転落した転落者と、保線作業を行うために列車の軌道に入った作業員と、を区別して検知することができる。保線作業を行う作業員は、駅ホームの反対側から軌道に入るのが一般的であり、駅ホームから軌道に降りることはない。   As described above, the fallen person detection device 1 according to this example is configured to determine whether or not an object located on a train track is a fallen person, depending on the moving direction of the object entering the train path. Therefore, it is possible to distinguish and detect a fallen person who falls from the station platform to the train track and a worker who enters the train track to perform track maintenance work. Workers who perform track maintenance work generally enter the track from the opposite side of the station platform, and do not get off the track from the station platform.

また、列車の軌道に滞在している滞在時間や、そのオブジェクトの大きさによって、転落者であるかどうかを判定する構成であるので、列車の軌道に入った鳥や猫等の小動物や、駅ホームから落下した小さな物品等を、誤って転落者であると判定することもない。   In addition, because it is configured to determine whether or not you are a fallen person based on the stay time on the train track and the size of the object, small animals such as birds and cats that entered the train track, stations A small article or the like dropped from the home is not mistakenly determined to be a fallen person.

また、上述したように、この例では、処理対象フレーム画像に撮像されている全てのオブジェクトについて、s7で転落方向を判定するのではなく、s7で転落方向を判定するオブジェクトをs6で絞り込んでいる。また、s8で閾値時間を越えているかどうかを判定するオブジェクトを、s6、およびs7で絞り込んでいる。さらに、s9で閾値サイズを超えているかどうかを判定するオブジェクトをs6〜s8の処理で絞り込んでいる。したがって、画像処理部13の処理負荷を抑えることができる。   Further, as described above, in this example, for all the objects captured in the processing target frame image, the falling direction is not determined in s7, but the objects whose falling direction is determined in s7 are narrowed down in s6. . Further, the objects for determining whether or not the threshold time is exceeded in s8 are narrowed down in s6 and s7. Further, the objects for determining whether or not the threshold size is exceeded at s9 are narrowed down by the processes of s6 to s8. Therefore, the processing load on the image processing unit 13 can be suppressed.

また、上述したs7、s8、およびs9にかかる処理の順番については、上記の例に限らず、どのような順番であってもよい。   Further, the order of the processes related to s7, s8, and s9 described above is not limited to the above example, and may be any order.

また、上記の例では、2つの境界ライン(第1の境界ライン、および第2の境界ライン)を設定し、この境界ラインを通過した順番によって、オブジェクトの移動方向が転落方向であるかどうかを判定するとしたが、この境界ラインの本数は1本であってもよいし、3本以上にしてもよい。   In the above example, two boundary lines (first boundary line and second boundary line) are set, and whether or not the moving direction of the object is the falling direction is determined by the order of passing through the boundary line. Although it is determined, the number of the boundary lines may be one or may be three or more.

また、遠赤外線カメラ2は、列車のヘッドライト等によるハレーションや、照明不足による撮像不良が生じにくいので、周辺環境の影響を抑えたオブジェクトの検知が行える。   Further, since the far-infrared camera 2 is less prone to halation caused by train headlights or poor imaging due to insufficient illumination, it can detect objects with less influence from the surrounding environment.

また、転落検知装置1は、上記の例では、駅ホーム側から列車の軌道側に転落したオブジェクトの検知を、処理対象フレーム画像に撮像されたオブジェクトに対するトラッキング処理(s5にかかるオブジェクトマップの作成)で行うとしたが、以下に示す処理で行ってもよい。   Further, in the above example, the fall detection device 1 detects an object that has fallen from the station platform side to the train track side, and performs tracking processing on the object captured in the processing target frame image (creation of an object map according to s5). However, it may be performed by the following process.

転落検知装置1は、第1の境界ライン上に位置するオブジェクトを検知した処理対象フレーム画像を基準にし、この基準にした処理対象フレーム画像から所定フレーム数の間(または、撮像タイミングが所定時間経過するまでの間)に処理した処理対象フレーム画像において、第2の境界ライン上に位置するオブジェクトを検知した場合に、駅ホーム側から列車の軌道側に転落したオブジェクトがあると判定する。この構成では、処理対象フレーム画像に撮像されたオブジェクトに対するトラッキング処理が不要になるので、画像処理部13の処理負荷を抑えることができる。   The fall detection device 1 uses, as a reference, a processing target frame image in which an object located on the first boundary line is detected, and a predetermined number of frames from the reference processing target frame image (or the imaging timing has elapsed for a predetermined time). When an object located on the second boundary line is detected in the processing target frame image processed until the time of (), it is determined that there is an object that has fallen from the station platform side to the train track side. In this configuration, since the tracking process for the object captured in the processing target frame image is not necessary, the processing load of the image processing unit 13 can be suppressed.

1…転落者検知装置
2…遠赤外線カメラ
3…車両感知器
4…報知装置
11…制御部
12…画像入力部
13…画像処理部
14…入出力部
21…処理対象フレーム画像選択機能部
22…背景差分画像生成機能部
23…オブジェクト検知機能部
24…オブジェクト追跡機能部
25…移動方向判定機能部
26…滞在時間判定機能部
27…オブジェクトサイズ判定機能部
28…転落者判定機能部
DESCRIPTION OF SYMBOLS 1 ... Falling person detection apparatus 2 ... Far-infrared camera 3 ... Vehicle detector 4 ... Notification apparatus 11 ... Control part 12 ... Image input part 13 ... Image processing part 14 ... Input / output part 21 ... Process target frame image selection function part 22 ... Background difference image generation function part 23 ... Object detection function part 24 ... Object tracking function part 25 ... Movement direction determination function part 26 ... Stay time determination function part 27 ... Object size determination function part 28 ... Falling person determination function part

Claims (10)

床面が第1の高さに形成された構造物から、床面の高さが前記第1の高さよりも低い第2の高さである前記構造物の周辺領域に転落した転落者を検知する転落者検知装置であって、
前記周辺領域側から、前記構造物と前記周辺領域との段差を撮像するアングルで設置した撮像装置が撮像した動画像を入力する画像入力部と、
前記画像入力部に入力された動画像にかかるフレーム画像を処理し、このフレーム画像に撮像されているオブジェクトを検知するオブジェクト検知部と、
前記オブジェクト検知部によって検知されたオブジェクトが、前記構造物側から前記周辺領域側に移動したかどうかを判定する移動方向判定部と、
前記移動方向判定部の判定結果を用いて、前記オブジェクト検知部が検知したオブジェクトが転落者であるかどうかを判定する転落者判定部と、を備えた転落者検知装置。
Detects a fallen person who has fallen from a structure in which the floor surface is formed at a first height to a peripheral region of the structure, in which the height of the floor surface is a second height lower than the first height. A falling person detecting device,
An image input unit for inputting a moving image captured by an imaging device installed at an angle for capturing a step between the structure and the peripheral region from the peripheral region side;
An object detection unit that processes a frame image applied to the moving image input to the image input unit and detects an object captured in the frame image;
A moving direction determination unit that determines whether or not the object detected by the object detection unit has moved from the structure side to the peripheral region side;
A fallen person detection device comprising: a fallen person determination part that determines whether or not the object detected by the object detection part is a fallen person using the determination result of the movement direction determination part.
前記移動方向判定部は、前記オブジェクト検知部によって検知されたオブジェクトが、前記構造物側から前記周辺領域側に移動したかどうかを、フレーム画像上に定めた、前記第1の高さと、前記第2の高さとの間に位置する境界を前記構造物側から前記周辺領域側に通過したオブジェクトであるかどうかによって判定する、請求項1に記載の転落者検知装置。   The moving direction determination unit determines whether the object detected by the object detection unit has moved from the structure side to the peripheral region side on the frame image, the first height, and the first The fallen person detecting device according to claim 1, wherein the fallen person detecting device determines whether or not the boundary is located between a height of 2 and an object that has passed from the structure side to the peripheral region side. 前記移動方向判定部は、前記オブジェクト検知部によって検知されたオブジェクトが、前記構造物側から前記周辺領域側に移動したかどうかを、フレーム画像上に定めた、前記第1の高さと、前記第2の高さとの間に位置する複数の境界を前記構造物側から前記周辺領域側に通過したかどうか、および複数の前記境界を通過した順番によって判定する、請求項1に記載の転落者検知装置。   The moving direction determination unit determines whether the object detected by the object detection unit has moved from the structure side to the peripheral region side on the frame image, the first height, and the first The fallen person detection according to claim 1, wherein a plurality of boundaries located between two heights is determined from whether or not a plurality of boundaries have passed from the structure side to the peripheral region side and a plurality of the boundaries are passed through. apparatus. 前記オブジェクト検知部によって検知されたオブジェクトについて、前記周辺領域内に滞在している時間が予め定めた閾値時間を越えているかどうかを判定する滞在時間判定部を備え、
前記転落者判定部は、前記滞在時間判定部の判定結果を用いて、前記オブジェクト検知部が検知したオブジェクトが転落者であるかどうかを判定する、請求項1〜3のいずれかに記載の転落者検知装置。
About the object detected by the object detection unit, comprising a stay time determination unit for determining whether the time staying in the peripheral area exceeds a predetermined threshold time,
The fall of the faller according to any one of claims 1 to 3, wherein the faller determination unit determines whether the object detected by the object detection unit is a fallen person, using the determination result of the stay time determination unit. Person detection device.
前記オブジェクト検知部によって検知されたオブジェクトについて、そのオブジェクトの大きさが予め定めた閾値サイズを越えているかどうかを判定するオブジェクトサイズ判定部を備え、
前記転落者判定部は、前記オブジェクトサイズ判定部の判定結果を用いて、前記オブジェクト検知部が検知したオブジェクトが転落者であるかどうかを判定する、請求項1〜4のいずれかに記載の転落者検知装置。
For an object detected by the object detection unit, an object size determination unit for determining whether the size of the object exceeds a predetermined threshold size,
The fallen person determination unit according to any one of claims 1 to 4, wherein the fallen person determination unit determines whether or not the object detected by the object detection unit is a fallen person using a determination result of the object size determination unit. Person detection device.
前記撮像装置は、遠赤外線画像を撮像する遠赤外線カメラである、請求項1〜5のいずれかに記載の転落者検知装置。   The fallen person detection device according to claim 1, wherein the imaging device is a far-infrared camera that captures a far-infrared image. 前記構造物は、駅ホームであり、
前記周辺領域は、線路を敷設した列車の軌道である、請求項1〜6のいずれかに記載の転落者検知装置。
The structure is a station platform,
The fallen person detection device according to any one of claims 1 to 6, wherein the peripheral region is a track of a train on which a track is laid.
床面が第1の高さに形成された構造物から、床面の高さが前記第1の高さよりも低い第2の高さである前記構造物の周辺領域に転落した転落者を検知する転落者検知装置と、
前記周辺領域側から、前記構造物と前記周辺領域との段差を撮像するアングルで設置した撮像装置と、を備えた転落者検知システムであって、
前記転落者検知装置は、
前記撮像装置が撮像した動画像を入力する画像入力部と、
前記画像入力部に入力された動画像にかかるフレーム画像を処理し、このフレーム画像に撮像されているオブジェクトを検知するオブジェクト検知部と、
前記オブジェクト検知部によって検知されたオブジェクトが、前記構造物側から前記周辺領域側に移動したかどうかを判定する移動方向判定部と、
前記移動方向判定部の判定結果を用いて、前記オブジェクト検知部が検知したオブジェクトが転落者であるかどうかを判定する転落者判定部と、を備えている、
転落者検知システム。
Detects a fallen person who has fallen from a structure in which the floor surface is formed at a first height to a peripheral region of the structure, in which the height of the floor surface is a second height lower than the first height. A falling person detection device to
A fallen person detection system comprising an imaging device installed at an angle for imaging a step between the structure and the peripheral area from the peripheral area side,
The fallen person detecting device is
An image input unit for inputting a moving image captured by the imaging device;
An object detection unit that processes a frame image applied to the moving image input to the image input unit and detects an object captured in the frame image;
A moving direction determination unit that determines whether or not the object detected by the object detection unit has moved from the structure side to the peripheral region side;
A faller determination unit that determines whether the object detected by the object detection unit is a fallen person using the determination result of the moving direction determination unit;
Falling person detection system.
床面が第1の高さに形成された構造物から、床面の高さが前記第1の高さよりも低い第2の高さである前記構造物の周辺領域に転落した転落者を検知する転落者検知方法であって、
画像入力部に入力された、撮像装置が前記周辺領域側から、前記構造物と前記周辺領域との段差を撮像するアングルで撮像した動画像にかかるフレーム画像を処理し、このフレーム画像に撮像されているオブジェクトを検知するオブジェクト検知ステップと、
前記オブジェクト検知ステップによって検知されたオブジェクトが、前記構造物側から前記周辺領域側に移動したかどうかを判定する移動方向判定ステップと、
前記移動方向判定ステップの判定結果を用いて、前記オブジェクト検知ステップが検知したオブジェクトが転落者であるかどうかを判定する転落者判定ステップと、を備えた転落者検知方法。
Detects a fallen person who has fallen from a structure in which the floor surface is formed at a first height to a peripheral region of the structure, in which the height of the floor surface is a second height lower than the first height. A fallen person detection method that
An image input device, which is input to the image input unit, processes a frame image related to a moving image captured at an angle that captures a step between the structure and the peripheral region from the peripheral region side, and is captured by the frame image. An object detection step for detecting a moving object;
A moving direction determining step for determining whether or not the object detected by the object detecting step has moved from the structure side to the peripheral region side;
A fallen person detection method comprising: a fallen person determination step that determines whether or not the object detected by the object detection step is a fallen person using the determination result of the moving direction determination step.
床面が第1の高さに形成された構造物から、床面の高さが前記第1の高さよりも低い第2の高さである前記構造物の周辺領域に転落した転落者を検知するためのステップをコンピュータに実行させる転落者検知プログラムであって、
画像入力部に入力された、撮像装置が前記周辺領域側から、前記構造物と前記周辺領域との段差を撮像するアングルで撮像した動画像にかかるフレーム画像を処理し、このフレーム画像に撮像されているオブジェクトを検知するオブジェクト検知ステップと、
前記オブジェクト検知ステップによって検知されたオブジェクトが、前記構造物側から前記周辺領域側に移動したかどうかを判定する移動方向判定ステップと、
前記移動方向判定ステップの判定結果を用いて、前記オブジェクト検知ステップが検知したオブジェクトが転落者であるかどうかを判定する転落者判定ステップと、をコンピュータに実行させる、転落者検知プログラム。
Detects a fallen person who has fallen from a structure in which the floor surface is formed at a first height to a peripheral region of the structure, in which the height of the floor surface is a second height lower than the first height. A fallen person detection program that causes a computer to execute steps for
An image input device, which is input to the image input unit, processes a frame image related to a moving image captured at an angle that captures a step between the structure and the peripheral region from the peripheral region side, and is captured by the frame image. An object detection step for detecting a moving object;
A moving direction determining step for determining whether or not the object detected by the object detecting step has moved from the structure side to the peripheral region side;
A fallen person detection program for causing a computer to execute a fallen person determination step of determining whether or not the object detected by the object detection step is a fallen person using the determination result of the moving direction determination step.
JP2015137379A 2015-07-09 2015-07-09 Fallen person detection device, fallen person detection system, fallen person detection method, and fallen person detection program Pending JP2017019351A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015137379A JP2017019351A (en) 2015-07-09 2015-07-09 Fallen person detection device, fallen person detection system, fallen person detection method, and fallen person detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015137379A JP2017019351A (en) 2015-07-09 2015-07-09 Fallen person detection device, fallen person detection system, fallen person detection method, and fallen person detection program

Publications (1)

Publication Number Publication Date
JP2017019351A true JP2017019351A (en) 2017-01-26

Family

ID=57889360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015137379A Pending JP2017019351A (en) 2015-07-09 2015-07-09 Fallen person detection device, fallen person detection system, fallen person detection method, and fallen person detection program

Country Status (1)

Country Link
JP (1) JP2017019351A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018122641A (en) * 2017-01-30 2018-08-09 東京急行電鉄株式会社 Determination device
WO2021059385A1 (en) * 2019-09-25 2021-04-01 株式会社日立国際電気 Space sensing system and space sensing method
US11461957B2 (en) 2018-09-03 2022-10-04 Sony Interactive Entertainment Inc. Information processing device, information processing method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018122641A (en) * 2017-01-30 2018-08-09 東京急行電鉄株式会社 Determination device
US11461957B2 (en) 2018-09-03 2022-10-04 Sony Interactive Entertainment Inc. Information processing device, information processing method, and program
WO2021059385A1 (en) * 2019-09-25 2021-04-01 株式会社日立国際電気 Space sensing system and space sensing method
JPWO2021059385A1 (en) * 2019-09-25 2021-04-01
JP7219820B2 (en) 2019-09-25 2023-02-08 株式会社日立国際電気 SPATIAL SENSING SYSTEM AND SPATIAL SENSING METHOD

Similar Documents

Publication Publication Date Title
US10512941B2 (en) Projection instruction device, parcel sorting system, and projection instruction method
KR101788269B1 (en) Method and apparatus for sensing innormal situation
JP6127659B2 (en) Driving support device and driving support method
JP5917327B2 (en) Escalator monitoring system
JP5904069B2 (en) Image processing apparatus, object detection method, and object detection program
US20190042847A1 (en) Instruction projecting device, package sorting system and instruction projecting method
US20190084008A1 (en) Instruction projecting device, package sorting system and instruction projecting method
US10471474B2 (en) Projection indicator, cargo assortment system, and projection indicating method
JP2014009045A (en) Elevator monitoring device and monitoring method
JP2017019351A (en) Fallen person detection device, fallen person detection system, fallen person detection method, and fallen person detection program
WO2015125701A1 (en) Monitoring system
JP2011166243A (en) Monitoring system
JP2015133078A5 (en)
JP4883415B2 (en) Monitoring device and program
KR101219407B1 (en) escalator monitoring system using image processing technology
JP2002029421A (en) Method and device for determining presence of train, and monitoring system
JP6699179B2 (en) Image processing device
JP5597057B2 (en) Passenger drag detection system at home
JP2012056535A (en) Platform accident detection system
JP2015088816A (en) Image monitoring system
JP6544031B2 (en) Movement detection apparatus, movement detection method, and movement detection program
JP5647458B2 (en) Home fall detection system
JP2013228956A (en) Thronging monitoring device and thronging monitoring program
US10589319B2 (en) Projection instruction device, parcel sorting system, and projection instruction method
JP2000034087A (en) Passenger monitoring method and device in man conveyor