WO2021059385A1 - 空間検知システム、および空間検知方法 - Google Patents

空間検知システム、および空間検知方法 Download PDF

Info

Publication number
WO2021059385A1
WO2021059385A1 PCT/JP2019/037541 JP2019037541W WO2021059385A1 WO 2021059385 A1 WO2021059385 A1 WO 2021059385A1 JP 2019037541 W JP2019037541 W JP 2019037541W WO 2021059385 A1 WO2021059385 A1 WO 2021059385A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection
space
unit
distance image
information
Prior art date
Application number
PCT/JP2019/037541
Other languages
English (en)
French (fr)
Inventor
雅史 保谷
佐々 敦
Original Assignee
株式会社日立国際電気
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立国際電気 filed Critical 株式会社日立国際電気
Priority to PCT/JP2019/037541 priority Critical patent/WO2021059385A1/ja
Priority to JP2021548034A priority patent/JP7219820B2/ja
Publication of WO2021059385A1 publication Critical patent/WO2021059385A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a space detection system and a space detection method.
  • Patent Document 1 states, "A step of setting an object recognition range for recognizing that a moving object has entered around the monitoring target range, and recognizing an object if there is an object within the object recognition range.
  • An intrusion monitoring method having a stage and a stage of outputting an alarm signal when a recognized object invades the monitoring target range ”is disclosed.
  • Patent Document 1 On the other hand, at station platforms, many users often come and go in a row near the crowded vehicle doors. In the technique of Patent Document 1, it was difficult to recognize each person in this crowded group in advance. Furthermore, it was difficult to detect the moment when one person fell into the gap between the station platform and the vehicle due to congestion. In this respect, the technique of Patent Document 1 has room for improvement.
  • an object of the present invention is to provide a space detection technique for detecting that a detection target has entered a predetermined space.
  • one of the typical space detection systems of the present invention includes a distance image sensor unit, a detection surface setting unit, a space detection unit, and an output unit.
  • the distance image sensor unit generates a distance image including depth information for a shooting range including a detection space.
  • the detection surface setting unit stores spatial position information in the three-dimensional space with respect to a predetermined detection surface in the detection space.
  • the space detection unit detects "a detection target entering from the detection surface” by selecting the distance image based on the space position information of the detection surface.
  • the output unit outputs detection information about the detection target detected by the space detection unit.
  • FIG. 1 is a block diagram illustrating a configuration of a space detection system.
  • FIG. 2 is a diagram for explaining the installation status of the TOF camera.
  • FIG. 3 is a diagram schematically showing the shooting range of the TOF camera.
  • FIG. 4 is a flow chart illustrating a detection surface setting operation by the detection surface setting unit.
  • FIG. 5 is a diagram showing a ridgeline (thick line portion in the figure) of the “detection space S1 when the vehicle is present”.
  • FIG. 6 is a diagram showing a ridgeline (thick line portion in the figure) of the “detection space S2 when the vehicle is absent”.
  • FIG. 7 is a diagram showing detection surfaces P1 and P2.
  • FIG. 5 is a diagram showing a ridgeline (thick line portion in the figure) of the “detection space S1 when the vehicle is present”.
  • FIG. 6 is a diagram showing a ridgeline (thick line portion in the figure) of the “detection
  • FIG. 8 is a flow chart (1/2) for explaining the operation of space detection in the space detection system.
  • FIG. 9 is a flow chart (2/2) for explaining the operation of space detection in the space detection system.
  • FIG. 10 is a diagram illustrating space detection by the detection surface.
  • FIG. 11 is a diagram illustrating state determination by a plurality of detection surfaces.
  • FIG. 12 is a diagram showing the height transition of a falling object (doll) 3 m away.
  • FIG. 13 is a diagram showing a assumed volume transition when the doll falls behind the shield.
  • FIG. 14 is a diagram showing an example of a display screen of the monitoring terminal.
  • the "distance image” corresponds to image information that can be expanded in a three-dimensional coordinate space including depth information in addition to two-dimensional image information.
  • the “detection space” corresponds to the space range in which the detection of the detection target is executed.
  • the “detection surface” is a surface that can be stretched in the detection space and corresponds to a surface that defines an entrance for detecting a detection target.
  • FIG. 1 is a block diagram illustrating the configuration of the space detection system 100.
  • the space detection system 100 includes a TOF camera 110, a management server 120, a station management system 210, and a monitoring terminal 220. These functional parts are signal-connected via a wireless or wired network.
  • the TOF camera 110 includes a distance image sensor unit 111 and a space detection unit 112. Further, the management server 120 includes a detection surface setting unit 121 and an output unit 122.
  • the distance image sensor unit 111 is a TOF (Time Of Flight) type distance image sensor, and includes an illumination light source that irradiates periodic infrared light and an imaging unit that captures infrared rays.
  • the infrared periodic light emitted from the light source is phase-modulated according to the distance to the subject and returns to the imaging unit.
  • the imaging unit periodically images the phase-modulated light at predetermined exposure intervals.
  • the subject image phase-modulated according to the subject distance is bright-dark modulated by the phase shift from the periodic exposure interval of the imaging unit, and the light-dark change according to the subject distance is superimposed on the pixel output of the light receiving pixel. ..
  • the distance image sensor unit 111 Based on such an operating principle, the distance image sensor unit 111 generates a distance image including depth information by photographing a photographing range including a detection space.
  • the TOF method uses an infrared illumination light source, so it is suitable for operation in dark places such as under a station platform.
  • there are rotating lights under the station platform and it is assumed that shooting will be difficult due to direct light incident on the camera.
  • the distance image sensor unit 111 that captures an infrared region can be equipped with a cut filter in the visible region, it is possible to reduce the influence of a rotating light or the like.
  • the detection surface setting unit 121 stores spatial position information in the three-dimensional space with respect to a predetermined detection surface in the detection space.
  • the space detection unit 112 sequentially acquires the distance image generated by the distance image sensor unit 111.
  • the space detection unit 112 expands the pixels of these distance images in the three-dimensional coordinate space and selects them based on the spatial position information of the detection surface. As a result, the space detection unit 112 detects the "detection target entering from the detection surface" among the subjects appearing in the distance image.
  • the output unit 122 outputs the detection information about the detected detection target to the station management system 210 and the monitoring terminal 220.
  • the station management system 210 is a system that manages the operation of stations, manages the time of entry, stop, and departure of vehicles to the station platform, and manages platform doors and opening / closing information of vehicle doors.
  • the station management system 210 has a function of issuing detection information from the output unit 122 to a capable organization. Further, the station management system 210 and the management server 120 may enable analysis of the alert event by storing the log history of the detection information. By performing the analysis, it becomes possible to improve the space detection system 100 by coping with the condition of false alarm.
  • the monitoring terminal 220 is a personal computer terminal installed in the monitoring room of the station or a portable computer terminal owned by the station staff, and has a GUI screen (Graphical User Interface) display function, a voice alarm function, and operation input. It has functions and so on.
  • GUI screen Graphic User Interface
  • FIG. 2 is a diagram for explaining the installation status of the TOF camera 110.
  • the TOF camera 110 is installed on the back side of the station platform so as to photograph the lower side of the station platform.
  • the space directly under the gap between the station platform and the vehicle can be efficiently photographed over a depth of several meters to several tens of meters (actually, the shooting range in which the infrared illumination light of the illumination light source of the distance image sensor unit 111 reaches).
  • the TOF camera 110 adjusts the shooting range so as to fit the user who has fallen on the railroad track from the station platform within the shooting angle of view.
  • FIG. 3 is a diagram schematically showing a shooting range of the TOF camera 110.
  • Such TOF cameras 110 are distributed and arranged at a plurality of locations along the station platform so as to cover the long station platform and the detection space provided along the railroad track.
  • FIG. 4 is a flow chart illustrating a setting operation of the detection surfaces P1 and P2 by the detection surface setting unit 121.
  • the steps will be described in the order of the step numbers shown in the figure.
  • Step S100 The distance image sensor unit 111 generates a distance image including depth information for a normal shooting range (a shooting range of only a background without a fallen person).
  • the space detection unit 112 stores this distance image as a “background image”.
  • Step S101 The detection surface setting unit 121 acquires a background image from the space detection unit 112.
  • the detection surface setting unit 121 detects the "height H1 of the station platform” by expanding the pixels of the "back surface of the station platform” included in the background image into the three-dimensional coordinate space. Further, the detection surface setting unit 121 detects the "height H2 of the line surface” by expanding the pixels of the "line surface” included in the background image in the three-dimensional coordinate space.
  • Step S102 The detection surface setting unit 121 detects the passage width R1 of the “detection target falling into the gap between the station platform and the vehicle” by expanding the pixels of the background image in the three-dimensional coordinate space.
  • One end of the passing width R1 corresponds to the side surface of the vehicle stopped at the station platform.
  • the other end of the passing width R1 corresponds to the range through which the "detection target falling into the gap between the station platform and the vehicle” passes when it falls.
  • Step S103 The detection surface setting unit 121 is set to "detection space S1 when a vehicle is present" so as to include a space surrounded by "station platform height H1", "railway surface height H2", and passage width R1.
  • FIG. 5 is a diagram showing a ridgeline (thick line portion in the figure) of the “detection space S1 when the vehicle is present” set in this way. As shown in the figure, the vertical line segment from the height H2 to the height H1 and the horizontal line segment of the passing width R1 fit in the cross section of the detection space S1 divided in the elongated direction.
  • Step S104 The detection surface setting unit 121 detects the passage width R2 of the “detection target falling from the station platform” by expanding the pixels of the background image in the three-dimensional coordinate space.
  • the passing width R2 is wider than the passing width R1 toward the track side by the amount of absence of the vehicle.
  • Step S105 The detection surface setting unit 121 is set to "detection space S2 when the vehicle is absent" so as to include a space surrounded by "station platform height H1", “railway surface height H2", and passage width R2.
  • FIG. 6 is a diagram showing a ridge line (thick line portion in the figure) of the “detection space S2 when the vehicle is absent” set in this way. As shown in the figure, the vertical line segment from the height H2 to the height H1 and the horizontal line segment of the passing width R2 fit in the cross section of the detection space S2 divided in the elongated direction.
  • Step S106 The detection surface setting unit 121 arranges a plurality of upwardly facing surfaces in each of the detection spaces S1 and S2 to form the detection surfaces P1 and P2.
  • FIG. 7 is a diagram showing the detection surfaces P1 and P2 set in this way.
  • the detection surface P1 is a surface provided at a height at which people hanging from the station platform intersect.
  • the detection surface P2 is a surface provided at a height at which a person falling from the station platform passes.
  • the detection surface setting unit 121 stores the spatial position information of the detection surfaces P1 and P2 in the three-dimensional space for each of the detection spaces S1 and S2. By the series of operations described above, the setting operation of the detection surfaces P1 and P2 by the detection surface setting unit 121 is completed.
  • Step S201 The distance image sensor unit 111 starts shooting at a predetermined frame rate, and sequentially generates a distance image including depth information about the shooting range.
  • Step S202 The space detection unit 112 removes a pixel pattern similar to the background image stored in step S100 from the sequentially generated distance image (background removal).
  • Step S203 The space detection unit 112 inquires the station management system 210 for information, and acquires the opening / closing information of the vehicle door (or platform door) and the presence / absence information of the vehicle.
  • the space detection unit 112 shifts the operation to step S204.
  • the space detection unit 112 shifts the operation to step S205.
  • Step S204 Here, since the vehicle is absent from the station platform, the space detection unit 112 selects "detection space S2 when the vehicle is absent". After this operation, the space detection unit 112 shifts the operation to step S206.
  • Step S205 Here, since the vehicle is stopped at the station platform, the space detection unit 112 selects "detection space S1 when the vehicle is present". After this operation, the space detection unit 112 shifts the operation to step S206.
  • Step S206 The space detection unit 112 develops the distance image from which the background has been removed in pixel units in the three-dimensional coordinate space, and selects the distance image based on the spatial position information of the detection surface P1, so that the detection target entering from the detection surface P1 Is detected.
  • Step S207 The space detection unit 112 tracks the detection target detected in step S206 over a plurality of frames, and excludes the detection target having a volume less than a predetermined volume in any of the plurality of frames from the detection target. As a result, rain, snow, insects, etc. are excluded from the detection target.
  • the spatial distribution of the pixels obtained by expanding the detection target on the three-dimensional coordinate space may be comprehensively calculated by a rectangular parallelepiped or the like.
  • Step S208 The space detection unit 112 determines the state of the detection target based on the positional relationship between the detection target and the plurality of detection surfaces P1 and P2.
  • Step S209 As one of such state determinations, the space detection unit 112 determines whether or not the detection target stays at the intersection position of the detection surface P1 over a plurality of frames. The space detection unit 112 performs the process of step S210 on the detection target that stays at the intersection with the detection surface P1. The space detection unit 112 shifts the operation to step S211 for the detection target that does not stay at the intersection with the detection surface P1.
  • Step S210 The space detection unit 112 determines the state of the detection target that stays at the intersection with the detection surface P1 as "pinching / hanging". The space detection unit 112 generates detection information including the state determination of "pinching / hanging" for this detection target.
  • Step S211 The space detection unit 112 obtains the movement amount for each of two or more parts to be detected.
  • the space detection unit 112 obtains the maximum movement amount from the obtained movement amount.
  • Step S212 The space detection unit 112 determines the state of the fall of the detection target based on the maximum movement amount. When the state is determined to be a fall, the space detection unit 112 shifts the operation to step S213. If the state is not determined to be a fall, the space detection unit 112 shifts the operation to step S214.
  • Step S213 The space detection unit 112 generates detection information including the "fall" state determination for the detection target whose state is determined to be a fall.
  • Step S214 The space detection unit 112 determines whether or not the detection information has been generated. When the detection information is generated, the space detection unit 112 shifts the operation to step S215.
  • the space detection unit 112 determines whether the detection information is generated, the space detection unit 112 is not found, the space detection unit 112 does not find the detection target to be notified at this time. Therefore, the space detection unit 112 returns to the operation in step S202 in order to continue the space detection of the detection target.
  • Step S215 The output unit 122 acquires the detection information generated by the space detection unit 112.
  • the output unit 122 outputs the acquired detection information to the monitoring terminal 220.
  • the output unit 122 causes the monitoring terminal to display a display screen indicating "what number home / number car" as related information of the position to be detected.
  • the space detection unit 112 entrusts the output processing to the output unit 122, the space detection unit 112 continuously executes the space detection of the detection target, so that the operation is returned to step S202.
  • the space detection operation in the space detection system 100 is performed.
  • FIG. 10 is a diagram illustrating space detection by the detection surface P1.
  • the detection surface P1 facing upward is set with respect to the detection spaces S1 and S2 below the station platform.
  • falling from the station platform is not only the state of completely falling from the station platform, but also the state of falling and being caught in the gap between the station platform and the vehicle, or the state of falling and hanging from the station platform. Also includes.
  • the space detection unit 112 detects a person who has fallen from the station platform as a "detection target entering from the detection surface P1".
  • a work passage (see Fig. 3) is provided under the station platform.
  • the worker under the station platform routinely carries out water supply work, inspection and maintenance, etc. from the work passage to the vehicle. At that time, the worker goes in and out of the detection spaces S1 and S2. However, since the detection surface P1 faces upward, the operator does not pass through the detection surface P1. Therefore, the space detection unit 112 does not detect the worker as a "detection target entering from the detection surface P1".
  • FIG. 11 is a diagram for explaining the state determination by the “plurality of detection surfaces P1 and P2”.
  • the space detection unit 112 detects the detection target F entering from the detection surface P1.
  • the space detection unit 112 tracks the detected detection target F in a subsequent frame.
  • the space detection unit 112 determines the state of "pinching / hanging". If the vehicle is stopped at the station platform, this state determination is determined as "a state in which a fallen person is caught in the gap between the station platform and the vehicle". Further, if the vehicle is not stopped at the station platform, this state determination is determined as "a state in which a fallen person is hanging from the station platform".
  • FIG. 12 is a diagram showing the height transition of a falling object (doll) 3 m away.
  • This doll is falling with its limbs moving freely. Therefore, even if the center of gravity of the doll shows the height transition due to free fall, the height transition of the uppermost end of the doll is only 5.7 cm due to the vertical elongation of the doll (the doll in the hurray state) due to the movement of the limbs. Not detected. With such a height transition, it becomes difficult to determine the state of "falling".
  • FIG. 13 is a diagram showing a assumed volume transition when the doll falls behind the shield.
  • FIG. 14 is a diagram showing an example of a display screen of the monitoring terminal 220.
  • the video display area is turned off.
  • the "sensor position of the TOF camera 110 that issued the detection information (hereinafter referred to as” alarm camera ")", “position of the shooting range of the alarm camera”, or "the alarm camera Information about the position of the detection target such as "the position of the detected detection target” is displayed on the display screen.
  • the output unit 122 causes the monitoring terminal 220 to display information on the position to be detected on the monitoring terminal 220 based on the position of the transportation means such as the platform number and the car number.
  • the image of the alarm camera (distance image or visible image of the attached camera) is repeatedly played back via the image buffer memory.
  • the result of the state judgment (for example, "falling” or "pinching / hanging") is displayed in text or pictorial display near the detection target.
  • the display area of this video may be switchable to a map display or guidance display inside the station.
  • a switching display makes it possible to guide the user of the monitoring terminal 220 to the position of the detection target.
  • the output unit 122 notifies the user of the monitoring terminal 220 and the surrounding people of an emergency alarm via an alarm voice or a rotating light. Such an emergency alert continues until the confirmation button on the right side of the display screen is pressed.
  • the "detection target entering from the detection surface” is detected by selecting the distance image based on the spatial position information of the detection surface. Therefore, it is possible to specify the approach route of the detection target by the detection surface and make the non-object that does not pass through the detection surface non-detection.
  • the distance image sensor units 111 are distributed and arranged at a plurality of locations so as to cover the detection space of the transportation system. Therefore, even though the detection space is wide, finely detailed space detection becomes possible by sharing the distance image sensor unit 111 for each unit.
  • the output unit 122 causes the monitoring terminal to display a display screen indicating the position of the transportation means such as the platform number and the car number as the information regarding the position of the detection target.
  • the user of the monitoring terminal 220 can quickly and appropriately grasp the position of the detection target.
  • the distance image sensor unit 111 generates a distance image including depth information for the detection space below the station platform. Therefore, it is possible to detect a user who has fallen from the station platform without being affected by the congestion status on the station platform.
  • a surface facing upward in the detection space is stored as a detection surface. Therefore, it is possible to detect a "falling person from the station platform" entering the detection space from above. Furthermore, since it does not detect “workers under the station platform” entering and exiting the side of the detection space, it is possible to reduce false alarms.
  • the range of the detection surface is limited and stored according to the open position of the platform door installed on the station platform. Therefore, it is possible to detect a fallen person only in the open position of the platform door.
  • a plurality of detection surfaces are set in the detection space, and the state of the detection target is determined based on the positional relationship between the detection target and the plurality of detection surfaces. In this case, it is possible to determine the state of the detection target in detail depending on the combination condition of the plurality of detection surfaces.
  • the movement amount is obtained for each of two or more parts of the detection target, and the state of the detection target is determined based on the plurality of movement amounts. Therefore, even if the fallen person moves his / her limbs, the moving speed can be determined more accurately.
  • the volume determination regarding the detection target is performed over a plurality of frames, and those having a volume less than a predetermined volume in the plurality of frames are excluded from the detection targets. Therefore, even if the detection target is lost during tracking, the detection target does not disappear, and the detection state can be continued for the time being as the detection target.
  • the TOF type distance image sensor unit 111 is used.
  • the present invention may generate a distance image including depth information.
  • a multi-lens imaging device such as a stereo camera, an imaging device having a pupil division optical system for each pixel, a LIDAR device (Laser Imaging Detection and Ringing), and an imaging device equipped with an active ranging method or a passive ranging method.
  • a LIDAR device Laser Imaging Detection and Ringing
  • an imaging device equipped with an active ranging method or a passive ranging method can also be used as the distance image sensor unit 111.
  • space detection may be performed only during the period when the platform door is open. Since there is a low possibility that the user will fall while the platform door is closed, it is possible to reduce false positives by not performing space detection during the period when the platform door is closed. Furthermore, the vehicle does not move while the platform door is open. Therefore, it is possible to reduce false positives due to the movement of vehicles entering or leaving the station platform.
  • a visible camera may be used in combination. Since the visible camera can acquire information on the color and shape of the detection target, the user of the monitoring terminal 220 can appropriately grasp the situation of the detection target by displaying the image of the visible camera on the monitoring terminal 220. become. Further, for the detection target spatially detected from the distance image, the identity of the detection target can be automatically recognized by recognizing the corresponding area of the image of the visible camera as the subject.
  • the space detection unit 112, the detection surface setting unit 121, and the output unit 122 may be configured as a computer system equipped with a CPU (Central Processing Unit), a memory, or the like as hardware.
  • CPU Central Processing Unit
  • this hardware executes a program, various functions of the space detection system 100 are realized.
  • dedicated equipment general-purpose machine learning machines, DSP (Digital Signal Processor), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit), PLD (programmable logic device) You may substitute with.
  • DSP Digital Signal Processor
  • FPGA Field-Programmable Gate Array
  • GPU Graphics Processing Unit
  • PLD programmable logic device
  • the present invention is not limited to the above-mentioned Example 1, and includes various modifications. For example, it is possible to add / delete / replace a part of the configuration of the embodiment with another configuration.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Alarm Systems (AREA)

Abstract

本発明は、検知対象が所定の空間に入ったことを検知するための空間検知の技術を提供することを目的とする。上記課題を解決するために、本発明の代表的な空間検知システムの一つは、 距離画像センサ部、検知面設定部、空間検知部、および出力部を備える。前記距離画像センサ部は、検知空間を含む撮影範囲について奥行き情報を含む距離画像を生成する。前記検知面設定部は、前記検知空間内の所定の検知面に関して3次元空間上の空間位置情報を記憶する。前記空間検知部は、前記距離画像を、前記検知面の前記空間位置情報に基づいて選別することによって、「前記検知面から進入する検知対象」を検知する。前記出力部は、前記空間検知部において検知された前記検知対象について検知情報を出力する。

Description

空間検知システム、および空間検知方法
 本発明は、空間検知システム、および空間検知方法に関する。
 従来、交通機関では、利用者が駅ホームと車両の隙間に転落するなどの事態が危惧される。
 このような事態が発生した場合、利用者を救助するため、事態の迅速な検知が望まれる。
 なお、特許文献1には、『移動する物体が入ったことを認識する物体認識範囲を監視対象範囲の周囲に設定する段階と、物体認識範囲内に入った物体があればその物体を認識する段階と、認識した物体が監視対象範囲内に侵入したときに警報信号を出力する段階と、を有する侵入監視方法』旨の技術が開示される。
特開2018-181114号公報
 特許文献1の技術によれば、監視対象範囲の周囲にいる一人を物体認識範囲において事前に認識する。そのため、その一人が監視対象範囲に侵入した瞬間を検知することが可能になる。
 一方、駅ホームでは、混雑する車両ドア付近を多数の利用者が連なって出入りすることが多い。特許文献1の技術において、この混雑した集団の一人ずつを事前に認識することは困難であった。さらに、混雑に紛れて一人が駅ホームと車両の隙間に転落する一瞬を検知することも困難であった。この点において、特許文献1の技術には改善の余地があった。
 そこで、本発明は、検知対象が所定の空間に入ったことを検知するための空間検知の技術を提供することを目的とする。
 上記課題を解決するために、本発明の代表的な空間検知システムの一つは、 距離画像センサ部、検知面設定部、空間検知部、および出力部を備える。
 前記距離画像センサ部は、検知空間を含む撮影範囲について奥行き情報を含む距離画像を生成する。
 前記検知面設定部は、前記検知空間内の所定の検知面に関して3次元空間上の空間位置情報を記憶する。
 前記空間検知部は、前記距離画像を、前記検知面の前記空間位置情報に基づいて選別することによって、「前記検知面から進入する検知対象」を検知する。
 前記出力部は、前記空間検知部において検知された前記検知対象について検知情報を出力する。
 本発明では、検知対象が所定の空間に入ったことを検知することが可能になる。
 上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
図1は、空間検知システムの構成を説明するブロック図である。 図2は、TOFカメラの設置状況を説明する図である。 図3は、TOFカメラの撮影範囲を模式的に示す図である。 図4は、検知面設定部による検知面の設定動作を説明する流れ図である。 図5は、「車両存在時の検知空間S1」の稜線(図中の太線部分)を示す図である。 図6は、「車両不在時の検知空間S2」の稜線(図中の太線部分)を示す図である。 図7は、検知面P1,P2を示す図である。 図8は、空間検知システムにおける空間検知の動作を説明する流れ図(1/2)である。 図9は、空間検知システムにおける空間検知の動作を説明する流れ図(2/2)である。 図10は、検知面による空間検知を説明する図である。 図11は、複数の検知面による状態判定を説明する図である。 図12は、3m先の落下物(人形)の高さ推移を示す図である。 図13は、人形が遮蔽物の後ろに転落する場合について想定される体積推移を示す図である。 図14は、監視端末の表示画面の一例を示す図である。
 以下、図面を参照して、本発明の実施例を説明する。なお、本開示において「距離画像」とは、二次元の画像情報に加えて奥行き情報を含む三次元座標空間に展開可能な画像情報に相当する。また、「検知空間」とは、検知対象の検知を実行する空間範囲に相当する。「検知面」とは、検知空間内に張ることが可能な面であって、検知対象を検出する進入口を規定する面に相当する。
<実施例1の構成>
 図1は、空間検知システム100の構成を説明するブロック図である。
 同図に示すように、空間検知システム100は、TOFカメラ110、管理サーバ120、駅管理システム210、および監視端末220を備える。これらの機能部は、無線または有線のネットワークを介して信号接続される。
 TOFカメラ110は、距離画像センサ部111、および空間検知部112を備える。また、管理サーバ120は、検知面設定部121、および出力部122を備える。
 この距離画像センサ部111は、TOF(Time Of Flight)方式の距離画像センサであり、赤外線の周期光を照射する照明光源と、赤外線を撮像する撮像部とを備える。光源から照射される赤外線の周期光は、被写体までの距離に応じて位相変調されて撮像部に戻る。撮像部は、この位相変調された光を所定の露光間隔ごとに周期的に撮像する。その結果、被写体距離に応じて位相変調された被写体像は撮像部の周期的な露光間隔との位相ズレの分だけ明暗変調され、被写体距離に応じた明暗変化が受光画素の画素出力に重畳する。この明暗変化の重畳分を検出することにより、受光画素の単位に被写体距離を求めることができる。このような動作原理により、距離画像センサ部111は、検知空間を含む撮影範囲を撮影することにより、奥行き情報を含む距離画像を生成する。
 特に、TOF方式は、赤外の照明光源を使用するため、駅ホーム下のように暗い場所での運用に適している。また、駅ホーム下には回転灯などが存在し、直射光がカメラに入射するなど撮影が困難になるケースが想定される。しかしながら、赤外域を撮像する距離画像センサ部111は、可視域のカットフィルタを装着できるため、回転灯などの影響を軽減することが可能になる。
 検知面設定部121は、検知空間内の所定の検知面に関して3次元空間上の空間位置情報を記憶する。
 空間検知部112は、距離画像センサ部111によって生成される距離画像を逐次に取得する。空間検知部112は、これらの距離画像の画素を3次元座標空間に展開し、検知面の空間位置情報に基づいて選別する。その結果、空間検知部112は、距離画像に現れる被写体の中で「検知面から進入する検知対象」を検知する。
 出力部122は、検知された検知対象について検知情報を、駅管理システム210および監視端末220へ出力する。
 駅管理システム210は、駅の運行管理を行うシステムであり、駅ホームに対する車両の進入・停止・発車を時間管理すると共に、ホームドアや車両ドアの開閉情報を管理する。なお、駅管理システム210は、出力部122からの検知情報を対応可能な機関に発報する機能を有する。また、駅管理システム210や管理サーバ120は、検知情報のログ履歴を保存することにより、発報事象の解析を行うことを可能にしてもよい。解析を行うことで誤報となる条件に対処して空間検知システム100を改善することが可能になる。
 監視端末220は、駅の監視室に設置されるパソコン端末や、駅員が所持する携帯型のコンピュータ端末であり、GUI画面(Graphical User Interface)の表示機能と、音声による警報機能と、操作入力の機能などを備える。
 図2は、TOFカメラ110の設置状況を説明する図である。
 同図において、TOFカメラ110は、駅ホームより下側を撮影するように、駅ホームの裏面側に設置される。駅ホームと車両との隙間の直下の空間を奥行き数メートル~数十メートル(実質は距離画像センサ部111の照明光源の赤外照明光が届く撮影可能範囲)に渡って効率的に撮影できるよう、駅ホームと線路との境界寄りに設置される。また、TOFカメラ110は、駅ホーム上から線路に落下した利用者を撮影画角に収めるように撮影範囲が調整される。
 図3は、このTOFカメラ110の撮影範囲を模式的に示す図である。
 このようなTOFカメラ110は、長尺状の駅ホームおよび線路に沿って設けられる検知空間をカバーするように、駅ホームに沿って複数箇所に分散して配置される。
<検知面P1,P2の設定>
 続いて、検知面設定部121の動作について説明する。
 図4は、検知面設定部121による検知面P1,P2の設定動作を説明する流れ図である。
 以下、同図に示すステップ番号の順番に説明する。
ステップS100: 距離画像センサ部111は、平時の撮影範囲(転落者のいない背景のみの撮影範囲)について、奥行き情報を含む距離画像を生成する。空間検知部112は、この距離画像を「背景画像」として記憶する。
ステップS101: 検知面設定部121は、空間検知部112から背景画像を取得する。検知面設定部121は、背景画像に含まれる「駅ホームの裏面」の画素を3次元座標空間に展開することによって、「駅ホームの高さH1」を検出する。また、検知面設定部121は、背景画像に含まれる「線路面」の画素を3次元座標空間に展開することにより、「線路面の高さH2」を検出する。
ステップS102: 検知面設定部121は、背景画像の画素を3次元座標空間に展開することによって、「駅ホームと車両との隙間に転落する検知対象」の通過幅R1を検出する。通過幅R1の一端は、駅ホームに停車した車両の側面に相当する。通過幅R1の他端は、「駅ホームと車両との隙間に転落する検知対象」が転げ落ちる際に通過する範囲に相当する。
ステップS103: 検知面設定部121は、「駅ホームの高さH1」、「線路面の高さH2」、および通過幅R1で囲まれる空間を含むように、「車両存在時の検知空間S1」を設定する。
 図5は、このように設定された「車両存在時の検知空間S1」の稜線(図中の太線部分)を示す図である。
 同図に示すように、検知空間S1を長尺方向に分断した断面には、高さH2から高さH1までの縦の線分と、通過幅R1の横の線分が収まる。
ステップS104: 検知面設定部121は、背景画像の画素を3次元座標空間に展開することによって、「駅ホームから転落する検知対象」の通過幅R2を検出する。通過幅R2は、通過幅R1に比べて、車両不在の分だけ線路側へ拡幅される。
ステップS105: 検知面設定部121は、「駅ホームの高さH1」、「線路面の高さH2」、および通過幅R2で囲まれる空間を含むように、「車両不在時の検知空間S2」を設定する。
 図6は、このように設定された「車両不在時の検知空間S2」の稜線(図中の太線部分)を示す図である。
 同図に示すように、検知空間S2を長尺方向に分断した断面には、高さH2から高さH1までの縦の線分と、通過幅R2の横の線分が収まる。
ステップS106: 検知面設定部121は、検知空間S1,S2それぞれにおいて、上方に向いた面を複数配置し、検知面P1,P2とする。
 図7は、このように設定された検知面P1,P2を示す図である。
 同図において、検知面P1は、駅ホームにぶら下がる人が交差する高さに設けられた面である。検知面P2は、駅ホームから落下する人が通過する高さに設けられた面である。
 検知面設定部121は、検知空間S1,S2それぞれについて、検知面P1,P2の3次元空間上の空間位置情報を記憶する。
 上述した一連の動作によって、検知面設定部121による検知面P1,P2の設定動作が完了する。
<空間検知の動作>
 次に、空間検知の動作について説明する。
 図8および図9は、空間検知システム100における空間検知の動作を説明する流れ図である。
 以下、これらの図に示すステップ番号の順番に説明する。
ステップS201: 距離画像センサ部111は、所定のフレームレートで撮影を開始し、撮影範囲について奥行き情報を含む距離画像を逐次生成する。
ステップS202: 空間検知部112は、逐次生成される距離画像から、ステップS100で記憶した背景画像に類似した画素パターンを除去する(背景除去)。
ステップS203: 空間検知部112は、駅管理システム210に情報を照会し、車両ドア(またはホームドア)の開閉情報や、車両の有無情報を取得する。
 ここで、駅ホームに車両が不在の場合、空間検知部112は、ステップS204に動作を移行する。
 一方、車両ドア(またはホームドア)が開状態の場合、駅ホームに車両が停車中であると判断できる。その場合、空間検知部112は、ステップS205に動作を移行する。
ステップS204: ここでは、駅ホームに車両が不在のため、空間検知部112は「車両不在時の検知空間S2」を選択する。この動作の後に、空間検知部112は、ステップS206に動作を移行する。
ステップS205: ここでは、駅ホームに車両が停車中のため、空間検知部112は「車両存在時の検知空間S1」を選択する。この動作の後に、空間検知部112は、ステップS206に動作を移行する。
ステップS206: 空間検知部112は、背景除去された距離画像を画素単位に3次元座標空間に展開し、検知面P1の空間位置情報に基づいて選別することによって、検知面P1から進入する検知対象を検知する。
ステップS207: 空間検知部112は、ステップS206で検知された検知対象を複数フレームに渡って追跡し、複数フレームのいずれにおいても所定の体積に満たないものを検知対象から除く。その結果、検知対象からは、雨や雪や虫などが除かれる。ここでの体積判定には、検知対象を3次元座標空間上に展開した画素の空間分布を直方体などで包括して簡易計算するものでもよい。
ステップS208: 空間検知部112は、検知対象と複数の検知面P1,P2との位置関係に基づいて、検知対象の状態判定を行う。
ステップS209: このような状態判定の一つとして、空間検知部112は、複数フレームに渡って検知対象が検知面P1の交差位置に留まるか否かを判定する。
 空間検知部112は、検知面P1との交差位置に留まる検知対象に対して、ステップS210の処理を行う。
 空間検知部112は、検知面P1との交差位置に留まらない検知対象に対しては、ステップS211に動作を移行する。
ステップS210: 空間検知部112は、検知面P1との交差位置に留まる検知対象に対して、”挟まり・ぶら下がり”と状態判定を行う。空間検知部112は、この検知対象について、”挟まり・ぶら下がり”の状態判定を含めた検知情報を生成する。
ステップS211: 空間検知部112は、検知対象の2箇所以上の部分についてそれぞれ移動量を求める。空間検知部112は、求めた移動量の中から最大移動量を得る。
ステップS212: 空間検知部112は、検知対象について最大移動量による落下の状態判定を行う。落下と状態判定された場合、空間検知部112は、ステップS213に動作を移行する。落下と状態判定されない場合、空間検知部112はステップS214に動作を移行する。
ステップS213: 空間検知部112は、落下と状態判定された検知対象について、”落下”の状態判定を含めた検知情報を生成する。
ステップS214: 空間検知部112は、検知情報が生成されたか否かを判定する。
 検知情報の生成があった場合、空間検知部112はステップS215に動作を移行する。
 一方、検知情報の生成がない場合、空間検知部112は、現時点において、報知すべき検知対象を発見しない。そこで、空間検知部112は、検知対象の空間検知を継続するため、ステップS202に動作を戻す。
ステップS215: 出力部122は、空間検知部112が生成した検知情報を取得する。出力部122は、取得した検知情報を監視端末220に出力する。このとき、出力部122は、検知対象の位置の関連情報として、「何番ホーム・何号車」を示す表示画面を監視端末に表示させる。一方、空間検知部112は、出力部122に出力処理を任せると、検知対象の空間検知を継続的に実行するため、ステップS202に動作を戻す。
 以上の一連の動作により、空間検知システム100における空間検知の動作が実施される。
<上方を向いた検知面P1による空間検知>
 ここで、上述した検知面P1による空間検知についてさらに説明する。
 図10は、検知面P1による空間検知を説明する図である。
 同図において、駅ホームより下側の検知空間S1,S2に対して、上方を向いた検知面P1が設定される。
 ここで、駅ホームからの「転落」とは、駅ホームから完全に落下した状態のみではなく、駅ホームと車両の隙間に転落して挟まった状態や、駅ホームから転落してぶら下がっている状態も含む。
 この場合、駅ホームからの転落者は、図10[A]に示すように、落下・挟まり・ぶら下がりのいずれの場合も検知面P1から進入する。そのため、空間検知部112は、駅ホームからの転落者を、「検知面P1から進入する検知対象」として検知する。
 一方、駅ホームの下側には、作業通路(図3参照)が設けられる。図10[B]に示すように、駅ホーム下の作業者は、作業通路から車両に対して、給水作業や点検保守などを日常的に実施する。その際に、作業者は、検知空間S1,S2に対して出入りすることになる。しかしながら、検知面P1は上方を向いているため、作業者は検知面P1を通過しない。したがって、空間検知部112は、作業者を、「検知面P1から進入する検知対象」としては検知しない。
<複数の検知面P1,P2による状態判定>
 さらに、上述した「複数の検知面P1,P2」についてさらに説明する。
 図11は、「複数の検知面P1,P2」による状態判定を説明する図である。
 図11[A]は、第1フレームにおいて、空間検知部112は、検知面P1から進入する検知対象Fを検知する。空間検知部112は、検知された検知対象Fについて、その後のフレームにおいて追跡を行う。
 図11[B]の場合、その後のフレームにおいて、追跡された検知対象Fが検知面P1に留まるケースである。この場合、空間検知部112は、”挟まり・ぶら下がり”の状態判定を行う。駅ホームに車両が停車中の場合であれば、この状態判定は「駅ホームと車両との隙間に転落者が挟まっている状態」と状態判定される。また、駅ホームに車両が停車していない場合であれば、この状態判定は「駅ホームに転落者がぶら下がっている状態」と状態判定される。
<検知対象の複数箇所の移動量による状態判定>
 続いて、上述した検知対象の最大移動量による状態判定についてさらに説明する。
 図12は、3m先の落下物(人形)の高さ推移を示す図である。
 この人形は、手足が自由に動く状態で落下している。そのため、人形の重心については自由落下による高さ推移を示しても、人形の最上端については、手足の動きによる人形の縦伸び(万歳状態の人形)に紛れて5.7cmの高さ推移しか検出されない。この程度の高さ推移では、”落下”の状態判定は困難になる。
 しかしながら、人形の最下端については、20cmの高さ推移が検出される。そこで、一つの検知対象について複数箇所の移動量を求め、複数箇所の移動量を勘案することにより、”落下”の状態判定が正確になる。
 人間の場合も、転落中に手足を動かすことが想定されるため、複数箇所の移動量による状態判定は有効である。
<複数フレームに渡る体積判定>
 次に、上述した複数フレームに渡る体積判定についてさらに説明する。
 図13は、人形が遮蔽物の後ろに転落する場合について想定される体積推移を示す図である。
 同図において、第1フレームでは、人形は遮蔽物に隠れる前のため、有意な体積が検知可能である。一方、第2フレーム以降は、人形は遮蔽物に隠れるため、有意な体積は検知できない。
 このように検知空間に遮蔽物がある場合、空間検知部112は、複数フレームに渡る体積判定において1フレームでも有意な体積が検知されれば、検知対象からは除かない。
<監視端末220の表示画面>
 続いて、上述した監視端末220の表示画面についてさらに説明する。
 図14は、監視端末220の表示画面の一例を示す図である。
 平時においては、映像表示エリアは消灯する。検知情報が発報された場合、「検知情報を発報したTOFカメラ110(以下「発報カメラという」)のセンサ位置」、「発報カメラの撮影範囲の位置」、または「発報カメラが検知した検知対象の位置」などの検知対象の位置に関する情報が表示画面に表示される。
 この場合、出力部122は、検知対象の位置に関する情報を、何番ホームや何号車などの前記交通機関の位置を基準に示す表示画面を監視端末220に表示させる。
 さらに、発報カメラの映像(距離画像または併設カメラの可視映像)が映像バファメモリを介して繰り返し再生される。
 この映像の表示領域内には、検知対象の近くに状態判定の結果(例えば、”落下”や”挟まり・ぶら下がり”)が、テキストや絵表示などで表示される。
 なお、この映像の表示領域を、駅構内の地図表示や案内表示に切り替え可能にしてもよい。このような切り替え表示によって、監視端末220の利用者を検知対象の位置まで誘導することが可能になる。
 また、出力部122は、警報音声や回転灯を介して、監視端末220の利用者および周囲の人々に緊急警報を知らせる。
 このような緊急警報は、表示画面の向かって右側の確認ボタンを押すまで継続される。
<実施例1のその他効果について>
(1)実施例1では、距離画像を、検知面の空間位置情報に基づいて選別することによって、「検知面から進入する検知対象」を検知する。したがって、検知対象の進入経路を検知面によって特定して、検知面を通らない非対象物を非検知にすることが可能になる。
(2)実施例1では、距離画像センサ部111を、交通機関の検知空間をカバーするように、複数箇所に分散して配置する。そのため、広範囲の検知空間でありながら、1台1台の距離画像センサ部111が分担することによって、細かく目の行き届いた空間検知が可能になる。
(3)実施例1では、出力部122は、検知対象の位置に関する情報として、何番ホームや何号車などの交通機関の位置を基準に示す表示画面を監視端末に表示させる。このような交通機関に合わせた変換表示の機能により、監視端末220の利用者は、検知対象の位置を迅速かつ適切に把握することが可能になる。
(4)実施例1では、距離画像センサ部111は、駅ホームより下側の検知空間について、奥行き情報を含む距離画像を生成する。そのため、駅ホーム上の混雑状況に影響されずに、駅ホームから転落する利用者を検知することが可能になる。
(5)実施例1では、検知空間内の上方を向いた面を検知面として記憶する。したがって、検知空間に上方から進入する「駅ホームからの転落者」を検知することが可能になる。さらに、検知空間の側方を出入りする「駅ホーム下の作業者」を検知しないため、誤報を減らすことが可能になる。
(6)実施例1では、駅ホームに設置されるホームドアの開位置に応じて検知面の範囲を制限して記憶する。そのため、ホームドアの開位置に限定して、転落者を検知することが可能になる。
(7)実施例1では、検知空間内において複数の検知面を設定し、検知対象と複数の検知面との位置関係に基づいて検知対象の状態判定を行う。この場合、複数の検知面の組み合わせ条件によって検知対象の状態判定を詳細に行うことが可能になる。
(8)実施例1では、検知対象の2箇所以上の部分について移動量をそれぞれ求め、複数の移動量に基づいて検知対象の状態判定を行う。そのため、転落者が手足を動かしても、移動速度をより正確に判断することが可能になる。
(9)実施例1では、検知対象に関する体積判定を複数フレームに渡って行い、複数フレームにおいていずれも所定の体積に満たないものを検知対象から除く。したがって、追跡途中で検知対象を見失っても、検知対象が消滅するわけではないため、検知対象として検知状態を当座は継続することが可能になる。
<実施形態の補足事項>
 なお、上述した実施形態では、空間検知システムを鉄道に適用するケースについて説明した。しかしながら、本発明はこれに限定されない。例えば、バス、空港、港湾、タクシー、ドローンなどの交通機関全般に適用が可能である。
 また、上述した実施形態では、TOF方式の距離画像センサ部111を使用する。しかしながら、本発明は、奥行き情報を含む距離画像を生成するものであればよい。例えば、ステレオカメラなどの多眼撮像装置や、画素単位に瞳分割光学系を有する撮像装置や、LIDAR装置(Laser Imaging Detection and Ranging)や、アクティブ測距方式やパッシブ測距方式を備えた撮像装置なども距離画像センサ部111として使用可能である。
 なお、上述した実施形態において、ホームドアが開状態の期間のみ、空間検知を行ってもよい。ホームドアが閉じている期間は、利用者が転落する可能性ひくいため、ホームドアの閉じている期間に空間検知を行わないことによって誤検知を減らすことが可能になる。さらに、ホームドアが開状態の期間は車両が動くことはない。そのため、駅ホームに進入または出発する車両の動きによる誤検知を減らすことが可能になる。
 また、上述した実施形態において、可視カメラを併用してもよい。可視カメラは、検知対象の色や形の情報を取得できるため、可視カメラの映像を監視端末220に表示することにより、監視端末220の利用者は検知対象の状況を適切に把握することが可能になる。また、距離画像から空間検知された検知対象について、可視カメラの映像の対応領域を被写体認識することにより、検知対象の正体を自動的に認識することも可能になる。
 さらに、空間検知部112、検知面設定部121、および出力部122は、ハードウェアとしてCPU(Central Processing Unit)やメモリなどを備えたコンピュータシステムとして構成してもよい。このハードウェアがプログラムを実行することにより、空間検知システム100の各種機能が実現する。このハードウェアの一部または全部については、専用の装置、汎用の機械学習マシン、DSP(Digital Signal Processor)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)、PLD(programmable logic device)などで代替してもよい。また、ハードウェアの一部または全部をネットワーク上のサーバに集中または分散してクラウド配置することにより、距離画像センサ部を設置した交通機関それぞれがネットワークを介して空間検知システムを共同使用してもよい。
 なお、本発明は上記した実施例1に限定されるものではなく、様々な変形例が含まれる。例えば、実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 また例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
100…空間検知システム、110…TOFカメラ、111…距離画像センサ部、112…空間検知部、120…管理サーバ、121…検知面設定部、122…出力部、210…駅管理システム、220…監視端末

Claims (9)

  1.  検知空間を含む撮影範囲について奥行き情報を含む距離画像を生成する距離画像センサ部と、
     前記検知空間内の所定の検知面に関して3次元空間上の空間位置情報を記憶する検知面設定部と、
     前記距離画像を、前記検知面の前記空間位置情報に基づいて選別することによって、「前記検知面から進入する検知対象」を検知する空間検知部と、
     前記空間検知部において検知された前記検知対象について検知情報を出力する出力部と
     を備えたことを特徴とする空間検知システム。
  2.  請求項1に記載の空間検知システムであって、
     前記距離画像センサ部は、交通機関を含む撮影範囲について、奥行き情報を含む前記距離画像を生成し、
     前記出力部は、前記空間検知部において検知された前記検知対象について前記検知情報を前記交通機関の監視端末に送出する
     ことを特徴とする空間検知システム。
  3.  請求項2に記載の空間検知システムであって、
     前記距離画像センサ部は、前記交通機関の前記検知空間をカバーするように、複数箇所に分散して配置され、
     前記出力部は、前記検知対象の位置に関する情報として、何番ホームや何号車などの前記交通機関の位置を基準に示す表示画面を前記監視端末に表示させる
     ことを特徴とする空間検知システム。
  4.  請求項2~3のいずれか一項に記載の空間検知システムであって、
     前記距離画像センサ部は、駅ホームより下側の前記検知空間について、奥行き情報を含む前記距離画像を生成し、
     前記検知面設定部は、前記検知空間内の上方を向いた面を前記検知面として記憶することによって、前記検知空間に上方から進入する「駅ホームからの転落者」を検知し、前記検知空間の側方を出入りする「駅ホーム下の作業者」を検知しない
     ことを特徴とする空間検知システム。
  5.  請求項4に記載の空間検知システムであって
     前記検知面設定部は、前記駅ホームに設置されるホームドア(platform gate)の開位置に応じて前記検知面の範囲を制限して記憶する
     ことを特徴とする空間検知システム。
  6.  請求項1~5のいずれか一項に記載の空間検知システムであって、
     前記検知面設定部は、前記検知空間内において複数の前記検知面を記憶し、
     前記空間検知部は、前記検知対象と複数の前記検知面との位置関係に基づいて前記検知対象の状態判定を行い、
     前記出力部は、状態判定の結果を含めた前記検知情報を出力する
     ことを特徴とする空間検知システム。
  7.  請求項1~6のいずれか一項に記載の空間検知システムであって、
     前記空間検知部は、前記検知対象の2箇所以上の部分について移動量をそれぞれ求め、複数の前記移動量に基づいて前記検知対象の状態判定を行い、
     前記出力部は、状態判定の結果を含めた前記検知情報を出力する
     ことを特徴とする空間検知システム。
  8.  請求項1~7のいずれか一項に記載の空間検知システムであって、
     前記空間検知部は、前記検知対象に関する体積判定を複数フレームに渡って行い、前記複数フレームにおいていずれも所定の体積に満たないものを前記検知対象から除く
     ことを特徴とする空間検知システム。
  9.  検知空間を含む撮影範囲について奥行き情報を含む距離画像を生成する距離画像生成ステップと、
     前記検知空間内の所定の検知面に関して3次元空間上の空間位置情報を記憶する検知面設定ステップと、
     前記距離画像を、前記検知面の前記空間位置情報に基づいて選別することによって、「前記検知面から進入する検知対象」を検知する空間検知ステップと、
     前記空間検知ステップにおいて検知された前記検知対象について検知情報を出力する出力ステップと
     を備えたことを特徴とする空間検知方法。
PCT/JP2019/037541 2019-09-25 2019-09-25 空間検知システム、および空間検知方法 WO2021059385A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2019/037541 WO2021059385A1 (ja) 2019-09-25 2019-09-25 空間検知システム、および空間検知方法
JP2021548034A JP7219820B2 (ja) 2019-09-25 2019-09-25 空間検知システム、および空間検知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/037541 WO2021059385A1 (ja) 2019-09-25 2019-09-25 空間検知システム、および空間検知方法

Publications (1)

Publication Number Publication Date
WO2021059385A1 true WO2021059385A1 (ja) 2021-04-01

Family

ID=75165635

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/037541 WO2021059385A1 (ja) 2019-09-25 2019-09-25 空間検知システム、および空間検知方法

Country Status (2)

Country Link
JP (1) JP7219820B2 (ja)
WO (1) WO2021059385A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004058737A (ja) * 2002-07-25 2004-02-26 National Institute Of Advanced Industrial & Technology 駅ホームにおける安全監視装置
JP2013063693A (ja) * 2011-09-16 2013-04-11 Nippon Signal Co Ltd:The 可動ステップ付きプラットホームドア装置
JP2013100009A (ja) * 2011-11-08 2013-05-23 Nippon Signal Co Ltd:The ホーム転落通知システム
JP2014055925A (ja) * 2012-09-14 2014-03-27 Omron Corp 画像処理装置、オブジェクト検出方法、およびオブジェクト検出プログラム
JP2016094027A (ja) * 2014-11-12 2016-05-26 株式会社Jr西日本テクシア 軌道接近警告システム
JP2017019351A (ja) * 2015-07-09 2017-01-26 オムロン株式会社 転落者検知装置、転落者検知システム、転落者検知方法、および転落者検知プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004058737A (ja) * 2002-07-25 2004-02-26 National Institute Of Advanced Industrial & Technology 駅ホームにおける安全監視装置
JP2013063693A (ja) * 2011-09-16 2013-04-11 Nippon Signal Co Ltd:The 可動ステップ付きプラットホームドア装置
JP2013100009A (ja) * 2011-11-08 2013-05-23 Nippon Signal Co Ltd:The ホーム転落通知システム
JP2014055925A (ja) * 2012-09-14 2014-03-27 Omron Corp 画像処理装置、オブジェクト検出方法、およびオブジェクト検出プログラム
JP2016094027A (ja) * 2014-11-12 2016-05-26 株式会社Jr西日本テクシア 軌道接近警告システム
JP2017019351A (ja) * 2015-07-09 2017-01-26 オムロン株式会社 転落者検知装置、転落者検知システム、転落者検知方法、および転落者検知プログラム

Also Published As

Publication number Publication date
JPWO2021059385A1 (ja) 2021-04-01
JP7219820B2 (ja) 2023-02-08

Similar Documents

Publication Publication Date Title
JP7314974B2 (ja) 映像監視システム、映像監視方法、及びプログラム
JP6631619B2 (ja) 映像監視システム及び映像監視方法
JP3876288B2 (ja) 状態認識システムおよび状態認識表示生成方法
KR102122859B1 (ko) 교통 영상감시시스템의 멀티 표적 추적 방법
KR101788269B1 (ko) 이상 상황을 감지하는 장치 및 방법
US20110285851A1 (en) Intruder situation awareness system
KR101877294B1 (ko) 객체, 영역 및 객체가 유발하는 이벤트의 유기적 관계를 기반으로 한 복수 개 기본행동패턴 정의를 통한 복합 상황 설정 및 자동 상황 인지가 가능한 지능형 방범 cctv 시스템
CN107665326A (zh) 乘客运输装置的监测系统、乘客运输装置及其监测方法
JP5917327B2 (ja) エスカレータ監視システム
JP6110183B2 (ja) 防犯システム
TW201946029A (zh) 影像監視裝置及其控制方法與電腦可讀取記錄媒體
CN113762766A (zh) 一种轨道交通车站运管系统、方法及装置
KR101454644B1 (ko) 보행자 추적기를 이용한 서성거림을 탐지하는 방법
CN110544312A (zh) 虚拟场景中的视频显示方法、装置、电子设备与存储装置
JP2023126352A (ja) プログラム、映像監視方法及び映像監視システム
KR101840042B1 (ko) 복합 가상 팬스 라인 설정 방법 및 이를 이용한 침입 감지 시스템
CN116311727A (zh) 入侵响应方法、装置、设备及可读存储介质
CN112673377A (zh) 监测设备以及用于人员落水监测的方法
WO2021059385A1 (ja) 空間検知システム、および空間検知方法
JP2008152586A (ja) エリア警戒自動識別監視システム
JP2020126439A (ja) 火災検知装置及び火災検知方法
KR101407394B1 (ko) 방치물 및 도난물 탐지 시스템
JPH0460880A (ja) 動体識別解析管理システム
KR102434154B1 (ko) 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법
JP2018192844A (ja) 監視装置、監視システム、監視プログラム、および、記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19946927

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021548034

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19946927

Country of ref document: EP

Kind code of ref document: A1