JP2021100872A - Monitoring device, monitoring system, monitoring method, and program - Google Patents

Monitoring device, monitoring system, monitoring method, and program Download PDF

Info

Publication number
JP2021100872A
JP2021100872A JP2019232625A JP2019232625A JP2021100872A JP 2021100872 A JP2021100872 A JP 2021100872A JP 2019232625 A JP2019232625 A JP 2019232625A JP 2019232625 A JP2019232625 A JP 2019232625A JP 2021100872 A JP2021100872 A JP 2021100872A
Authority
JP
Japan
Prior art keywords
vehicle
human
alarm
control unit
sensing information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019232625A
Other languages
Japanese (ja)
Inventor
知哉 石井
Tomoya Ishii
知哉 石井
村田 幸恵
Yukie Murata
幸恵 村田
亨 寺西
Toru Teranishi
亨 寺西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JFE Engineering Corp
Nippon Systemware Co Ltd
Original Assignee
JFE Engineering Corp
Nippon Systemware Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JFE Engineering Corp, Nippon Systemware Co Ltd filed Critical JFE Engineering Corp
Priority to JP2019232625A priority Critical patent/JP2021100872A/en
Publication of JP2021100872A publication Critical patent/JP2021100872A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Loading Or Unloading Of Vehicles (AREA)

Abstract

To predict and prevent a human being from falling to a lower part of a step in a place as well as a situation where the human being may cross a vehicle.SOLUTION: A monitoring device comprises a control unit that monitors objects each entering a predetermined area. The control unit classifies the objects moving by entering the predetermined area into persons or vehicles, based on at least one of video data entered from an imaging unit for imaging the objects present in the predetermined area and sensing information entered from a sensor for detecting the objects present in the predetermined area; outputs an alarm signal in response to an alarm at one level out of alarms at a plurality of levels to an alarm output unit for giving notice outside, the alarm signal being selected according to the area a person entered from among a plurality of regions set according to a displacement from a boundary between an upper portion of a step and a lower portion of the step, when a person enters the predetermined area; and outputs a prediction alarm signal for predicting falling of the person to the lower portion of the step, to the alarm output unit, when a relative state between the parson and the vehicle meets a predetermined condition.SELECTED DRAWING: Figure 1

Description

本発明は、監視装置、監視システム、監視方法、およびプログラムに関する。 The present invention relates to monitoring devices, monitoring systems, monitoring methods, and programs.

従来、廃棄物焼却施設において、プラットホームからごみピットへの人の転落を抑制するために、プラットホームで作業する作業者の行動を監視する必要がある。プラットホームにおける作業者の監視には、主に、監視員の目視による直接の監視、または撮影されたプラットホームを映し出すモニタを通じた監視員による監視が採用されている。いずれにしても、プラットホームにおける作業者の行動は、監視員によって人的に監視する方法が採用されている。また、作業者がごみピットに転落し、監視員やその他の作業者が転落を発見した際には、廃棄物焼却施設の各所に設けられた非常停止ボタンを発見者などが押下することで、周囲に作業者の転落を報知するシステムも存在する。 Traditionally, in waste incinerators, it has been necessary to monitor the behavior of workers working on the platform in order to prevent people from falling from the platform to the waste pit. For the monitoring of workers on the platform, direct visual monitoring by the observer or monitoring by the observer through a monitor that displays the captured platform is mainly adopted. In any case, a method is adopted in which the behavior of the worker on the platform is personally monitored by an observer. In addition, when a worker falls into the garbage pit and a guard or other worker discovers the fall, the discoverer or the like presses the emergency stop buttons provided in various parts of the waste incinerator facility. There is also a system that notifies the surroundings of the fall of the worker.

このような転落を検知する方法として、特許文献1,2には、鉄道のプラットホームにおける人の動態をステレオカメラによって監視して、人が転落した場合に検知する技術が開示されている。また、特許文献3には、光電スイッチおよびループコイルを用いて、ごみ焼却施設において車両がごみピットに転落したか否かを検知する技術が開示されている。 As a method for detecting such a fall, Patent Documents 1 and 2 disclose a technique for monitoring the dynamics of a person on a railway platform with a stereo camera and detecting when the person falls. Further, Patent Document 3 discloses a technique for detecting whether or not a vehicle has fallen into a waste pit in a waste incinerator using a photoelectric switch and a loop coil.

特開2004−058737号公報Japanese Unexamined Patent Publication No. 2004-058737 特開2003−246268号公報Japanese Unexamined Patent Publication No. 2003-246268 特開2000−318840号公報Japanese Unexamined Patent Publication No. 2000-318840

上述したように、プラットホームにおける作業者などの人の行動を監視する場合、監視員による人的な監視では、プラットホームにおけるごみピットなどのような段差の下部に、人が転落した際に見過ごす可能性がある。また、従来技術においては、人や車両が段差の下部に転落したか否かを判定しているのみであり、廃棄物焼却施設のプラットホームなどのように作業者である人と車両とが交錯するような場所や状況において、ごみピットなどの段差の下部への人や車両の転落の可能性を予知したり、転落を抑制したりすることが困難であった。 As mentioned above, when monitoring the behavior of people such as workers on the platform, human monitoring by observers may overlook when a person falls under a step such as a garbage pit on the platform. There is. Further, in the prior art, it is only determined whether or not a person or a vehicle has fallen to the lower part of the step, and the person who is a worker and the vehicle intersect with each other, such as on a platform of a waste incinerator. In such places and situations, it was difficult to predict the possibility of a person or vehicle falling to the bottom of a step such as a garbage pit, or to prevent the fall.

本発明は、上記に鑑みてなされたものであって、その目的は、人間と車両とが交錯するような場所や状況において、人間の段差の下部への転落を予知して抑制できる監視装置、監視システム、監視方法、およびプログラムを提供することにある。 The present invention has been made in view of the above, and an object of the present invention is a monitoring device capable of predicting and suppressing a fall of a human step to the lower part in a place or situation where a human and a vehicle intersect. To provide monitoring systems, monitoring methods, and programs.

本発明の一態様に係る監視装置は、所定の高さの段差における前記段差の上部の所定領域に進入する少なくとも1つの物体を監視する制御部を備えた監視装置であって、前記制御部は、前記所定領域に存在する物体を検知するセンサから入力されたセンシング情報および前記所定領域に存在する物体を撮像する撮像部から入力された映像データの少なくとも一方に基づいて、前記所定領域に進入して移動する前記少なくとも1つの物体を人間または車両として検知し、前記人間が前記所定領域に進入した場合に、前記段差の上部と前記段差の下部との境界からの変位に応じて設定された複数の領域のうちの、いずれの領域に進入したかに応じて選択された、複数のレベルの警報のうちの1つのレベルの警報に対応した警報信号を、外部に報知する警報出力部に出力し、前記人間と前記車両との相対的な状況が所定条件に適合した場合に、前記人間の前記段差の下部への転落を予知する予知警報信号を、前記警報出力部に出力する。 The monitoring device according to one aspect of the present invention is a monitoring device including a control unit that monitors at least one object that enters a predetermined area above the step at a step of a predetermined height. , The predetermined region is entered based on at least one of the sensing information input from the sensor that detects the object existing in the predetermined region and the video data input from the imaging unit that images the object existing in the predetermined region. A plurality of objects set according to the displacement from the boundary between the upper part of the step and the lower part of the step when the person detects the moving object as a human or a vehicle and the human enters the predetermined area. The alarm signal corresponding to the alarm of one level of the alarms of a plurality of levels selected according to which area of the regions is entered is output to the alarm output unit for notifying the outside. When the relative situation between the human and the vehicle meets a predetermined condition, a predictive warning signal for predicting the fall of the human to the lower part of the step is output to the warning output unit.

本発明の一態様に係る監視装置は、上記の発明において、前記制御部は、前記撮像部が撮像した前記所定領域に進入する前記物体の映像データおよび前記センシング情報に基づいて、前記所定領域に存在する前記車両を抽出し、前記センシング情報に含まれる検知された物体のうち、前記映像データに基づいて抽出した前記車両の存在領域を含む略直方体の空間領域を前記センシング情報に含まれる前記車両として分類する。 In the above invention, the monitoring device according to one aspect of the present invention has the control unit in the predetermined area based on the video data of the object entering the predetermined area captured by the imaging unit and the sensing information. Among the detected objects included in the sensing information by extracting the existing vehicle, the vehicle includes a substantially rectangular parallelepiped spatial region including the existing region of the vehicle extracted based on the video data in the sensing information. Classify as.

本発明の一態様に係る監視装置は、上記の発明において、前記制御部は、複数の車両をパターン認識させることによって得られた車両の形状データと、前記撮像部から入力される前記映像データおよび前記センシング情報とを比較することにより、前記映像データおよび前記センシング情報から前記車両を抽出する。 In the above-described invention, the monitoring device according to one aspect of the present invention includes vehicle shape data obtained by causing the control unit to recognize a plurality of vehicles in a pattern, and the video data input from the imaging unit. By comparing with the sensing information, the vehicle is extracted from the video data and the sensing information.

本発明の一態様に係る監視装置は、上記の発明において、前記制御部は、複数の人間の姿勢をパターン認識させることによって得られた人の形状データと、前記センシング情報とを比較することにより、前記センシング情報に含まれる前記物体が前記人間であるか否かを判定する。 In the above invention, the monitoring device according to one aspect of the present invention is obtained by comparing the human shape data obtained by making the control unit recognize a plurality of human postures in a pattern and the sensing information. , It is determined whether or not the object included in the sensing information is the human being.

本発明の一態様に係る監視装置は、上記の発明において、前記制御部は、検知した物体の動態軌跡を取得し、前記動態軌跡に基づいて、前記所定領域に進入して移動する前記少なくとも1つの物体を人間または車両として検知する。 In the monitoring device according to one aspect of the present invention, in the above invention, the control unit acquires the dynamic locus of the detected object, and based on the dynamic locus, enters and moves into the predetermined region, at least one of the above. Detects one object as a human or a vehicle.

本発明の一態様に係る監視装置は、上記の発明において、前記センサは、前記車両の高さより高い位置に複数設けられ、前記制御部は、複数の前記センサのそれぞれから出力されたセンシング情報を互いに同期させる。 In the above invention, the monitoring device according to one aspect of the present invention is provided with a plurality of the sensors at a position higher than the height of the vehicle, and the control unit receives sensing information output from each of the plurality of sensors. Synchronize with each other.

本発明の一態様に係る監視装置は、上記の発明において、前記センサは、前記センサから物体までの距離を計測する測距センサである。 In the above invention, the monitoring device according to one aspect of the present invention is a distance measuring sensor that measures the distance from the sensor to an object.

本発明の一態様に係る監視装置は、上記の発明において、前記段差の上部が廃棄物処理施設におけるプラットホームであり、前記段差の下部が前記廃棄物処理施設におけるごみピットであり、前記車両が塵芥収集車である。 In the above invention, in the monitoring device according to one aspect of the present invention, the upper part of the step is the platform in the waste treatment facility, the lower part of the step is the garbage pit in the waste treatment facility, and the vehicle is dust. It is a collection vehicle.

本発明の一態様に係る監視システムは、所定の高さの段差における前記段差の上部の所定領域に進入する少なくとも1つの物体を監視する監視システムであって、前記所定領域に存在する物体を検知するセンサと、前記所定領域に存在する物体を撮像する撮像部と、外部に警報を報知する警報出力部と、前記センサから入力されたセンシング情報および前記撮像部から入力された映像データの少なくとも一方に基づいて、前記所定領域に進入して移動する前記少なくとも1つの物体を人間または車両に分類し、前記人間が前記所定領域に進入した場合に、前記段差の上部と前記段差の下部との境界からの変位に応じて設定された複数の領域のうちの、いずれの領域に進入したかに応じて選択された、複数のレベルの警報のうちの1つのレベルの警報に対応した警報信号を前記警報出力部に出力し、前記人間と前記車両との相対的な状況が所定条件に適合した場合に、前記警報出力部に、前記人間の前記段差の下部への転落を予知する予知警報信号を出力する、制御部を有する監視装置と、を備える。 The monitoring system according to one aspect of the present invention is a monitoring system that monitors at least one object that enters a predetermined area above the step at a step of a predetermined height, and detects an object existing in the predetermined area. At least one of a sensor, an imaging unit that images an object existing in the predetermined area, an alarm output unit that notifies an alarm to the outside, sensing information input from the sensor, and video data input from the imaging unit. Based on, the at least one object that enters and moves in the predetermined area is classified as a human or a vehicle, and when the human enters the predetermined area, the boundary between the upper part of the step and the lower part of the step. The alarm signal corresponding to the alarm of one level of the alarms of the plurality of levels selected according to which region of the plurality of regions set according to the displacement from the above is entered. When the relative situation between the human and the vehicle meets a predetermined condition by outputting to the alarm output unit, the alarm output unit is provided with a predictive alarm signal for predicting the fall of the human to the lower part of the step. A monitoring device having a control unit for outputting is provided.

本発明の一態様に係る監視方法は、ハードウェアを有する制御部が、所定の高さの段差における前記段差の上部の所定領域に存在する物体を検知するセンサからセンシング情報を取得し、前記所定領域に存在する物体を撮像する撮像部から映像データを取得し、取得した前記センシング情報および前記映像データの少なくとも一方に基づいて、前記所定領域に進入して移動する少なくとも1つの物体を人間または車両に分類し、前記人間が前記所定領域に進入した場合に、前記段差の上部と前記段差の下部との境界からの変位に応じて設定された複数の領域のうちの、いずれの領域に進入したかに応じて選択された、複数のレベルの警報のうちの1つのレベルの警報に対応した警報信号を、外部に報知する警報出力部に送信して、前記1つのレベルの警報を報知し、前記人間と前記車両との相対的な状況が所定条件に適合した場合に、前記人間の前記段差の下部への転落を予知する予知警報信号を前記警報出力部に送信して、前記予知警報信号に対応する予知警報を報知する。 In the monitoring method according to one aspect of the present invention, a control unit having hardware acquires sensing information from a sensor that detects an object existing in a predetermined area above the step at a step at a predetermined height, and obtains sensing information from the sensor. Video data is acquired from an imaging unit that captures an object existing in the region, and based on at least one of the acquired sensing information and the video data, at least one object that enters and moves in the predetermined region is a human or a vehicle. When the human entered the predetermined area, he / she entered any of the plurality of areas set according to the displacement from the boundary between the upper part of the step and the lower part of the step. An alarm signal corresponding to an alarm of one level among a plurality of levels of alarms selected according to the above is transmitted to an alarm output unit for notifying the outside to notify the alarm of the one level. When the relative situation between the human and the vehicle meets a predetermined condition, a predictive warning signal for predicting the fall of the human to the lower part of the step is transmitted to the warning output unit, and the predictive warning signal is transmitted. Notify the prediction alarm corresponding to.

本発明の一態様に係るプログラムは、所定の高さの段差における前記段差の上部の所定領域に進入する少なくとも1つの物体を監視する制御部に、前記所定領域に存在する物体を検知するセンサからセンシング情報を取得し、前記所定領域に存在する物体を撮像する撮像部から映像データを取得し、取得した前記センシング情報に基づいて、前記所定領域に進入して移動する前記少なくとも1つの物体を人間または車両に分類し、前記人間が前記所定領域に進入した場合に、前記段差の上部と前記段差の下部との境界からの変位に応じて設定された複数の領域のうちの、いずれの領域に進入したかに応じて選択された、複数のレベルの警報のうちの1つのレベルの警報に対応した警報信号を、外部に報知する警報出力部に送信し、前記人間と前記車両との相対的な状況が所定条件に適合した場合に、前記人間の前記段差の下部への転落を予知する予知警報信号を前記警報出力部に送信することを実行させる。 A program according to one aspect of the present invention is a control unit that monitors at least one object that enters a predetermined area above the step at a step of a predetermined height, and a sensor that detects an object existing in the predetermined area. A human being moves at least one object that enters and moves in the predetermined area based on the acquired sensing information and image data acquired from an imaging unit that acquires the sensing information and images an object existing in the predetermined area. Alternatively, it is classified as a vehicle, and when the human enters the predetermined area, it is assigned to any of a plurality of areas set according to the displacement from the boundary between the upper part of the step and the lower part of the step. An alarm signal corresponding to an alarm of one level among a plurality of levels of alarms selected according to the entry is transmitted to an alarm output unit that notifies the outside, and the relative between the person and the vehicle is transmitted. When a certain situation meets a predetermined condition, a prediction warning signal for predicting the fall of the person to the lower part of the step is transmitted to the warning output unit.

本発明に係る監視装置、監視システム、監視方法、およびプログラムによれば、廃棄物処理施設のプラットホームのように、人間と車両とが交錯するような場所や状況において、人間の段差の下部への転落を予知して抑制することが可能となる。 According to the monitoring device, monitoring system, monitoring method, and program according to the present invention, in a place or situation where humans and vehicles intersect, such as a platform of a waste treatment facility, to the lower part of a human step. It is possible to predict and suppress a fall.

図1は、本発明の一実施形態による監視システムの構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a monitoring system according to an embodiment of the present invention. 図2は、本発明の一実施形態による監視方法において人の監視方法を説明するためのフローチャートである。FIG. 2 is a flowchart for explaining a method of monitoring a person in the monitoring method according to the embodiment of the present invention. 図3は、本発明の一実施形態による監視方法において車両の監視方法を説明するためのフローチャートである。FIG. 3 is a flowchart for explaining a vehicle monitoring method in the monitoring method according to the embodiment of the present invention. 図4は、本発明の一実施形態による監視方法において人と車両の監視方法を説明するためのフローチャートである。FIG. 4 is a flowchart for explaining a method of monitoring a person and a vehicle in the monitoring method according to the embodiment of the present invention. 図5は、本発明の一実施形態における廃棄物焼却施設を示す側部断面図である。FIG. 5 is a side sectional view showing a waste incinerator according to an embodiment of the present invention. 図6は、本発明の一実施形態におけるプラットホームのエリアの設定方法の例を説明するための上面図である。FIG. 6 is a top view for explaining an example of a method of setting a platform area according to an embodiment of the present invention. 図7は、本発明の一実施形態による監視装置に接続される測距センサの固定部材を示す分解図である。FIG. 7 is an exploded view showing a fixing member of the distance measuring sensor connected to the monitoring device according to the embodiment of the present invention. 図8は、本発明の一実施形態による監視装置に接続される測距センサの固定部材を示す斜視図である。FIG. 8 is a perspective view showing a fixing member of the distance measuring sensor connected to the monitoring device according to the embodiment of the present invention.

以下、本発明の一実施形態について図面を参照しつつ説明する。なお、以下の一実施形態の全図においては、同一または対応する部分には同一の符号を付す。また、本発明は以下に説明する一実施形態によって限定されるものではない。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In all the drawings of the following embodiment, the same or corresponding parts are designated by the same reference numerals. Further, the present invention is not limited to one embodiment described below.

まず、本発明の一実施形態による監視システムについて説明する。本実施形態による監視システム1は、ごみ焼却施設などの廃棄物処理施設のプラットホームにおける作業者などの人と塵芥収集車などの車両とを監視するシステムである。なお、本明細書においては、一般廃棄物中間処理場および産業廃棄物処理場などを廃棄物処理施設と総称し、塵芥収集車は、パッカー車および平車(ダンピングカー)などを含むものである。図1は、本実施形態による監視システムを示すブロック図である。ネットワーク2は、インターネット回線網や携帯電話回線網などから構成される。 First, a monitoring system according to an embodiment of the present invention will be described. The monitoring system 1 according to the present embodiment is a system for monitoring a person such as a worker on a platform of a waste treatment facility such as a waste incinerator and a vehicle such as a garbage collection vehicle. In this specification, the general waste intermediate treatment plant and the industrial waste treatment plant are collectively referred to as a waste treatment facility, and the waste collection vehicle includes a packer vehicle and a flat vehicle (dumping vehicle). FIG. 1 is a block diagram showing a monitoring system according to the present embodiment. The network 2 is composed of an internet network, a mobile phone network, and the like.

図1に示すように、監視システム1は、監視装置10、人間検知部20、車両検知部30、および警報出力部40を有する。また、監視システム1は、ネットワーク2を介して車両管制センター3と通信可能に構成されている。ネットワーク2は、例えば、インターネットなどの公衆通信網であって、例えばLAN(Local Area Network)、WAN(Wide Area Network)、携帯電話などの電話通信網や公衆回線、VPN(Virtual Private Network)、および専用線などの1つまたは複数の組み合わせからなる。ネットワーク2は、有線通信および無線通信が適宜組み合わされている。車両管制センター3は、後述する塵芥収集車などの車両を管理する管理センターである。 As shown in FIG. 1, the monitoring system 1 includes a monitoring device 10, a human detection unit 20, a vehicle detection unit 30, and an alarm output unit 40. Further, the monitoring system 1 is configured to be able to communicate with the vehicle control center 3 via the network 2. The network 2 is, for example, a public communication network such as the Internet, for example, a LAN (Local Area Network), a WAN (Wide Area Network), a telephone communication network such as a mobile phone, a public line, a VPN (Virtual Private Network), and the like. It consists of one or more combinations such as a dedicated line. The network 2 is a combination of wired communication and wireless communication as appropriate. The vehicle control center 3 is a management center that manages vehicles such as dust collecting vehicles, which will be described later.

(監視装置)
監視装置10は、制御部11、記憶部12、入力部13、出力部14、および通信部15を備える。監視装置10は、人間検知部20および車両検知部30から入力部13に入力されたセンシング情報に基づいて、制御部11が警報の出力の要否を判定して警報の種類を決定し、出力部14から種々の警報情報を警報出力部40に出力する。警報出力部40は入力された警報情報に応じた警報を出力する。
(Monitoring device)
The monitoring device 10 includes a control unit 11, a storage unit 12, an input unit 13, an output unit 14, and a communication unit 15. In the monitoring device 10, the control unit 11 determines the necessity of alarm output based on the sensing information input from the human detection unit 20 and the vehicle detection unit 30 to the input unit 13, determines the type of alarm, and outputs the alarm. Various alarm information is output from the unit 14 to the alarm output unit 40. The alarm output unit 40 outputs an alarm according to the input alarm information.

制御部11は、具体的に、CPU(Central Processing Unit)、DSP(Digital Signal Processor)などのハードウェアを有するプロセッサ、およびRAM(Random Access Memory)やROM(Read Only Memory)などの主記憶部(いずれも図示せず)を備える。 Specifically, the control unit 11 includes a processor having hardware such as a CPU (Central Processing Unit) and a DSP (Digital Signal Processor), and a main storage unit such as a RAM (Random Access Memory) and a ROM (Read Only Memory). Neither is shown).

記憶部12は、RAMなどの揮発性メモリ、ROMなどの不揮発性メモリ、EPROM(Erasable Programmable ROM)、ハードディスクドライブ(HDD、Hard Disk Drive)、およびリムーバブルメディアなどから選ばれた記憶媒体から構成される。なお、リムーバブルメディアは、例えば、USB(Universal Serial Bus)メモリ、または、CD(Compact Disc)、DVD(Digital Versatile Disc)、またはBD(Blu-ray(登録商標) Disc)のようなディスク記録媒体である。また、外部から装着可能なメモリカードなどのコンピュータ読み取り可能な記録媒体を用いて記憶部12を構成してもよい。記憶部12には、車両の形状データベース12aおよび人の形状データベース12bが格納されている。車両の形状データベース12aには、例えば塵芥収集車などの車両Veをパターン認識によって種々の方向から認識させて得られた、車両Veの形状のデータ(車両の形状データ)が格納されている。人の形状データベース12bには、立ったり歩いたりするなどの人間の姿勢をパターン認識によって種々の方向から認識させて得られた、人間Uの形状のデータ(人の形状データ)が格納されている。 The storage unit 12 is composed of a storage medium selected from a volatile memory such as RAM, a non-volatile memory such as ROM, an EPROM (Erasable Programmable ROM), a hard disk drive (HDD, Hard Disk Drive), and a removable medium. .. The removable media is, for example, a USB (Universal Serial Bus) memory or a disc recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a BD (Blu-ray (registered trademark) Disc). is there. Further, the storage unit 12 may be configured by using a computer-readable recording medium such as a memory card that can be mounted from the outside. The vehicle shape database 12a and the human shape database 12b are stored in the storage unit 12. The vehicle shape database 12a stores vehicle shape data (vehicle shape data) obtained by recognizing a vehicle Ve such as a dust collecting vehicle from various directions by pattern recognition. The human shape database 12b stores human U shape data (human shape data) obtained by recognizing human postures such as standing and walking from various directions by pattern recognition. ..

記憶部12には、監視装置10の動作を実行するための、オペレーティングシステム(Operating System:OS)121、各種プログラム、各種テーブル、各種データベースなどが記憶可能である。これらの各種プログラムは、ハードディスク、フラッシュメモリ、CD−ROM、DVD−ROM、フレキシブルディスクなどのコンピュータ読み取り可能な記録媒体に記録して広く流通させることも可能である。各種プログラムには、本実施形態による監視プログラム122も含まれる。制御部11は、記憶部12に記憶されたプログラムを主記憶部の作業領域にロードして実行し、プログラムの実行を通じて各構成部などを制御することで、所定の目的に合致した機能を実現できる。本実施形態においては、制御部11がロードした監視プログラム122を実行することにより、廃棄物焼却施設のプラットホームにおける作業者である人および塵芥収集車などの車両の監視処理を行う。 The storage unit 12 can store an operating system (OS) 121, various programs, various tables, various databases, and the like for executing the operation of the monitoring device 10. These various programs can also be recorded on a computer-readable recording medium such as a hard disk, flash memory, CD-ROM, DVD-ROM, or flexible disk and widely distributed. The various programs also include a monitoring program 122 according to the present embodiment. The control unit 11 loads the program stored in the storage unit 12 into the work area of the main storage unit and executes it, and controls each component or the like through the execution of the program to realize a function that meets a predetermined purpose. it can. In the present embodiment, by executing the monitoring program 122 loaded by the control unit 11, a person who is a worker on the platform of the waste incinerator and a vehicle such as a dust collecting vehicle are monitored.

入力部13は、例えばプラットホームに設置された人間検知部20および車両検知部30から送信された各種情報を入力して、制御部11に出力するインターフェースである。なお、人間検知部20および車両検知部30から入力部13への情報の送信は、有線通信を用いても無線通信を用いてもよい。 The input unit 13 is an interface that inputs various information transmitted from, for example, the human detection unit 20 and the vehicle detection unit 30 installed on the platform and outputs the information to the control unit 11. Information may be transmitted from the human detection unit 20 and the vehicle detection unit 30 to the input unit 13 by using wired communication or wireless communication.

出力部14は、表示部141および印刷部142を備えるとともに、外部の警報出力部40に警報信号を出力する。表示部141は、制御部11から入力された情報を表示可能に構成される。印刷部142は、例えばプリンタなどの、制御部11から入力された情報を印刷物として出力可能に構成される。なお、出力部14は、表示部141および印刷部142を備えることなく、外部の警報出力部40に警報信号などの情報を出力するインターフェースとしてもよい。 The output unit 14 includes a display unit 141 and a printing unit 142, and outputs an alarm signal to an external alarm output unit 40. The display unit 141 is configured to be able to display the information input from the control unit 11. The printing unit 142 is configured to be able to output information input from the control unit 11 such as a printer as a printed matter. The output unit 14 may be an interface for outputting information such as an alarm signal to an external alarm output unit 40 without including the display unit 141 and the printing unit 142.

通信部15は、例えば、LAN(Local Area Network)インターフェースボードや、無線通信のための無線通信回路などであり、有線通信または無線通信が可能な通信モジュールを用いて構成される。LANインターフェースボードや無線通信回路は、公衆通信網であるインターネットなどのネットワーク2に接続できる。また、通信部15は、所定の通信規格、例えば、4G、5G、Wi−Fi(Wireless Fidelity)(登録商標)およびBluetooth(登録商標)などに従って、外部と通信可能としてもよい。 The communication unit 15 is, for example, a LAN (Local Area Network) interface board, a wireless communication circuit for wireless communication, or the like, and is configured by using a communication module capable of wired communication or wireless communication. The LAN interface board and the wireless communication circuit can be connected to a network 2 such as the Internet, which is a public communication network. Further, the communication unit 15 may be capable of communicating with the outside in accordance with predetermined communication standards such as 4G, 5G, Wi-Fi (Wireless Fidelity) (registered trademark) and Bluetooth (registered trademark).

(人間検知部)
人間検知部20は、通信部21と、例えば3D-LiDAR(3 Dimension Laser Imaging Detection and Ranging)センサなどからなる一対の測距センサ22a,22bと、一対の撮像部としての赤外線カメラ23a,23bと、を有して構成される。通信部21は、物理的には上述した通信部15と同様に構成される。
(Human detection unit)
The human detection unit 20 includes a communication unit 21, a pair of ranging sensors 22a and 22b including, for example, a 3D-LiDAR (3 Dimension Laser Imaging Detection and Ranging) sensor, and infrared cameras 23a and 23b as a pair of imaging units. , And are configured. The communication unit 21 is physically configured in the same manner as the communication unit 15 described above.

測距センサ22aおよび赤外線カメラ23aは例えば、廃棄物焼却施設のプラットホームにおける投入扉およびダンピングボックスの近傍の左側に、所定の保持部に保持されて設置される。また、測距センサ22bおよび赤外線カメラ23bは、例えば、投入扉およびダンピングボックスの近傍の右側に、所定の保持部に保持されて設置される。なお、保持部の詳細については、後述する。 The ranging sensor 22a and the infrared camera 23a are, for example, held and installed in a predetermined holding portion on the left side in the vicinity of the input door and the damping box on the platform of the waste incinerator. Further, the distance measuring sensor 22b and the infrared camera 23b are held and installed in a predetermined holding portion on the right side in the vicinity of the insertion door and the damping box, for example. The details of the holding portion will be described later.

複数のセンサとしての測距センサ22a,22bおよび赤外線カメラ23a,23bは、測距センサ22aおよび赤外線カメラ23aを組とし、測距センサ22bおよび赤外線カメラ23bを組として、プラットホームをセンシングするように設置される。測距センサ22a,22bおよび赤外線カメラ23a,23bが設置される床面からの高さは、塵芥収集車などの車両の上部に接触せず、かつ所定の計測領域にレーザ光を照射可能な高さに設定される。測距センサ22a,22bおよび赤外線カメラ23a,23bの設置高さは、具体的に、車両Veの上部の高さに設置することができる。測距センサ22aおよび赤外線カメラ23aの組と、測距センサ22bおよび赤外線カメラ23bの組とは互いに同じ高さに設置するのが好ましいが、異なる高さに設置してもよい。これにより、車両Veの上部にまでレーザ光を照射できる。測距センサ22a,22bを投入扉の近傍に、所定の高さで複数台、例えば2台設けることにより、センシングにおける車両Veや人間U同士によって生じる死角を低減できる。 The distance measuring sensors 22a and 22b and the infrared cameras 23a and 23b as a plurality of sensors are installed so as to sense the platform by combining the distance measuring sensor 22a and the infrared camera 23a and the distance measuring sensor 22b and the infrared camera 23b as a set. Will be done. The height from the floor on which the distance measuring sensors 22a and 22b and the infrared cameras 23a and 23b are installed is a height that does not come into contact with the upper part of a vehicle such as a dust collecting vehicle and can irradiate a predetermined measurement area with laser light. It is set to. The installation heights of the distance measuring sensors 22a and 22b and the infrared cameras 23a and 23b can be specifically installed at the height of the upper part of the vehicle Ve. The set of the distance measuring sensor 22a and the infrared camera 23a and the set of the distance measuring sensor 22b and the infrared camera 23b are preferably installed at the same height, but may be installed at different heights. As a result, the laser beam can be irradiated to the upper part of the vehicle Ve. By providing a plurality of distance measuring sensors 22a and 22b near the insertion door at a predetermined height, for example, two units, it is possible to reduce the blind spot caused by the vehicle Ve and the human U in sensing.

水平面に沿った測距センサ22a,22bおよび赤外線カメラ23a,23bによるセンシングの範囲は、例えば投入扉の1門当たりのプラットホーム100上の所定領域にすることができる。これにより、所定領域であるプラットホーム100の作業領域などに進入した車両Veや人間Uを検知できる。また、高さ方向に沿った測距センサ22a,22bおよび赤外線カメラ23a,23bによるセンシングの範囲は、例えばプラットホームの床面から数100mm上の高さから、車両Veの高さより高い数mの高さまでの範囲にすることができる。これにより、床面によるレーザ光や赤外線の乱反射を抑制できるので、センサによるセンシングの精度を向上できる。 The range of sensing by the distance measuring sensors 22a and 22b and the infrared cameras 23a and 23b along the horizontal plane can be, for example, a predetermined area on the platform 100 per entrance door. As a result, it is possible to detect the vehicle Ve and the human U who have entered the work area of the platform 100, which is a predetermined area. Further, the range of sensing by the distance measuring sensors 22a and 22b and the infrared cameras 23a and 23b along the height direction is, for example, several hundred mm above the floor of the platform and several meters higher than the height of the vehicle Ve. It can be in the range up to that point. As a result, diffused reflection of laser light and infrared rays by the floor surface can be suppressed, so that the accuracy of sensing by the sensor can be improved.

(車両検知部)
車両検知部30は、通信部31と、一対の撮像部としての赤外線カメラ32a,32bと、複数のセンサとして測距センサ33a,33bとを有して構成される。赤外線カメラ32a,32bおよび測距センサ33a,33bはそれぞれ、上述した赤外線カメラ23a,23bおよび測距センサ22a,22bと同様に構成される。ここで、図1において、車両検知部30は人間検知部20と別に記載しているが、車両検知部30は人間検知部20と一体に設置してもよい。すなわち、本実施形態において、赤外線カメラ23a,32aと、測距センサ22a,33aとは、同じ筐体に一体で設けることが好ましい。同様に、赤外線カメラ23b,32bと、測距センサ22b,33bとは、同じ筐体に一体で設けることが好ましい。ここで、測距センサ22a,33aを1つの測距センサから構成してもよく、測距センサ22b,33bを1つの測距センサから構成してもよい。同様に、赤外線カメラ23a,32aを1つの赤外線カメラから構成してもよく、赤外線カメラ23b,32bを1つの赤外線カメラから構成してもよい。なお、車両検知部30と人間検知部20とを別々に設けてもよい。
(Vehicle detection unit)
The vehicle detection unit 30 includes a communication unit 31, infrared cameras 32a and 32b as a pair of image pickup units, and distance measurement sensors 33a and 33b as a plurality of sensors. The infrared cameras 32a and 32b and the distance measuring sensors 33a and 33b are configured in the same manner as the infrared cameras 23a and 23b and the distance measuring sensors 22a and 22b described above, respectively. Here, in FIG. 1, the vehicle detection unit 30 is described separately from the human detection unit 20, but the vehicle detection unit 30 may be installed integrally with the human detection unit 20. That is, in the present embodiment, it is preferable that the infrared cameras 23a and 32a and the distance measuring sensors 22a and 33a are integrally provided in the same housing. Similarly, it is preferable that the infrared cameras 23b and 32b and the distance measuring sensors 22b and 33b are integrally provided in the same housing. Here, the distance measuring sensors 22a and 33a may be composed of one distance measuring sensor, and the distance measuring sensors 22b and 33b may be composed of one distance measuring sensor. Similarly, the infrared cameras 23a and 32a may be composed of one infrared camera, and the infrared cameras 23b and 32b may be composed of one infrared camera. The vehicle detection unit 30 and the human detection unit 20 may be provided separately.

(警報出力部)
警報出力部40は、表示部としての表示機41と、音声出力部としての音声スピーカ42とを有して構成される。なお、これらの表示機41および音声スピーカ42のうちの必要なものを選択して設置してもよい。また、表示機41および音声スピーカ42はそれぞれ、プラットホーム100に少なくとも1台設けられ、廃棄物処理施設のプラットホーム100における投入扉ごとに設けることが可能である。警報出力部40は、監視装置10から供給された警報信号に基づいて、警報信号に従った文字情報、映像、画像、および音声の少なくとも1つを出力する。
(Alarm output section)
The alarm output unit 40 includes a display 41 as a display unit and a voice speaker 42 as a voice output unit. In addition, you may select and install necessary one of these display 41 and voice speaker 42. Further, at least one display 41 and one voice speaker 42 are provided on the platform 100, and can be provided for each input door on the platform 100 of the waste treatment facility. The alarm output unit 40 outputs at least one of character information, video, image, and sound according to the alarm signal based on the alarm signal supplied from the monitoring device 10.

(監視方法)
次に、以上のように構成された監視システム1による監視方法について説明する。本実施形態による監視方法においては、人間検知処理および車両検知処理が並行して実行される。図2は、人間の監視方法を説明するためのフローチャートである。図3は、車両の監視方法を説明するためのフローチャートである。図4は、人と車両の監視方法を説明するためのフローチャートである。
(Monitoring method)
Next, the monitoring method by the monitoring system 1 configured as described above will be described. In the monitoring method according to the present embodiment, the human detection process and the vehicle detection process are executed in parallel. FIG. 2 is a flowchart for explaining a human monitoring method. FIG. 3 is a flowchart for explaining a vehicle monitoring method. FIG. 4 is a flowchart for explaining a method of monitoring a person and a vehicle.

(人の検知処理)
図2に示すように、まず、ステップST1Aにおいて、投入扉の左側に設けられた、測距センサ22aによってセンシングされた左センシング情報、および赤外線カメラ23aによって撮像された左映像データが、監視装置10の入力部13に入力される。同様に、ステップST1Bにおいて、投入扉の右側に設けられた、測距センサ22bによってセンシングされた右センシング情報、および赤外線カメラ23bによって撮像された右映像データが、入力部13に入力される。入力部13は、入力された左センシング情報および右センシング情報、ならびに左映像データおよび右映像データを、制御部11に供給する。
(Human detection processing)
As shown in FIG. 2, first, in step ST1A, the left sensing information sensed by the distance measuring sensor 22a and the left image data captured by the infrared camera 23a provided on the left side of the input door are the monitoring device 10. Is input to the input unit 13. Similarly, in step ST1B, the right sensing information sensed by the ranging sensor 22b provided on the right side of the input door and the right image data captured by the infrared camera 23b are input to the input unit 13. The input unit 13 supplies the input left sensing information and right sensing information, as well as left video data and right video data, to the control unit 11.

ステップST2において制御部11は、左右同期処理を行う。すなわち、制御部11は、入力された左センシング情報と右センシング情報との同期処理、および入力された左映像データと右映像データとの同期処理を行う。これによって、制御部11は、左センシング情報および右センシング情報の相互のズレが修正されたセンシング情報を取得できる。同様に、制御部11は、左映像データおよび右映像データの相互のズレが修正された、映像データを取得できる。なお、制御部11によるセンシング情報および映像データの取得は継続して行われる。その後、検知処理は、ステップST3に移行するとともに、図3に示すステップST26に移行する。ステップST26については、後述する。 In step ST2, the control unit 11 performs left-right synchronization processing. That is, the control unit 11 performs synchronization processing of the input left sensing information and right sensing information, and synchronization processing of the input left video data and right video data. As a result, the control unit 11 can acquire the sensing information in which the deviation between the left sensing information and the right sensing information is corrected. Similarly, the control unit 11 can acquire the video data in which the deviation between the left video data and the right video data is corrected. The control unit 11 continues to acquire the sensing information and the video data. After that, the detection process proceeds to step ST3 and then to step ST26 shown in FIG. Step ST26 will be described later.

ステップST3において制御部11は、取得したセンシング情報および映像データに基づいて、動態検知を行う。すなわち、制御部11は、取得したセンシング情報および映像データに動いている物体が存在しているか否かを判定する。制御部11がセンシング情報および映像データに動いている物体は含まれていないと判定した場合(ステップST3:No)、ステップST2に復帰する。一方、制御部11がセンシング情報および映像データに動いている物体は含まれていると判定した場合(ステップST3:Yes)、ステップST4に移行する。なお、制御部11は、センシング情報および映像データの一方のみを用いて動態検知を行ってもよい。 In step ST3, the control unit 11 detects the dynamics based on the acquired sensing information and video data. That is, the control unit 11 determines whether or not a moving object exists in the acquired sensing information and video data. When the control unit 11 determines that the sensing information and the video data do not include a moving object (step ST3: No), the process returns to step ST2. On the other hand, when the control unit 11 determines that the sensing information and the video data include moving objects (step ST3: Yes), the process proceeds to step ST4. The control unit 11 may perform dynamic detection using only one of the sensing information and the video data.

ステップST4において制御部11は、記憶部12の人の形状データベース12bから人間Uの形状のデータを読み出して、読み出した人の形状データと、センシング情報に含まれる動く物体との比較を行う。次に、ステップST5において制御部11は、センシング情報に含まれる動く物体が人間であるか否かを判定する。制御部11が、センシング情報に含まれる動く物体は人間ではないと判定した場合(ステップST5:No)、ステップST2に復帰する。一方、制御部11が、センシング情報に含まれる動く物体は人間Uであると判定した場合(ステップST5:Yes)、ステップST6に移行する。 In step ST4, the control unit 11 reads the shape data of the human U from the human shape database 12b of the storage unit 12 and compares the read shape data of the person with the moving object included in the sensing information. Next, in step ST5, the control unit 11 determines whether or not the moving object included in the sensing information is a human being. When the control unit 11 determines that the moving object included in the sensing information is not a human being (step ST5: No), the process returns to step ST2. On the other hand, when the control unit 11 determines that the moving object included in the sensing information is the human U (step ST5: Yes), the process proceeds to step ST6.

ステップST6において制御部11は、測距センサ22a,22bからのセンシング情報に基づいて、人間Uの動作の軌跡(動態軌跡)L1を生成する。ここで、人間Uは様々な作業を行うことから、その動態軌跡L1は複雑な軌跡をたどり、その数も複数になる場合がある。制御部11は、生成した人間Uの動態軌跡L1を表示部141に表示させてもよい。その後、検知処理は、ステップST7に移行するとともに、図4に示すステップST31に移行する。なお、ステップST31については後述する。 In step ST6, the control unit 11 generates a locus (dynamic locus) L1 of the movement of the human U based on the sensing information from the distance measuring sensors 22a and 22b. Here, since the human U performs various tasks, the dynamic locus L1 follows a complicated locus, and the number may be plural. The control unit 11 may display the generated dynamic locus L1 of the human U on the display unit 141. After that, the detection process proceeds to step ST7 and then to step ST31 shown in FIG. The step ST31 will be described later.

ステップST7において制御部11は、人間Uが第2エリアA2に進入したか否かを判定する。ここで、第2エリアを含むプラットホーム上に設定されるエリアについて説明する。図5は、塵芥収集車および廃棄物焼却施設を示す側部断面図である。図6は、プラットホームのエリアの設定方法の例を説明するための上面図である。 In step ST7, the control unit 11 determines whether or not the human U has entered the second area A2. Here, the area set on the platform including the second area will be described. FIG. 5 is a side sectional view showing a dust collecting vehicle and a waste incinerator. FIG. 6 is a top view for explaining an example of a method of setting a platform area.

図5に示すように、プラットホーム100は、ごみピット50に隣接して設けられている。ごみピット50には、廃棄物51が貯留されている。ごみピット50に廃棄物が貯留された状態での廃棄物の上面は、プラットホーム100から数m〜10数m程度の段差の下部の部分になる。 As shown in FIG. 5, the platform 100 is provided adjacent to the garbage pit 50. Waste 51 is stored in the garbage pit 50. The upper surface of the waste in the state where the waste is stored in the waste pit 50 is the lower part of the step of about several meters to several meters from the platform 100.

図6に示すように、プラットホーム100において、ごみピット50との境界からの変位に応じて複数の領域、具体的には例えば3つの領域を設定できる。プラットホーム100においてごみピット50にかかる領域は、転落する可能性が極めて高い第3エリアA3(狭いハッチング部分)として設定できる。プラットホーム100とごみピット50との境界からプラットホーム100側を正の変位であるとすると、第3エリアA3は、変位が負の領域である。第3エリアA3は、例えばごみピット50とプラットホーム100との境界からごみピット50側の領域に設定できる。第3エリアA3よりもごみピット50から遠い領域は、転落の可能性が高い第2エリアA2(広いハッチング部分)として設定できる。第2エリアA2は、例えば、ごみピット50とプラットホーム100との境界に設けられた車両Veの輪留めを含めた、当該境界から変位が正である数100mmの領域に設定できる。さらに、第2エリアA2よりもごみピット50から遠い領域は、所定の状況が現出した場合に限って転落の可能性がある余地エリアとしての第1エリアA1に設定できる。第1エリアA1(薄い打点ハッチング部分)は、例えば、通常の作業エリア内であって、第2エリアA2との境界から車両Veが進入する側までの間の所定の領域に設定できる。 As shown in FIG. 6, in the platform 100, a plurality of regions, specifically, for example, three regions can be set according to the displacement from the boundary with the garbage pit 50. The area of the platform 100 that covers the garbage pit 50 can be set as a third area A3 (narrow hatched portion) that is extremely likely to fall. Assuming that the platform 100 side has a positive displacement from the boundary between the platform 100 and the garbage pit 50, the third area A3 is a region where the displacement is negative. The third area A3 can be set, for example, in the area on the garbage pit 50 side from the boundary between the garbage pit 50 and the platform 100. The area farther from the garbage pit 50 than the third area A3 can be set as the second area A2 (wide hatched portion) where there is a high possibility of falling. The second area A2 can be set to a region of several hundred mm in which the displacement is positive from the boundary, including, for example, the wheel fastening of the vehicle Ve provided at the boundary between the garbage pit 50 and the platform 100. Further, the area farther from the garbage pit 50 than the second area A2 can be set as the first area A1 as a room area where there is a possibility of falling only when a predetermined situation appears. The first area A1 (thin spot hatching portion) can be set in, for example, a predetermined area in a normal work area from the boundary with the second area A2 to the side where the vehicle Ve enters.

図2に戻り、ステップST7において制御部11が、人間Uは第2エリアA2に進入していないと判定した場合(ステップST7:No)、ステップST6に復帰して、軌跡処理を継続する。一方、制御部11が、人間Uが第2エリアA2に進入したと判定した場合(ステップST7:Yes)、ステップST8に移行する。 Returning to FIG. 2, when the control unit 11 determines in step ST7 that the human U has not entered the second area A2 (step ST7: No), the control unit 11 returns to step ST6 and continues the locus processing. On the other hand, when the control unit 11 determines that the human U has entered the second area A2 (step ST7: Yes), the process proceeds to step ST8.

ステップST8において制御部11は、数分間に亘って録画処理を行う。具体的に、制御部11は、赤外線カメラ23a,23b,32a,32b、および測距センサ22a,22b,33a,33bを制御することにより、検出データとして動画データを記憶部12に格納する。次に、ステップST9に移行して制御部11は、軽警報信号を出力部14に出力する。出力部14は、入力された軽警報信号を警報出力部40に出力する。軽警報信号は、警報を複数のレベルに設定した場合の最も重要度が高いレベルの警報より低いレベルの警報に対応する信号である。これは、人間Uが第2エリアA2に進入した場合に、後述する第3エリアA3に進入した場合に比して、ごみピット50に転落する可能性が低いためである。 In step ST8, the control unit 11 performs the recording process for several minutes. Specifically, the control unit 11 stores the moving image data as detection data in the storage unit 12 by controlling the infrared cameras 23a, 23b, 32a, 32b and the distance measuring sensors 22a, 22b, 33a, 33b. Next, in step ST9, the control unit 11 outputs a light alarm signal to the output unit 14. The output unit 14 outputs the input light alarm signal to the alarm output unit 40. The light alarm signal is a signal corresponding to a lower level alarm than the most important level alarm when the alarm is set to a plurality of levels. This is because when the human U enters the second area A2, it is less likely to fall into the garbage pit 50 than when the human U enters the third area A3, which will be described later.

次に、ステップST10において警報出力部40は、入力された軽警報信号に基づいて、表示機41および音声スピーカ42の少なくとも1つから、軽警報を出力する。軽警報は、例えば、表示機41から黄色の発光などで行ったり、音声スピーカ42から「転落に注意してください」などの音声で行ったりすることができる。なお、ステップST8,ST9,ST10は、並行して行うことが可能である。 Next, in step ST10, the alarm output unit 40 outputs a light alarm from at least one of the display 41 and the voice speaker 42 based on the input light alarm signal. The light alarm can be given, for example, by emitting yellow light from the display 41 or by a voice such as "Be careful of falling" from the voice speaker 42. It should be noted that steps ST8, ST9, and ST10 can be performed in parallel.

次に、ステップST11に移行して制御部11は、人間Uが第3エリアA3に進入したか否かを判定する。制御部11が人間Uは第3エリアA3に進入していないと判定した場合(ステップST11:No)、ステップST6に復帰して、軌跡処理を継続する。一方、制御部11が、人間Uは第3エリアA3に進入したと判定した場合(ステップST11:Yes)、ステップST12に移行する。 Next, in step ST11, the control unit 11 determines whether or not the human U has entered the third area A3. When the control unit 11 determines that the human U has not entered the third area A3 (step ST11: No), the control unit 11 returns to step ST6 and continues the locus processing. On the other hand, when the control unit 11 determines that the human U has entered the third area A3 (step ST11: Yes), the process proceeds to step ST12.

ステップST12において制御部11は、数分間に亘って、赤外線カメラ23a,23b,32a,32bおよび、測距センサ22a,22b,33a,33bによる録画処理を行う。次に、ステップST13に移行して制御部11は、重警報信号を出力部14に出力する。重警報信号は、警報を複数のレベルに設定した場合の最も重要なレベルの警報に対応する信号である。すなわち、重警報は、上述した軽警報に比して重要度のレベルが高い警報である。これは、人間Uが第3エリアA3に進入した場合に、ごみピット50に転落する可能性が極めて高いためである。出力部14は、入力された重警報信号を警報出力部40に出力してステップST14に移行する。 In step ST12, the control unit 11 performs recording processing by the infrared cameras 23a, 23b, 32a, 32b and the distance measuring sensors 22a, 22b, 33a, 33b for several minutes. Next, in step ST13, the control unit 11 outputs a heavy alarm signal to the output unit 14. The heavy alarm signal is a signal corresponding to the alarm of the most important level when the alarm is set to a plurality of levels. That is, the heavy alarm is an alarm having a higher level of importance than the above-mentioned light alarm. This is because when the human U enters the third area A3, there is an extremely high possibility that the human U will fall into the garbage pit 50. The output unit 14 outputs the input heavy alarm signal to the alarm output unit 40 and proceeds to step ST14.

ステップST14において警報出力部40は、入力された重警報信号に基づいて、表示機41および音声スピーカ42の少なくとも一方から、重警報を出力する。重警報は、例えば、表示機41から赤色の発光などで行ったり、音声スピーカ42から「とても危険です、すぐに退避してください」などのアナウンスを音声で行ったりすることができる。なお、ステップST12とステップST13,ST14とは、並行して行うことが可能である。以上により、人間検知処理は終了するが、ステップST1〜ST14は繰り返し実行される。 In step ST14, the alarm output unit 40 outputs a heavy alarm from at least one of the display 41 and the voice speaker 42 based on the input heavy alarm signal. For example, the heavy alarm can be given by emitting red light from the display 41, or an announcement such as "It is very dangerous, please evacuate immediately" can be made by voice from the voice speaker 42. It should be noted that step ST12 and steps ST13 and ST14 can be performed in parallel. As described above, the human detection process is completed, but steps ST1 to ST14 are repeatedly executed.

(車両の検知処理)
次に、上述した人の検知処理と並行して実行される車両検知処理について説明する。図3に示すように、まず、ステップST21Aにおいて、投入扉の左側に設けられた、赤外線カメラ32aによって撮像された赤外線映像である左映像データ、および測距センサ33aによってセンシングされた左センシング情報が、監視装置10の入力部13に入力される。同様に、ステップST21Bにおいて、投入扉の右側に設けられた、赤外線カメラ32bによって撮像された赤外線映像である右映像データ、および測距センサ33bによってセンシングされた右センシング情報が、入力部13に入力される。入力部13は、入力された左センシング情報ならびに右センシング情報、および左映像データならびに右映像データを、制御部11に供給する。
(Vehicle detection process)
Next, the vehicle detection process executed in parallel with the above-mentioned human detection process will be described. As shown in FIG. 3, first, in step ST21A, the left image data which is an infrared image captured by the infrared camera 32a provided on the left side of the input door and the left sensing information sensed by the distance measuring sensor 33a are obtained. , Is input to the input unit 13 of the monitoring device 10. Similarly, in step ST21B, the right image data which is an infrared image captured by the infrared camera 32b provided on the right side of the input door and the right sensing information sensed by the distance measuring sensor 33b are input to the input unit 13. Will be done. The input unit 13 supplies the input left sensing information and right sensing information, and left video data and right video data to the control unit 11.

ステップST22において制御部11は、左右同期処理を行う。すなわち、制御部11は、入力された左センシング情報と右センシング情報との同期処理、および入力された左映像データと右映像データとの同期処理を行う。これによって、制御部11は、左センシング情報および右センシング情報の相互のズレが修正されたセンシング情報を取得できる。同様に、制御部11は、左映像データおよび右映像データの相互のズレが修正された映像データを取得できる。なお、制御部11によるセンシング情報および映像データの取得は継続して行われる。その後、検知処理は、ステップST23に移行する。 In step ST22, the control unit 11 performs left-right synchronization processing. That is, the control unit 11 performs synchronization processing of the input left sensing information and right sensing information, and synchronization processing of the input left video data and right video data. As a result, the control unit 11 can acquire the sensing information in which the deviation between the left sensing information and the right sensing information is corrected. Similarly, the control unit 11 can acquire the video data in which the deviation between the left video data and the right video data is corrected. The control unit 11 continues to acquire the sensing information and the video data. After that, the detection process shifts to step ST23.

ステップST23において制御部11は、取得した映像データに基づいて、動態検知を行う。すなわち、制御部11は、取得したセンシング情報および映像データに動いている物体が存在しているか否かを判定する。制御部11がセンシング情報および映像データに動いている物体は含まれていないと判定した場合(ステップST23:No)、ステップST22に復帰する。一方、制御部11がセンシング情報および映像データに動いている物体が含まれていると判定した場合(ステップST23:Yes)、ステップST24に移行する。なお、以上のステップST21A,ST21B,ST22,ST23はそれぞれ、上述したステップST1A,ST1B,ST2,ST3と、並行、同時、または兼用して行ってもよい。また、制御部11は、センシング情報および映像データの一方のみを用いて動態検知を行ってもよい。 In step ST23, the control unit 11 detects the dynamics based on the acquired video data. That is, the control unit 11 determines whether or not a moving object exists in the acquired sensing information and video data. When the control unit 11 determines that the sensing information and the video data do not include a moving object (step ST23: No), the process returns to step ST22. On the other hand, when the control unit 11 determines that the sensing information and the video data include a moving object (step ST23: Yes), the process proceeds to step ST24. The above steps ST21A, ST21B, ST22, and ST23 may be performed in parallel with, simultaneously with, or in combination with the above-mentioned steps ST1A, ST1B, ST2, and ST3, respectively. Further, the control unit 11 may perform dynamic detection using only one of the sensing information and the video data.

ステップST24において制御部11は、記憶部12の車両の形状データベース12aから車両Veの形状のデータを読み出して、読み出した車両の形状データと、センシング情報および映像データに含まれる動く物体との比較を行う。塵芥収集車などの車両を制御部11などにパターン認識させ、パターン認識された車両の形状データが車両の形状データベース12aに格納されている。制御部11は、パターン認識された車両の形状データと、センシング情報および映像データに含まれる動く物体とを比較することによって、車両Veであるか否かを判定できる。ステップST25において制御部11は、センシング情報および映像データに含まれる動く物体が車両Veであるか否かを判定する。制御部11が、センシング情報および映像データに含まれる動く物体は車両Veではないと判定した場合(ステップST25:No)、ステップST22に復帰する。一方、制御部11が、センシング情報および映像データに含まれる動く物体は車両Veであると判定した場合(ステップST25:Yes)、ステップST26に移行する。 In step ST24, the control unit 11 reads the vehicle shape data of the vehicle Ve from the vehicle shape database 12a of the storage unit 12, and compares the read vehicle shape data with the moving object included in the sensing information and the video data. Do. A vehicle such as a dust collecting vehicle is made to recognize a pattern by a control unit 11 or the like, and the shape data of the vehicle whose pattern is recognized is stored in the vehicle shape database 12a. The control unit 11 can determine whether or not the vehicle is a vehicle Ve by comparing the pattern-recognized vehicle shape data with the moving object included in the sensing information and the video data. In step ST25, the control unit 11 determines whether or not the moving object included in the sensing information and the video data is the vehicle Ve. When the control unit 11 determines that the moving object included in the sensing information and the video data is not the vehicle Ve (step ST25: No), the process returns to step ST22. On the other hand, when the control unit 11 determines that the moving object included in the sensing information and the video data is the vehicle Ve (step ST25: Yes), the process proceeds to step ST26.

ステップST26において制御部11は、まず、上述したステップST2において測距センサ22a,22bから取得して同期したセンシング情報と、ステップST22において赤外線カメラ32a,32bから取得して同期した映像データとを同期させる。続いて、映像データに含まれる車両Veの情報に基づいて、センシング情報に含まれる車両Veの情報からノイズを除去する。これにより、センシング情報に含まれる車両Veの情報を精度よく抽出できる。 In step ST26, the control unit 11 first synchronizes the sensing information acquired and synchronized from the distance measuring sensors 22a and 22b in step ST2 described above with the video data acquired and synchronized from the infrared cameras 32a and 32b in step ST22. Let me. Subsequently, noise is removed from the vehicle Ve information included in the sensing information based on the vehicle Ve information included in the video data. As a result, the vehicle Ve information included in the sensing information can be accurately extracted.

次に、ステップST27において制御部11は、センシング情報に含まれる車両Veの存在領域の範囲を確定させる車両の範囲処理を行う。車両Veが含まれる存在領域の範囲は、例えば、車両Veを囲むような略直方体状に設定できる。すなわち、制御部11は、車両Veと認識された面からやや外側を含めた直方体の空間領域を車両Veであると定義する(枠囲い処理)。この枠囲い処理は、車両Veをマスキングするマスキング処理でもある。これにより、制御部11が、車両Veに設けられている例えば油圧ポンプや突起物などの付属物を、人間Uと誤検知することを抑制でき、車両Veの誤認識を抑制できる。また、車両Veの存在位置を確定させることができる。 Next, in step ST27, the control unit 11 performs vehicle range processing for determining the range of the vehicle Ve existing region included in the sensing information. The range of the existence area including the vehicle Ve can be set to, for example, a substantially rectangular parallelepiped shape surrounding the vehicle Ve. That is, the control unit 11 defines the space region of the rectangular parallelepiped including a little outside from the surface recognized as the vehicle Ve as the vehicle Ve (frame enclosing process). This frame enclosure process is also a masking process for masking the vehicle Ve. As a result, it is possible to prevent the control unit 11 from erroneously detecting an accessory such as a hydraulic pump or a protrusion provided on the vehicle Ve as a human U, and to suppress erroneous recognition of the vehicle Ve. In addition, the existence position of the vehicle Ve can be determined.

次に、ステップST28において制御部11は、測距センサ22a,22bからのセンシング情報に基づいて、車両Veの動態軌跡L2を生成する。ここで、車両Veの動態軌跡L2は、基本的にほぼ直線状になる。制御部11は、生成した車両Veの動態軌跡L2を、表示部141に表示させてもよい。その後、検知処理は、図4に示すステップST29に移行する。 Next, in step ST28, the control unit 11 generates the dynamic locus L2 of the vehicle Ve based on the sensing information from the distance measuring sensors 22a and 22b. Here, the dynamic locus L2 of the vehicle Ve is basically substantially linear. The control unit 11 may display the generated dynamic locus L2 of the vehicle Ve on the display unit 141. After that, the detection process proceeds to step ST29 shown in FIG.

ステップST29において制御部11は、車両Veの動態軌跡L2が車両Veの後退を示すか否かを判定する。ここで、車両Veの後退とは、例えば図6に示すように、プラットホーム100上において、車両Veがごみピット50に近づく移動をいう。制御部11が、車両Veの動態軌跡L2は、車両Veの後退を示していないと判定した場合(ステップST29:No)、ステップST29を繰り返し実行する。制御部11が、車両Veの動態軌跡L2は、車両Veの後退を示していると判定した場合(ステップST29:Yes)、ステップST30に移行して、制御部11は、車両Veの後部から第2エリアA2との境界までの範囲における第1エリアA1を、予知エリアに設定する。これは、車両Veが後退する場合、人間Uが車両Veとごみピット50との間に位置していると、車両Veの後退によって、人間Uがごみピット50に押し出される可能性があるためである。そのため、この押し出される可能性が生じる領域を、予知エリアとして設定することによって、ごみピット50への転落の可能性を予知できる。なお、予知エリアは第1エリアA1と同じ領域であっても、第1エリアA1を含むより広い領域であって、第1エリアA1において車両Veの後方の領域と重なる領域であってもよい。 In step ST29, the control unit 11 determines whether or not the dynamic locus L2 of the vehicle Ve indicates the reverse movement of the vehicle Ve. Here, the retreat of the vehicle Ve means, for example, as shown in FIG. 6, the movement of the vehicle Ve approaching the garbage pit 50 on the platform 100. When the control unit 11 determines that the dynamic locus L2 of the vehicle Ve does not indicate the reverse movement of the vehicle Ve (step ST29: No), step ST29 is repeatedly executed. When the control unit 11 determines that the dynamic locus L2 of the vehicle Ve indicates the backward movement of the vehicle Ve (step ST29: Yes), the process proceeds to step ST30, and the control unit 11 moves from the rear portion of the vehicle Ve to the third. The first area A1 in the range up to the boundary with the two areas A2 is set as the prediction area. This is because when the vehicle Ve retreats, if the human U is located between the vehicle Ve and the garbage pit 50, the retreat of the vehicle Ve may push the human U into the garbage pit 50. is there. Therefore, by setting the area where the possibility of being pushed out occurs as the prediction area, the possibility of falling into the garbage pit 50 can be predicted. The prediction area may be the same area as the first area A1, or may be a wider area including the first area A1 and may be an area overlapping the area behind the vehicle Ve in the first area A1.

次に、ステップST31に移行して制御部11は、上述したステップST6において生成した人間Uの動態軌跡L1に基づいて、予知エリア内に人間Uが進入したか否かを判定する。制御部11が予知エリア内に人間Uは進入していないと判定した場合(ステップST31:No)、ステップST31を繰り返し実行する。一方、制御部11が予知エリアに人間Uは進入していると判定した場合(ステップST31:Yes)、ステップST32に移行する。この場合、車両Veが後退かつ人間Uが予知エリア内に進入しているという状況は、車両Veと人間Uとの相対的な状況の所定条件とすることができる。すなわち、ステップST29〜ST31において制御部11は、車両Veと人間Uとの相対的な状況が、所定条件に適合しているか否かを判定している。 Next, in step ST31, the control unit 11 determines whether or not the human U has entered the prediction area based on the dynamic locus L1 of the human U generated in step ST6 described above. When the control unit 11 determines that the human U has not entered the prediction area (step ST31: No), step ST31 is repeatedly executed. On the other hand, when the control unit 11 determines that the human U has entered the prediction area (step ST31: Yes), the process proceeds to step ST32. In this case, the situation in which the vehicle Ve is retreating and the human U is entering the prediction area can be a predetermined condition of the relative situation between the vehicle Ve and the human U. That is, in steps ST29 to ST31, the control unit 11 determines whether or not the relative situation between the vehicle Ve and the human U conforms to a predetermined condition.

その後、ステップST32において制御部11は、数分間に亘って録画処理を行う。次に、ステップST33に移行して制御部11は、予知警報信号を出力部14に出力する。出力部14は、入力された予知警報信号を警報出力部40に出力してステップST34に移行する。ステップST34において警報出力部40は、入力された予知警報信号に基づいて、表示機41および音声スピーカ42の少なくとも1つから、予知警報を出力する。予知警報は、例えば、表示機41から緑色の発光などで行ったり、音声スピーカ42から「後方に人がいます、注意してください」などのアナウンスを音声で行ったりすることができる。なお、ステップST32とステップST33,ST34とは、並行して行うことが可能である。以上により、車両Veと人間Uとの検知処理は終了するが、ステップST21〜ST34は、ステップST1〜ST14と並行して、繰り返し実行される。 After that, in step ST32, the control unit 11 performs the recording process for several minutes. Next, in step ST33, the control unit 11 outputs the prediction alarm signal to the output unit 14. The output unit 14 outputs the input predictive alarm signal to the alarm output unit 40 and proceeds to step ST34. In step ST34, the alarm output unit 40 outputs a predictive alarm from at least one of the display 41 and the voice speaker 42 based on the input predictive alarm signal. For example, the predictive alarm can be given by emitting green light from the display 41, or an announcement such as "There is a person behind, please be careful" can be made by voice from the voice speaker 42. It should be noted that step ST32 and steps ST33 and ST34 can be performed in parallel. As described above, the detection process between the vehicle Ve and the human U is completed, but steps ST21 to ST34 are repeatedly executed in parallel with steps ST1 to ST14.

(測距センサの保持部材)
次に、測距センサ22a,22bをプラットホーム100の投入扉の近傍に設置するための保持部材200について説明する。図7および図8はそれぞれ、保持部材200の分解図および設置時の状態を示す図である。なお、本実施形態においては、保持部材200によって、赤外線カメラ32a,32bも併せて保持されて投入扉の近傍に固定される。
(Holding member of distance measurement sensor)
Next, the holding member 200 for installing the distance measuring sensors 22a and 22b in the vicinity of the input door of the platform 100 will be described. 7 and 8 are an exploded view of the holding member 200 and a view showing a state at the time of installation, respectively. In the present embodiment, the holding member 200 also holds the infrared cameras 32a and 32b and fixes them in the vicinity of the input door.

図7に示すように、保持部材200は、図7(a)に示す保持台201、図7(b)に示す傾斜延伸部202、および図7(c)に示す保持板203を備える。保持台201は、投入扉の近傍に取り付け可能な金属板などから構成される。傾斜延伸部202は、例えば側面において矩形の一部がテーパ状に形成された台形状の棒状または板状の金属部材である。傾斜延伸部202のテーパ状の部分(テーパ状部)は、鋭角αの部分を有する。鋭角αは、20°以上45°以下の例えば30°に設定される。保持板203は、例えば矩形状に形成された金属板などから構成される。 As shown in FIG. 7, the holding member 200 includes a holding base 201 shown in FIG. 7A, an inclined extending portion 202 shown in FIG. 7B, and a holding plate 203 shown in FIG. 7C. The holding base 201 is composed of a metal plate or the like that can be attached in the vicinity of the input door. The inclined extending portion 202 is, for example, a trapezoidal rod-shaped or plate-shaped metal member in which a part of a rectangle is formed in a tapered shape on a side surface. The tapered portion (tapered portion) of the inclined extending portion 202 has an acute angle α portion. The acute angle α is set to, for example, 30 °, which is 20 ° or more and 45 ° or less. The holding plate 203 is composed of, for example, a metal plate formed in a rectangular shape.

図8に示すように、測距センサ22aを保持する保持部材200Aは、保持台201A、傾斜延伸部202A、および保持板203Aを有して構成される。保持部材200Aはプラットホームの投入扉に向かって左側に取り付けられる。傾斜延伸部202Aのテーパ状部は、保持台201Aに対して角度θで、正面視右側に傾けられて溶接固定される。保持台201Aの溶接面に対する傾斜延伸部202Aの角度θAは、例えば、30°以上60°以下の例えば45°に設定される。傾斜延伸部202Aの長手方向に沿って、テーパ状部とは反対側の端部に、保持板203Aが溶接固定される。保持板203Aに測距センサ22aが固定されて、保持台201Aが投入扉の近傍に取り付けられることにより、測距センサ22aが投入扉の近傍の左側に固定される。 As shown in FIG. 8, the holding member 200A for holding the distance measuring sensor 22a includes a holding base 201A, an inclined extending portion 202A, and a holding plate 203A. The holding member 200A is attached to the left side of the platform when facing the input door. The tapered portion of the inclined extending portion 202A is tilted to the right side in the front view and fixed by welding at an angle θ with respect to the holding table 201A. The angle θA of the inclined stretching portion 202A with respect to the welding surface of the holding table 201A is set to, for example, 30 ° or more and 60 ° or less, for example, 45 °. The holding plate 203A is welded and fixed to the end portion opposite to the tapered portion along the longitudinal direction of the inclined extending portion 202A. The distance measuring sensor 22a is fixed to the holding plate 203A, and the holding base 201A is attached in the vicinity of the closing door, so that the ranging sensor 22a is fixed to the left side in the vicinity of the closing door.

同様に、測距センサ22bを保持する保持部材200Bは、保持台201B、傾斜延伸部202B、および保持板203Bを有して構成される。保持部材200Bはプラットホームの投入扉に向かって右側に取り付けられる。傾斜延伸部202Bのテーパ状部は、保持台201Bに対して角度θで、正面視左側に傾けられて溶接固定される。保持台201Bの溶接面に対する傾斜延伸部202Bの角度θBは、例えば、30°以上60°以下の例えば45°に設定される。傾斜延伸部202Bの長手方向に沿って、テーパ状部とは反対側の端部に、保持板203Bが溶接固定される。保持板203Bに測距センサ22bが固定されて、保持台201Bが投入扉の近傍に取り付けられることにより、測距センサ22bが投入扉の近傍の右側に固定される。 Similarly, the holding member 200B for holding the distance measuring sensor 22b includes a holding base 201B, an inclined extending portion 202B, and a holding plate 203B. The holding member 200B is attached to the right side of the platform when facing the input door. The tapered portion of the inclined extending portion 202B is tilted to the left side in the front view and fixed by welding at an angle θ with respect to the holding table 201B. The angle θB of the inclined stretching portion 202B with respect to the welded surface of the holding table 201B is set to, for example, 30 ° or more and 60 ° or less, for example, 45 °. The holding plate 203B is welded and fixed to the end portion opposite to the tapered portion along the longitudinal direction of the inclined extending portion 202B. The distance measuring sensor 22b is fixed to the holding plate 203B, and the holding base 201B is attached in the vicinity of the closing door, so that the ranging sensor 22b is fixed to the right side in the vicinity of the closing door.

保持部材200A,200Bにおいて、角度θA,θBは互いに大きさが等しく、左右の保持部材200A,200Bにおいて、互いに内側に傾斜していることが好ましいが、必ずしも限定されない。同様に、傾斜延伸部202A,202Bにおける鋭角αも互いに等しいことが好ましいが、必ずしも限定されない。なお、保持板203A、203Bと測距センサ22a,22bの間に、角度を調整可能な雲台などを設けてもよい。以上のように左右の保持部材200A,200Bを構成することにより、測距センサ22a,22bを、好適な設置状態で、再現性よく、適切な方向にレーザ光を出射可能な状態で、投入扉の近傍に設置することができる。 In the holding members 200A and 200B, the angles θA and θB are preferably equal in size to each other, and in the left and right holding members 200A and 200B, they are preferably inclined inward, but are not necessarily limited. Similarly, the acute angles α in the inclined stretching portions 202A and 202B are preferably equal to each other, but are not necessarily limited. A pan head or the like whose angle can be adjusted may be provided between the holding plates 203A and 203B and the distance measuring sensors 22a and 22b. By configuring the left and right holding members 200A and 200B as described above, the distance measuring sensors 22a and 22b can be installed in a suitable installation state, have good reproducibility, and can emit laser light in an appropriate direction. Can be installed in the vicinity of.

上述した本実施形態によれば、監視の対象となる人間Uと車両Veに対して、測距センサ22a,22bおよび赤外線カメラ32a,32bを用いて、動態軌跡L1,L2を検知することができるので、プラットホーム100における人間Uの位置や、人間Uと車両Veとの位置関係を監視できる。そのため、これらの動態軌跡L1,L2に基づいて、軽警報や予知警報を発することができ、プラットホーム100からごみピット50への人間Uの転落を予知できる。したがって、プラットホーム100などの段差の上部で作業する人間Uが、ごみピット50などの段差の下部に転落する前の段階で、転落の可能性を人間Uや車両Veの運転者に認識させることができるので、転落の可能性を未然に防止することができ、段差の上部での作業の安全性を確保できる。また、万が一、人間Uが段差の下部に転落した場合であっても、周囲に早急に報知できるので、人命救助を迅速に行うことが可能になる。 According to the above-described embodiment, the dynamic trajectories L1 and L2 can be detected for the human U and the vehicle Ve to be monitored by using the distance measuring sensors 22a and 22b and the infrared cameras 32a and 32b. Therefore, the position of the human U on the platform 100 and the positional relationship between the human U and the vehicle Ve can be monitored. Therefore, a light warning or a prediction warning can be issued based on these dynamic trajectories L1 and L2, and the fall of the human U from the platform 100 to the garbage pit 50 can be predicted. Therefore, it is possible to make the human U or the driver of the vehicle Ve recognize the possibility of the fall before the human U working on the upper part of the step such as the platform 100 falls to the lower part of the step such as the garbage pit 50. Therefore, the possibility of falling can be prevented and the safety of work at the upper part of the step can be ensured. Further, even if the human U falls to the lower part of the step, it is possible to promptly notify the surroundings, so that it is possible to quickly save lives.

以上、本実施形態について具体的に説明したが、本発明は、上述の一実施形態に限定されるものではなく、本発明の技術的思想に基づく各種の変形が可能である。例えば、上述の一実施形態において挙げたアナウンスの内容や表示機の発光色はあくまでも例に過ぎず、これと異なるアナウンスの内容や表示機の発光色であってもよい。 Although the present embodiment has been specifically described above, the present invention is not limited to the above-described embodiment, and various modifications based on the technical idea of the present invention are possible. For example, the content of the announcement and the emission color of the display mentioned in the above-described embodiment are merely examples, and the content of the announcement and the emission color of the display may be different from this.

例えば、上述したステップST6とステップST7との間に、第1エリアA1に人間Uが進入した場合に「予知警報」を報知する処理を追加してもよい。この場合、ステップST6において制御部11が生成した人間Uの動態軌跡L1に基づいて、人間Uが第1エリアA1に進入した時点で、音声スピーカ42から「安全帯を装着してください」などのアナウンスを行ったり、表示機41から緑色の発光などで行ったりしてもよい。これにより、ごみピット50に近づいた人間Uに対して、安全の確保の必要性を報知できる。 For example, a process for notifying a "prediction alarm" when a human U enters the first area A1 may be added between the above-mentioned steps ST6 and ST7. In this case, based on the dynamic locus L1 of the human U generated by the control unit 11 in step ST6, when the human U enters the first area A1, the voice speaker 42 says, "Please wear a safety belt." An announcement may be made, or a green light may be emitted from the display 41. As a result, it is possible to notify the human U who approaches the garbage pit 50 of the necessity of ensuring safety.

例えば、上述したステップST4,ST24における形状データとの比較については、車両Veや人間Uであるか否かを、例えばディープラーニングなどの機械学習によって生成された学習済みモデルを備えた人工知能システムにより行うことも可能である。 For example, for comparison with the shape data in steps ST4 and ST24 described above, whether or not it is a vehicle Ve or a human U is determined by an artificial intelligence system equipped with a learned model generated by machine learning such as deep learning. It is also possible to do it.

例えば、上述した第1エリアA1、第2エリアA2、および第3エリアA3については、必ずしも3つの領域に限定されず、2つの領域に分けたり4つ以上の領域に分けたりすることが可能である。これらの場合においても、それぞれの領域への人間Uまたは車両Veの進入を監視することができる。 For example, the above-mentioned first area A1, second area A2, and third area A3 are not necessarily limited to three areas, and can be divided into two areas or four or more areas. is there. Even in these cases, the entry of the human U or the vehicle Ve into each area can be monitored.

例えば、上述した本実施形態においては、プラットホーム100上において車両Veの外で作業する人間Uは1人として説明しているが、複数人であってもよい。この場合、複数人の人間Uのそれぞれを個別に検知して、それぞれの人間Uの動態に対して適合する警報信号を出力する。また、表示機41においては、複数種類の警報を表す複数色の発光を同時に行ってもよい。音声スピーカ42においては、複数種類の警報を報知するアナウンスを交互に連続して行ってもよい。 For example, in the above-described embodiment, the number of humans U working outside the vehicle Ve on the platform 100 is described as one, but there may be a plurality of humans. In this case, each of the plurality of humans U is individually detected, and an alarm signal suitable for the dynamics of each human U is output. Further, the display 41 may simultaneously emit light of a plurality of colors indicating a plurality of types of alarms. In the voice speaker 42, announcements for notifying a plurality of types of alarms may be alternately and continuously performed.

例えば、上述した本実施形態においては、警報のレベルを、予知警報、軽警報、重警報の3段階のレベルの警報としているが、2段階のレベルの警報としてもよく、4段階以上のレベルの警報としてもよい。 For example, in the above-described embodiment, the alarm level is set to a three-level alarm of a predictive alarm, a light alarm, and a heavy alarm, but it may be a two-level alarm, and the alarm level may be four or more levels. It may be an alarm.

また、本実施形態においては、上述してきた「部」を、「回路」などに読み替えることができる。例えば、制御部は、制御回路に読み替えることができる。 Further, in the present embodiment, the above-mentioned "part" can be read as "circuit" or the like. For example, the control unit can be read as a control circuit.

なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」などの表現を用いてステップ間の処理の前後関係を明示していたが、本実施形態を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。 In the description of the flowchart in the present specification, the context of the processing between steps has been clarified by using expressions such as "first", "after", and "continued", but in order to implement the present embodiment. The order of processing required for is not uniquely defined by those expressions. That is, the order of processing in the flowchart described in the present specification can be changed within a consistent range.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。本開示のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付のクレームおよびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and variations can be easily derived by those skilled in the art. The broader aspects of the present disclosure are not limited to the particular details and representative embodiments described and described above. Therefore, various modifications can be made without departing from the spirit or scope of the general concept of the invention as defined by the accompanying claims and their equivalents.

1 監視システム
2 ネットワーク
3 車両管制センター
10 監視装置
11 制御部
12 記憶部
12a 車両の形状データベース
12b 人の形状データベース
13 入力部
14 出力部
15,21,31 通信部
20 人間検知部
22a,22b,33a,33b 測距センサ
23a,23b,32a,32b 赤外線カメラ
30 車両検知部
40 警報出力部
41 表示機
42 音声スピーカ
50 ごみピット
51 廃棄物
100 プラットホーム
122 監視プログラム
141 表示部
142 印刷部
200,200A,200B 保持部材
201,201A,201B 保持台
202,202A,202B 傾斜延伸部
203,203A,203B 保持板
1 Monitoring system 2 Network 3 Vehicle control center 10 Monitoring device 11 Control unit 12 Storage unit 12a Vehicle shape database 12b Human shape database 13 Input unit 14 Output unit 15, 21, 31 Communication unit 20 Human detection unit 22a, 22b, 33a , 33b Distance measurement sensor 23a, 23b, 32a, 32b Infrared camera 30 Vehicle detection unit 40 Alarm output unit 41 Display 42 Voice speaker 50 Garbage pit 51 Waste 100 Platform 122 Monitoring program 141 Display unit 142 Printing unit 200, 200A, 200B Holding member 201, 201A, 201B Holding base 202, 202A, 202B Inclined extension portion 203, 203A, 203B Holding plate

Claims (11)

所定の高さの段差における前記段差の上部の所定領域に進入する少なくとも1つの物体を監視する制御部を備えた監視装置であって、
前記制御部は、
前記所定領域に存在する物体を検知するセンサから入力されたセンシング情報および前記所定領域に存在する物体を撮像する撮像部から入力された映像データの少なくとも一方に基づいて、前記所定領域に進入して移動する前記少なくとも1つの物体を人間または車両として検知し、
前記人間が前記所定領域に進入した場合に、前記段差の上部と前記段差の下部との境界からの変位に応じて設定された複数の領域のうちの、いずれの領域に進入したかに応じて選択された、複数のレベルの警報のうちの1つのレベルの警報に対応した警報信号を、外部に報知する警報出力部に出力し、
前記人間と前記車両との相対的な状況が所定条件に適合した場合に、前記人間の前記段差の下部への転落を予知する予知警報信号を、前記警報出力部に出力する
監視装置。
A monitoring device including a control unit that monitors at least one object that enters a predetermined area above the step at a step of a predetermined height.
The control unit
Entering the predetermined area based on at least one of the sensing information input from the sensor that detects the object existing in the predetermined area and the video data input from the imaging unit that images the object existing in the predetermined area. Detecting at least one moving object as a human or vehicle,
When the human enters the predetermined area, depending on which area of the plurality of areas set according to the displacement from the boundary between the upper part of the step and the lower part of the step has entered. The alarm signal corresponding to the alarm of one level of the selected alarms of a plurality of levels is output to the alarm output unit for notifying the outside.
A monitoring device that outputs a predictive warning signal for predicting a fall of the human to the lower part of the step when the relative situation between the human and the vehicle meets a predetermined condition to the warning output unit.
前記制御部は、
前記撮像部が撮像した前記所定領域に進入する前記物体の映像データおよび前記センシング情報に基づいて、前記所定領域に存在する前記車両を抽出し、
前記センシング情報に含まれる検知された物体のうち、前記映像データに基づいて抽出した前記車両の存在領域を含む略直方体の空間領域を前記センシング情報に含まれる前記車両として分類する
請求項1に記載の監視装置。
The control unit
Based on the video data of the object entering the predetermined region and the sensing information captured by the imaging unit, the vehicle existing in the predetermined region is extracted.
The first aspect of claim 1, wherein among the detected objects included in the sensing information, a substantially rectangular parallelepiped spatial region including an existing region of the vehicle extracted based on the video data is classified as the vehicle included in the sensing information. Monitoring device.
前記制御部は、
複数の車両をパターン認識させることによって得られた車両の形状データと、前記撮像部から入力される前記映像データおよび前記センシング情報とを比較することにより、前記映像データおよび前記センシング情報から前記車両を抽出する
請求項2に記載の監視装置。
The control unit
By comparing the shape data of the vehicle obtained by pattern-recognizing a plurality of vehicles with the video data and the sensing information input from the imaging unit, the vehicle can be obtained from the video data and the sensing information. The monitoring device according to claim 2 to be extracted.
前記制御部は、
複数の人間の姿勢をパターン認識させることによって得られた人の形状データと、前記センシング情報とを比較することにより、前記センシング情報に含まれる前記物体が前記人間であるか否かを判定する
請求項1〜3のいずれか1項に記載の監視装置。
The control unit
A request for determining whether or not the object included in the sensing information is the human by comparing the shape data of the person obtained by pattern-recognizing the postures of a plurality of humans with the sensing information. Item 3. The monitoring device according to any one of Items 1 to 3.
前記制御部は、
検知した物体の動態軌跡を取得し、前記動態軌跡に基づいて、前記所定領域に進入して移動する前記少なくとも1つの物体を人間または車両として検知する
請求項1〜4のいずれか1項に記載の監視装置。
The control unit
The invention according to any one of claims 1 to 4, wherein the dynamic locus of the detected object is acquired, and based on the dynamic locus, at least one object that enters and moves in the predetermined region is detected as a human being or a vehicle. Monitoring device.
前記センサは、前記車両の高さより高い位置に複数設けられ、
前記制御部は、複数の前記センサのそれぞれから出力されたセンシング情報を互いに同期させる
請求項1〜5のいずれか1項に記載の監視装置。
A plurality of the sensors are provided at a position higher than the height of the vehicle.
The monitoring device according to any one of claims 1 to 5, wherein the control unit synchronizes sensing information output from each of the plurality of sensors with each other.
前記センサは、前記センサから物体までの距離を計測する測距センサである
請求項1〜6のいずれか1項に記載の監視装置。
The monitoring device according to any one of claims 1 to 6, wherein the sensor is a distance measuring sensor that measures a distance from the sensor to an object.
前記段差の上部が廃棄物処理施設におけるプラットホームであり、前記段差の下部が前記廃棄物処理施設におけるごみピットであり、前記車両が塵芥収集車である
請求項1〜7のいずれか1項に記載の監視装置。
The upper part of the step is a platform in a waste treatment facility, the lower part of the step is a garbage pit in the waste treatment facility, and the vehicle is a dust collecting vehicle. Monitoring device.
所定の高さの段差における前記段差の上部の所定領域に進入する少なくとも1つの物体を監視する監視システムであって、
前記所定領域に存在する物体を検知するセンサと、
前記所定領域に存在する物体を撮像する撮像部と、
外部に警報を報知する警報出力部と、
前記センサから入力されたセンシング情報および前記撮像部から入力された映像データの少なくとも一方に基づいて、前記所定領域に進入して移動する前記少なくとも1つの物体を人間または車両に分類し、前記人間が前記所定領域に進入した場合に、前記段差の上部と前記段差の下部との境界からの変位に応じて設定された複数の領域のうちの、いずれの領域に進入したかに応じて選択された、複数のレベルの警報のうちの1つのレベルの警報に対応した警報信号を前記警報出力部に出力し、前記人間と前記車両との相対的な状況が所定条件に適合した場合に、前記警報出力部に、前記人間の前記段差の下部への転落を予知する予知警報信号を出力する、制御部を有する監視装置と、を備える
監視システム。
A monitoring system that monitors at least one object entering a predetermined area above the step at a step of a predetermined height.
A sensor that detects an object existing in the predetermined area,
An imaging unit that images an object existing in the predetermined region,
An alarm output unit that notifies the alarm to the outside and
Based on at least one of the sensing information input from the sensor and the video data input from the imaging unit, the at least one object that enters and moves in the predetermined area is classified into a human or a vehicle, and the human is classified as a human or a vehicle. When entering the predetermined region, it was selected according to which region of the plurality of regions set according to the displacement from the boundary between the upper portion of the step and the lower portion of the step was entered. , An alarm signal corresponding to one level of alarm among a plurality of levels of alarm is output to the alarm output unit, and when the relative situation between the person and the vehicle meets a predetermined condition, the alarm A monitoring system including a monitoring device having a control unit that outputs a prediction warning signal for predicting a fall of the human to the lower part of the step in the output unit.
ハードウェアを有する制御部が、
所定の高さの段差における前記段差の上部の所定領域に存在する物体を検知するセンサからセンシング情報を取得し、
前記所定領域に存在する物体を撮像する撮像部から映像データを取得し、
取得した前記センシング情報および前記映像データの少なくとも一方に基づいて、前記所定領域に進入して移動する少なくとも1つの物体を人間または車両に分類し、
前記人間が前記所定領域に進入した場合に、前記段差の上部と前記段差の下部との境界からの変位に応じて設定された複数の領域のうちの、いずれの領域に進入したかに応じて選択された、複数のレベルの警報のうちの1つのレベルの警報に対応した警報信号を、外部に報知する警報出力部に送信して、前記1つのレベルの警報を報知し、
前記人間と前記車両との相対的な状況が所定条件に適合した場合に、前記人間の前記段差の下部への転落を予知する予知警報信号を前記警報出力部に送信して、前記予知警報信号に対応する予知警報を報知する
監視方法。
The control unit with hardware
Sensing information is acquired from a sensor that detects an object existing in a predetermined area above the step at a step of a predetermined height.
Video data is acquired from an imaging unit that captures an object existing in the predetermined region, and the image data is acquired.
Based on the acquired sensing information and at least one of the video data, at least one object that enters and moves in the predetermined area is classified as a human or a vehicle.
When the human enters the predetermined area, depending on which area of the plurality of areas set according to the displacement from the boundary between the upper part of the step and the lower part of the step has entered. An alarm signal corresponding to one level of the selected alarms of a plurality of levels is transmitted to an alarm output unit that notifies the outside, and the alarm of the one level is notified.
When the relative situation between the human and the vehicle meets a predetermined condition, a predictive warning signal for predicting the fall of the human to the lower part of the step is transmitted to the warning output unit, and the predictive warning signal is transmitted. A monitoring method that notifies the prediction alarm corresponding to.
所定の高さの段差における前記段差の上部の所定領域に進入する少なくとも1つの物体を監視する制御部に、
前記所定領域に存在する物体を検知するセンサからセンシング情報を取得し、
前記所定領域に存在する物体を撮像する撮像部から映像データを取得し、
取得した前記センシング情報に基づいて、前記所定領域に進入して移動する前記少なくとも1つの物体を人間または車両に分類し、
前記人間が前記所定領域に進入した場合に、前記段差の上部と前記段差の下部との境界からの変位に応じて設定された複数の領域のうちの、いずれの領域に進入したかに応じて選択された、複数のレベルの警報のうちの1つのレベルの警報に対応した警報信号を、外部に報知する警報出力部に送信し、
前記人間と前記車両との相対的な状況が所定条件に適合した場合に、前記人間の前記段差の下部への転落を予知する予知警報信号を前記警報出力部に送信する
ことを実行させるプログラム。
A control unit that monitors at least one object that enters a predetermined area above the step at a step of a predetermined height.
Sensing information is acquired from a sensor that detects an object existing in the predetermined area, and
Video data is acquired from an imaging unit that captures an object existing in the predetermined region, and the image data is acquired.
Based on the acquired sensing information, the at least one object that enters and moves in the predetermined area is classified as a human or a vehicle.
When the human enters the predetermined area, depending on which area of the plurality of areas set according to the displacement from the boundary between the upper part of the step and the lower part of the step has entered. The alarm signal corresponding to the alarm of one level of the selected alarms of a plurality of levels is transmitted to the alarm output unit that notifies the outside.
A program for transmitting a predictive warning signal for predicting a fall of the human to the lower part of the step to the warning output unit when the relative situation between the human and the vehicle meets a predetermined condition.
JP2019232625A 2019-12-24 2019-12-24 Monitoring device, monitoring system, monitoring method, and program Pending JP2021100872A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019232625A JP2021100872A (en) 2019-12-24 2019-12-24 Monitoring device, monitoring system, monitoring method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019232625A JP2021100872A (en) 2019-12-24 2019-12-24 Monitoring device, monitoring system, monitoring method, and program

Publications (1)

Publication Number Publication Date
JP2021100872A true JP2021100872A (en) 2021-07-08

Family

ID=76651138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019232625A Pending JP2021100872A (en) 2019-12-24 2019-12-24 Monitoring device, monitoring system, monitoring method, and program

Country Status (1)

Country Link
JP (1) JP2021100872A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022014437A (en) * 2020-07-06 2022-01-19 株式会社タクマ Device for warning falling into refuse pit, method for warning falling into refuse pit and program for warning falling into refuse pit

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022014437A (en) * 2020-07-06 2022-01-19 株式会社タクマ Device for warning falling into refuse pit, method for warning falling into refuse pit and program for warning falling into refuse pit
JP7122439B2 (en) 2020-07-06 2022-08-19 株式会社タクマ Garbage pit fall alarm device, garbage pit fall alarm method and garbage pit fall alarm program

Similar Documents

Publication Publication Date Title
US11669103B2 (en) System for obstacle detection
EP2116826A1 (en) Heat-ray sensor
JP5917327B2 (en) Escalator monitoring system
JP2015515613A (en) Method and apparatus for securing the hazardous work area of an automatic machine
JP5542661B2 (en) Sliding door device and elevator
JP2008273709A (en) Elevator device
JP6321245B1 (en) Elevator maintenance work support system
KR102074857B1 (en) Proximity sensor and proximity sensing method using design vision sensor
JP2013131100A (en) Number of persons prediction method, number of persons prediction device, movable robot, and program
JP2022188244A (en) Crane information processing device
JP2021100872A (en) Monitoring device, monitoring system, monitoring method, and program
JP2011093514A (en) Safety device for platform door
JP2015120584A (en) Image monitoring device and elevator monitoring device
JP2008100782A (en) Elevator and its safety device
KR101238788B1 (en) Elevator crime prvent system and method of controlling the same
JP2015036333A (en) Abnormal stop notification system for elevator
JP7021652B2 (en) In-car monitoring device
KR101713844B1 (en) System and method for management of elevator using pressure sensor
JP7402779B2 (en) Program, information processing method, and information processing system
JP2022014437A (en) Device for warning falling into refuse pit, method for warning falling into refuse pit and program for warning falling into refuse pit
JP2008201509A (en) Person behavior discriminating system
JP5597057B2 (en) Passenger drag detection system at home
JP5647458B2 (en) Home fall detection system
JP6426438B2 (en) Orbit approach warning system
KR20170133592A (en) Fall protection system on Platform

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20200117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200117