JP7438738B2 - information processing equipment - Google Patents

information processing equipment Download PDF

Info

Publication number
JP7438738B2
JP7438738B2 JP2019223388A JP2019223388A JP7438738B2 JP 7438738 B2 JP7438738 B2 JP 7438738B2 JP 2019223388 A JP2019223388 A JP 2019223388A JP 2019223388 A JP2019223388 A JP 2019223388A JP 7438738 B2 JP7438738 B2 JP 7438738B2
Authority
JP
Japan
Prior art keywords
visible light
processor
light image
image
fire
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019223388A
Other languages
Japanese (ja)
Other versions
JP2021092987A (en
Inventor
耕輔 松本
遼 星子
貴光 相葉
康行 宮島
洋祐 田坂
創 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Infrastructure Systems and Solutions Corp
Tokyo Metro Co Ltd
Original Assignee
Toshiba Infrastructure Systems and Solutions Corp
Tokyo Metro Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Infrastructure Systems and Solutions Corp, Tokyo Metro Co Ltd filed Critical Toshiba Infrastructure Systems and Solutions Corp
Priority to JP2019223388A priority Critical patent/JP7438738B2/en
Publication of JP2021092987A publication Critical patent/JP2021092987A/en
Application granted granted Critical
Publication of JP7438738B2 publication Critical patent/JP7438738B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Radiation Pyrometers (AREA)
  • Fire-Detection Mechanisms (AREA)
  • Fire Alarms (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、情報処理装置に関する。 Embodiments of the present invention relate to an information processing device.

電車などの車両の自動運転に用いる監視装置(情報処理装置)には、前方の火災を検知するものがある。そのような監視装置は、赤外線カメラなどを用いて撮影された画像から高温の領域を特定することで、火災を検知する。 Some monitoring devices (information processing devices) used for automatic operation of vehicles such as trains detect fires in front. Such monitoring devices detect fires by identifying high-temperature areas from images taken using an infrared camera or the like.

特開2017-16249号公報JP 2017-16249 Publication

上記した監視装置は、車両の運行に影響がない遠方の火災を検知してしまうおそれがある。そこで、このような課題を解決するため、赤外線カメラで撮影した各部までの距離を詳細に測定することができる情報処理装置を提供する。 The above-mentioned monitoring device may detect a distant fire that does not affect the operation of the vehicle. Therefore, in order to solve such problems, an information processing device is provided that can precisely measure the distance to each part photographed with an infrared camera.

実施形態によれば、情報処理装置は、第1の可視光カメラインターフェースと、第2の可視光カメラインターフェースと、赤外線カメラインターフェースと、プロセッサと、を備える。第1の可視光カメラインターフェースは、第1の可視光画像を取得する。第2の可視光カメラインターフェースは、前記第1の可視光画像に対応する第2の可視光画像を取得する。赤外線カメラインターフェースは、前記第1の可視光画像及び前記第2の可視光画像の解像度よりも低い解像度であって、前記第1の可視光画像に対応する赤外線画像を取得する。プロセッサは、前記第1の可視光画像と前記第2の可視光画像とに基づいて、前記第1の可視光画像の各座標における距離を特定し、前記赤外線画像に基づいて、前記第1の可視光画像の各座標における温度を特定する。 According to an embodiment, an information processing device includes a first visible light camera interface, a second visible light camera interface, an infrared camera interface, and a processor. A first visible light camera interface acquires a first visible light image. A second visible light camera interface obtains a second visible light image corresponding to the first visible light image. The infrared camera interface acquires an infrared image corresponding to the first visible light image and having a lower resolution than the first visible light image and the second visible light image. The processor identifies a distance at each coordinate of the first visible light image based on the first visible light image and the second visible light image, and determines the distance at each coordinate of the first visible light image based on the infrared image. Identify the temperature at each coordinate in the visible light image.

図1は、実施形態に係る運行システムの構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of a transportation system according to an embodiment. 図2は、実施形態に係る監視装置の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of a monitoring device according to an embodiment. 図3は、実施形態に係る監視装置の動作例を示す図である。FIG. 3 is a diagram illustrating an example of the operation of the monitoring device according to the embodiment. 図4は、実施形態に係る監視装置の動作例を示す図である。FIG. 4 is a diagram illustrating an example of the operation of the monitoring device according to the embodiment. 図5は、実施形態に係る監視装置の動作例を示す図である。FIG. 5 is a diagram illustrating an example of the operation of the monitoring device according to the embodiment. 図6は、実施形態に係る監視装置の動作例を示す図である。FIG. 6 is a diagram illustrating an example of the operation of the monitoring device according to the embodiment. 図7は、実施形態に係る監視装置の動作例を示す図である。FIG. 7 is a diagram illustrating an example of the operation of the monitoring device according to the embodiment. 図8は、実施形態に係る監視装置の動作例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the operation of the monitoring device according to the embodiment. 図9は、実施形態に係る監視装置の動作例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of the operation of the monitoring device according to the embodiment. 図10は、実施形態に係る監視装置の動作例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of the operation of the monitoring device according to the embodiment.

以下、実施形態について、図面を参照して説明する。
実施形態に係る運行システムは、電車(車両)の運行を制御する。運行システムは、電車に搭載されるカメラを用い、電車の運行に支障を来すおそれのある火災を検知する。なお、運行システムは、自動運転で走行する電車の運行を制御するものであってもよく、また、有人運転で走行する電車の運行を制御するものであってもよい。
Embodiments will be described below with reference to the drawings.
The operation system according to the embodiment controls the operation of trains (vehicles). The operation system uses cameras mounted on trains to detect fires that could disrupt train operation. Note that the operation system may be one that controls the operation of a train that runs in automatic operation, or may be one that controls the operation of a train that runs in manned operation.

図1は、実施形態に係る運行システム100の構成例を示す。図1が示すように、運行システム100は、車両1、司令室2及び信号機3などで構成される。ここで、司令室2は、車両1及び信号機3と無線通信路や有線通信路を介して通信する。また、車両1は、信号機3と通信可能に接続する。また、運行システム100は、火災4を検知するものである。 FIG. 1 shows a configuration example of a transportation system 100 according to an embodiment. As shown in FIG. 1, the operation system 100 includes a vehicle 1, a command center 2, a traffic signal 3, and the like. Here, the command center 2 communicates with the vehicle 1 and the traffic light 3 via a wireless communication path or a wired communication path. Further, the vehicle 1 is communicably connected to a traffic light 3. The operation system 100 also detects a fire 4.

なお、運行システム100は、図1が示すような構成の他に必要に応じた構成を具備したり、特定の構成が除外されたりしてもよい。 Note that the operation system 100 may include other configurations as needed in addition to the configuration shown in FIG. 1, or may exclude specific configurations.

車両1は、所定の線路上を走行する電車である。車両1は、司令室2からの指令又は信号機3の表示状態などに基づいて走行する。また、車両1は、火災4を検知する。車両1は、火災4を検知すると、司令室2に火災を検知したことを通知する。 The vehicle 1 is an electric train that runs on a predetermined track. The vehicle 1 travels based on commands from a command center 2 or the display state of a traffic light 3. Additionally, the vehicle 1 detects a fire 4. When the vehicle 1 detects the fire 4, it notifies the command room 2 that the fire has been detected.

車両1は、自動運転で走行するものであってもよい。また、車両1は、有人運転で走行するものであってもよい。 The vehicle 1 may be one that runs automatically. Further, the vehicle 1 may be driven by a manned driver.

車両1については、後に詳述する。 The vehicle 1 will be detailed later.

司令室2は、運行システム100全体を制御する。司令室2は、車両1からの信号、線路状況、天候などに基づいて、車両1の運行を制御する。例えば、司令室2は、車両1へ進行又は停止の指示を送信する。司令室2は、有人よって車両1の運行を制御するものであってもよい。また、司令室2は、自動で車両1の運行を制御するものであってもよい。 The command center 2 controls the entire operation system 100. The command center 2 controls the operation of the vehicle 1 based on signals from the vehicle 1, track conditions, weather, and the like. For example, the command center 2 transmits an instruction to the vehicle 1 to proceed or stop. The command center 2 may be manned to control the operation of the vehicle 1. Further, the command center 2 may automatically control the operation of the vehicle 1.

信号機3は、司令室2からの制御に従って、進行の可否を表示する。例えば、信号機3は、進行の可否を示すランプを点灯する。また、信号機3は、制限速度を表示してもよい。信号機3は、車両1の運転者が目視可能な位置、例えば線路際、に設置される。 The traffic light 3 displays whether or not the vehicle can proceed in accordance with the control from the command center 2. For example, the traffic light 3 lights up a lamp indicating whether or not the vehicle can proceed. Further, the traffic light 3 may display a speed limit. The traffic light 3 is installed at a position where the driver of the vehicle 1 can see it, for example, near a railroad track.

また、信号機3は、有線又は無線で、進行の可否又は制限速度を示す信号情報を車両1へ送信する。例えば、信号機3は、信号機3に差し掛かる車両1に対して、進行の可否又は制限速度を示す信号情報を送信する。 Further, the traffic light 3 transmits signal information indicating whether or not the vehicle can proceed or the speed limit to the vehicle 1 by wire or wirelessly. For example, the traffic light 3 transmits to the vehicle 1 approaching the traffic light 3 signal information indicating whether or not the vehicle can proceed or the speed limit.

次に、車両1について説明する。
図1が示すように、車両1は、監視装置10、通信装置20、案内装置30、運転装置40、信号装置50及び制御装置60などを備える。監視装置10は、通信装置20、案内装置30、運転装置40及び制御装置60などと接続する。また、制御装置60は、運転装置40及び信号装置50などと接続する。
Next, the vehicle 1 will be explained.
As shown in FIG. 1, the vehicle 1 includes a monitoring device 10, a communication device 20, a guide device 30, a driving device 40, a signaling device 50, a control device 60, and the like. The monitoring device 10 is connected to a communication device 20, a guidance device 30, a driving device 40, a control device 60, and the like. Further, the control device 60 is connected to the driving device 40, the signal device 50, and the like.

なお、車両1は、図1が示すような構成の他に必要に応じた構成を具備したり、特定の構成が除外されたりしてもよい。 It should be noted that the vehicle 1 may include other configurations as required in addition to the configuration shown in FIG. 1, or a specific configuration may be excluded.

監視装置10(情報処理装置)は、車両1の運行に支障を来す恐れのある障害物や火災などを検知する。監視装置10については、後に詳述する。 The monitoring device 10 (information processing device) detects obstacles, fires, etc. that may interfere with the operation of the vehicle 1. The monitoring device 10 will be described in detail later.

通信装置20は、司令室2と通信するための有線又は無線のインターフェースである。 The communication device 20 is a wired or wireless interface for communicating with the command center 2.

案内装置30は、車両1の乗客に対して、音声アナウンス、警告音又は画像などの案内を出力する。案内装置30は、監視装置10からの信号に従って案内を出力する。また、案内装置30は、車掌又は運転手などの制御に従って案内を出力する。 The guidance device 30 outputs guidance such as a voice announcement, a warning sound, or an image to the passengers of the vehicle 1. The guidance device 30 outputs guidance according to the signal from the monitoring device 10. Further, the guidance device 30 outputs guidance under the control of a conductor, a driver, or the like.

運転装置40は、監視装置10や信号装置50からの信号などに基づいて、加速、減速又は惰行などを指示する信号を制御装置60に送信する。例えば、運転装置40は、ATO(Automatic Train Operation)装置などである。 The driving device 40 transmits a signal instructing acceleration, deceleration, coasting, etc. to the control device 60 based on signals from the monitoring device 10, the signal device 50, and the like. For example, the operating device 40 is an ATO (Automatic Train Operation) device.

信号装置50は、信号機3から信号情報を受信する。信号装置50は、受信した信号情報を運転手などに提示する。また、信号装置50は、信号情報に基づいて、停止又は減速を指示する信号を制御装置60に送信する。例えば、信号装置50は、車両1の速度が、信号情報が示す制限速度を超えている場合、減速を指示する信号を制御装置60に送信する。例えば、信号装置50は、ATC(Automatic Train Control)装置又はCBTC(Communication-Based Train Control)装置などである。 The signaling device 50 receives signal information from the traffic light 3. The signaling device 50 presents the received signal information to a driver or the like. Further, the signaling device 50 transmits a signal instructing stop or deceleration to the control device 60 based on the signal information. For example, if the speed of the vehicle 1 exceeds the speed limit indicated by the signal information, the signaling device 50 transmits a signal instructing deceleration to the control device 60. For example, the signaling device 50 is an ATC (Automatic Train Control) device or a CBTC (Communication-Based Train Control) device.

制御装置60は、監視装置10、運転装置40及び信号装置50などからの信号などに基づいて、車両1を加速、減速又は停止させる。制御装置60は、駆動装置及びブレーキ装置などを制御し、車両1を加速、減速又は停止させる。 The control device 60 accelerates, decelerates, or stops the vehicle 1 based on signals from the monitoring device 10, the driving device 40, the signal device 50, and the like. The control device 60 controls a drive device, a brake device, etc., and accelerates, decelerates, or stops the vehicle 1.

次に、監視装置10について説明する。
図2は、監視装置10の構成例を示す。図2が示すように、監視装置10は、プロセッサ11は、メモリ12、通信部13、操作部14、表示部15、第1の可視光カメラインターフェース16、第1の赤外線カメラインターフェース17、第2の可視光カメラインターフェース18、第2の赤外線カメラインターフェース19、第1の可視光カメラ101、第1の赤外線カメラ102、第2の可視光カメラ103及び第2の赤外線カメラ104などを備える。プロセッサ11と、メモリ12、通信部13、操作部14、表示部15、第1の可視光カメラインターフェース16、第1の赤外線カメラインターフェース17、第2の可視光カメラインターフェース18及び第2の赤外線カメラインターフェース19と、は、互いに通信可能に接続する。第1の可視光カメラインターフェース16と第1の可視光カメラ101とは、互いに通信可能に接続する。第1の赤外線カメラインターフェース17と第1の赤外線カメラ102とは、互いに通信可能に接続する。第2の可視光カメラインターフェース18と第2の可視光カメラ103とは、互いに通信可能に接続する。第2の赤外線カメラインターフェース19と第2の赤外線カメラ104とは、互いに通信可能に接続する。
Next, the monitoring device 10 will be explained.
FIG. 2 shows an example of the configuration of the monitoring device 10. As shown in FIG. 2, the monitoring device 10 includes a processor 11, a memory 12, a communication section 13, an operation section 14, a display section 15, a first visible light camera interface 16, a first infrared camera interface 17, a second A visible light camera interface 18, a second infrared camera interface 19, a first visible light camera 101, a first infrared camera 102, a second visible light camera 103, a second infrared camera 104, etc. are provided. Processor 11, memory 12, communication unit 13, operation unit 14, display unit 15, first visible light camera interface 16, first infrared camera interface 17, second visible light camera interface 18, and second infrared camera The interface 19 and are communicably connected to each other. The first visible light camera interface 16 and the first visible light camera 101 are communicably connected to each other. The first infrared camera interface 17 and the first infrared camera 102 are communicably connected to each other. The second visible light camera interface 18 and the second visible light camera 103 are communicably connected to each other. The second infrared camera interface 19 and the second infrared camera 104 are communicably connected to each other.

なお、監視装置10は、図2が示すような構成の他に必要に応じた構成を具備したり、特定の構成が除外されたりしてもよい。 Note that the monitoring device 10 may include other configurations as needed other than the configuration shown in FIG. 2, or may exclude a specific configuration.

プロセッサ11は、監視装置10全体の動作を制御する機能を有する。プロセッサ11は、内部キャッシュ及び各種のインターフェースなどを備えてもよい。プロセッサ11は、内部メモリ又はメモリ12が予め記憶するプログラムを実行することにより種々の処理を実現する。 The processor 11 has a function of controlling the overall operation of the monitoring device 10. The processor 11 may include an internal cache, various interfaces, and the like. The processor 11 implements various processes by executing programs stored in advance in the internal memory or the memory 12.

なお、プロセッサ11がプログラムを実行することにより実現する各種の機能のうちの一部は、ハードウエア回路により実現されるものであってもよい。この場合、プロセッサ11は、ハードウエア回路により実行される機能を制御する。 Note that some of the various functions realized by the processor 11 executing programs may be realized by a hardware circuit. In this case, processor 11 controls the functions performed by the hardware circuits.

メモリ12は、種々のデータを格納する。例えば、メモリ12は、ROM、RAM及びNVMとして機能する。
例えば、メモリ12は、制御プログラム及び制御データなどを記憶する。制御プログラム及び制御データは、監視装置10の仕様に応じて予め組み込まれる。例えば、制御プログラムは、監視装置10で実現する機能をサポートするプログラムなどである。
Memory 12 stores various data. For example, memory 12 functions as ROM, RAM, and NVM.
For example, the memory 12 stores control programs, control data, and the like. The control program and control data are installed in advance according to the specifications of the monitoring device 10. For example, the control program is a program that supports functions realized by the monitoring device 10.

また、メモリ12は、プロセッサ11の処理中のデータなどを一時的に格納する。また、メモリ12は、アプリケーションプログラムの実行に必要なデータ及びアプリケーションプログラムの実行結果などを格納してもよい。 The memory 12 also temporarily stores data being processed by the processor 11. The memory 12 may also store data necessary for executing the application program, results of executing the application program, and the like.

通信部13は、他の装置とデータを送受信するためのインターフェースである。例えば、通信部13は、通信装置20、案内装置30、運転装置40及び制御装置60などと接続する。 The communication unit 13 is an interface for transmitting and receiving data with other devices. For example, the communication unit 13 is connected to a communication device 20, a guide device 30, a driving device 40, a control device 60, and the like.

操作部14は、オペレータから種々の操作の入力を受け付け、入力された操作を示す信号をプロセッサ11へ送信する。操作部14は、タッチパネルから構成されてもよい。 The operation unit 14 receives various operation inputs from an operator, and transmits a signal indicating the input operation to the processor 11. The operation unit 14 may be composed of a touch panel.

表示部15は、プロセッサ11からの画像データを表示する。例えば、表示部15は、液晶モニタから構成される。操作部14がタッチパネルから構成される場合、表示部15は、操作部14と一体的に形成されてもよい。 The display unit 15 displays image data from the processor 11. For example, the display unit 15 is composed of a liquid crystal monitor. When the operation section 14 is composed of a touch panel, the display section 15 may be formed integrally with the operation section 14.

第1の可視光カメラインターフェース16は、第1の可視光カメラ101とデータを送受信するためのインターフェースである。例えば、第1の可視光カメラインターフェース16は、有線で第1の可視光カメラ101と接続する。第1の可視光カメラインターフェース16は、画像を撮影させる信号を第1の可視光カメラ101に送信する。また、第1の可視光カメラインターフェース16は、第1の可視光カメラ101からの撮影画像をプロセッサ11に送信する。また、第1の可視光カメラインターフェース16は、第1の可視光カメラ101に電力を供給するものであってもよい。 The first visible light camera interface 16 is an interface for transmitting and receiving data to and from the first visible light camera 101. For example, the first visible light camera interface 16 is connected to the first visible light camera 101 by wire. The first visible light camera interface 16 transmits a signal for photographing an image to the first visible light camera 101. Further, the first visible light camera interface 16 transmits the captured image from the first visible light camera 101 to the processor 11. Further, the first visible light camera interface 16 may supply power to the first visible light camera 101.

第1の赤外線カメラインターフェース17は、第1の赤外線カメラ102とデータを送受信するためのインターフェースである。第1の赤外線カメラインターフェース17の構成は、第1の可視光カメラインターフェース16の構成と同様であるため説明を省略する。 The first infrared camera interface 17 is an interface for transmitting and receiving data to and from the first infrared camera 102. The configuration of the first infrared camera interface 17 is the same as the configuration of the first visible light camera interface 16, so a description thereof will be omitted.

第2の可視光カメラインターフェース18は、第2の可視光カメラ103とデータを送受信するためのインターフェースである。第2の可視光カメラインターフェース18の構成は、第1の可視光カメラインターフェース16の構成と同様であるため説明を省略する。 The second visible light camera interface 18 is an interface for transmitting and receiving data to and from the second visible light camera 103. The configuration of the second visible light camera interface 18 is the same as the configuration of the first visible light camera interface 16, so a description thereof will be omitted.

第2の赤外線カメラインターフェース19は、第2の赤外線カメラ104とデータを送受信するためのインターフェースである。第2の赤外線カメラインターフェース19の構成は、第1の可視光カメラインターフェース16の構成と同様であるため説明を省略する。 The second infrared camera interface 19 is an interface for transmitting and receiving data to and from the second infrared camera 104. The configuration of the second infrared camera interface 19 is similar to the configuration of the first visible light camera interface 16, so the explanation will be omitted.

第1の可視光カメラ101は、車両1の進行方向を撮影するカメラである。例えば、第1の可視光カメラ101は、車両1の前面に進行方向を向いた状態で設置される。第1の可視光カメラ101は、可視光で画像(第1の可視光画像)を撮影する。第1の可視光カメラ101は、第1の可視光カメラインターフェース16を通じて、撮影した第1の可視光画像をプロセッサ11に送信する。例えば、第1の可視光カメラ101は、CCD(Charge Coupled Device)カメラ又はCMOS(Complementary Metal Oxide Semiconductor Sensor)カメラなどである。 The first visible light camera 101 is a camera that photographs the direction in which the vehicle 1 is traveling. For example, the first visible light camera 101 is installed at the front of the vehicle 1 facing the direction of travel. The first visible light camera 101 captures an image (first visible light image) using visible light. The first visible light camera 101 transmits the captured first visible light image to the processor 11 through the first visible light camera interface 16 . For example, the first visible light camera 101 is a CCD (Charge Coupled Device) camera or a CMOS (Complementary Metal Oxide Semiconductor Sensor) camera.

第1の赤外線カメラ102は、車両1の進行方向を撮影するカメラである。例えば、第1の赤外線カメラ102は、車両1の前面に進行方向を向いた状態で第1の可視光カメラ101の近傍に設置される。第1の赤外線カメラ102は、赤外線で画像(第1の赤外線画像)を撮影する。第1の赤外線カメラ102は、第1の赤外線カメラインターフェース17を通じて、撮影した第1の赤外線画像をプロセッサ11に送信する。 The first infrared camera 102 is a camera that photographs the direction in which the vehicle 1 is traveling. For example, the first infrared camera 102 is installed near the first visible light camera 101 at the front of the vehicle 1 facing the direction of travel. The first infrared camera 102 takes an image (first infrared image) using infrared light. The first infrared camera 102 transmits the captured first infrared image to the processor 11 through the first infrared camera interface 17 .

第1の赤外線画像の解像度は、第1の可視光画像の解像度よりも低い。即ち、第1の赤外線画像の画素数は、第1の可視光画像の画素数よりも少ない。 The resolution of the first infrared image is lower than the resolution of the first visible light image. That is, the number of pixels of the first infrared image is smaller than the number of pixels of the first visible light image.

第2の可視光カメラ103は、第1の可視光カメラ101の位置とは異なる位置から車両1の進行方向を撮影するカメラである。例えば、第2の可視光カメラ103は、車両1の前面に進行方向を向いた状態で第1の可視光カメラ101と異なる位置に設置される。第2の可視光カメラ103は、第2の可視光カメラインターフェース18を通じて、撮影した画像(第2の可視光画像)をプロセッサ11に送信する。第2の可視光カメラ103の構成は、第1の可視光カメラ101の構成と同様であるため説明を省略する。 The second visible light camera 103 is a camera that photographs the traveling direction of the vehicle 1 from a position different from the position of the first visible light camera 101. For example, the second visible light camera 103 is installed at a different position from the first visible light camera 101, facing the front of the vehicle 1 in the direction of travel. The second visible light camera 103 transmits the captured image (second visible light image) to the processor 11 through the second visible light camera interface 18 . The configuration of the second visible light camera 103 is the same as the configuration of the first visible light camera 101, so a description thereof will be omitted.

第2の赤外線カメラ104は、車両1の進行方向を撮影するカメラである。例えば、第2の赤外線カメラ104は、車両1の前面に進行方向を向いた状態で第2の可視光カメラ103の近傍に設置される。第2の赤外線カメラ104は、赤外線で画像(第2の赤外線画像)を撮影する。第2の赤外線カメラ104は、第2の赤外線カメラインターフェース19を通じて、撮影した画像をプロセッサ11に送信する。第2の赤外線カメラ104の構成は、第1の赤外線カメラ102の構成と同様であるため説明を省略する。 The second infrared camera 104 is a camera that photographs the direction in which the vehicle 1 is traveling. For example, the second infrared camera 104 is installed near the second visible light camera 103 at the front of the vehicle 1 facing the direction of travel. The second infrared camera 104 takes an image (second infrared image) using infrared light. The second infrared camera 104 transmits the captured image to the processor 11 through the second infrared camera interface 19 . The configuration of the second infrared camera 104 is the same as the configuration of the first infrared camera 102, so a description thereof will be omitted.

監視装置10は、パーソナルコンピュータやプログラマブルコントローラなどから構成されるものであってもよい。また、監視装置10は、ASIC(Application Specific Integrated Circuit)から構成されるものであってもよい。また、監視装置10は、FPGA(Field Programmable Gate Array)から構成されるものであってもよい。監視装置10の構成は、特定の構成に限定されるものではない。 The monitoring device 10 may be composed of a personal computer, a programmable controller, or the like. Further, the monitoring device 10 may be configured from an ASIC (Application Specific Integrated Circuit). Furthermore, the monitoring device 10 may be configured from an FPGA (Field Programmable Gate Array). The configuration of the monitoring device 10 is not limited to a specific configuration.

次に、監視装置10が実現する機能について説明する。監視装置10が実現する機能は、プロセッサ11がメモリ12などに格納されるプログラムを実行することで実現される。 Next, the functions realized by the monitoring device 10 will be explained. The functions realized by the monitoring device 10 are realized by the processor 11 executing a program stored in the memory 12 or the like.

まず、プロセッサ11は、第1の可視光画像、第1の赤外線画像、第2の可視光画像及び第2の赤外線画像を取得する機能を有する。 First, the processor 11 has a function of acquiring a first visible light image, a first infrared image, a second visible light image, and a second infrared image.

例えば、プロセッサ11は、所定の間隔(例えば、0.1秒)で、第1の可視光カメラ101、第1の赤外線カメラ102、第2の可視光カメラ103及び第2の赤外線カメラ104からそれぞれ第1の可視光画像、第1の赤外線画像、第2の可視光画像及び第2の赤外線画像を取得する。即ち、第2の可視光画像、第1の赤外線画像及び第2の赤外線画像は、第1の可視光画像に対応する。例えば、第2の可視光画像、第1の赤外線画像及び第2の赤外線画像は、第1の可視光画像が撮影されるタイミングに対応するタイミングで撮影される。 For example, at predetermined intervals (e.g., 0.1 seconds), the processor 11 selects the first visible light camera 101, the first infrared camera 102, the second visible light camera 103, and the second infrared camera 104, respectively. A first visible light image, a first infrared image, a second visible light image, and a second infrared image are acquired. That is, the second visible light image, the first infrared image, and the second infrared image correspond to the first visible light image. For example, the second visible light image, the first infrared image, and the second infrared image are photographed at timings corresponding to the timing at which the first visible light image is photographed.

また、プロセッサ11は、第1の赤外線画像に基づいて、第1の可視光画像の各座標における温度を特定する。即ち、プロセッサ11は、第1の赤外線画像に基づいて、第1の可視光画像の各座標に写る画素に写る対象物の温度を特定する。 Furthermore, the processor 11 identifies the temperature at each coordinate of the first visible light image based on the first infrared image. That is, based on the first infrared image, the processor 11 identifies the temperature of the object reflected in the pixels reflected in each coordinate of the first visible light image.

図3は、プロセッサ11が第1の赤外線画像に基づいて、第1の可視光画像の各座標における温度を特定する動作例を示す。 FIG. 3 shows an operation example in which the processor 11 identifies the temperature at each coordinate of the first visible light image based on the first infrared image.

ここでは、温度(u,v)は、第1の赤外線画像における座標(u,v)の温度を示す。温度(u,v)は、プロセッサ11が座標(u,v)の画素において検知された赤外線の強度又は周波数などに基づいて算出される温度である。 Here, temperature (u, v) indicates the temperature at coordinates (u, v) in the first infrared image. The temperature (u, v) is a temperature calculated by the processor 11 based on the intensity or frequency of infrared rays detected at the pixel at the coordinates (u, v).

プロセッサ11は、第1の可視光画像の座標(x,y)を第1の赤外線画像の座標(u,v)に変換する座標変換テーブルMAP(X,Y)を取得する。座標変換テーブルMAP(x,y)は、第1の可視光画像の座標(x,y)に対応する第1の赤外線画像の座標(u,v)を返す関数である。即ち、座標変換テーブルMAPは、第1の可視光画像の座標を入力すると、第1の赤外線画像において当該座標の対象物と同一の対象物が写る座標を出力する。 The processor 11 obtains a coordinate conversion table MAP (X, Y) that converts the coordinates (x, y) of the first visible light image into the coordinates (u, v) of the first infrared image. The coordinate conversion table MAP (x, y) is a function that returns the coordinates (u, v) of the first infrared image corresponding to the coordinates (x, y) of the first visible light image. That is, when the coordinates of the first visible light image are input, the coordinate conversion table MAP outputs the coordinates of the same object as the object at the coordinates in the first infrared image.

座標変換テーブルMAPは、第1の可視光カメラ101と第1の赤外線カメラ102との位置関係及び両カメラの画角などに基づいて生成される。座標変換テーブルMAPは、予めメモリ12などに格納されてもよい。 The coordinate conversion table MAP is generated based on the positional relationship between the first visible light camera 101 and the first infrared camera 102, the angle of view of both cameras, and the like. The coordinate conversion table MAP may be stored in advance in the memory 12 or the like.

図3が示すように、第1の赤外線画像のドットは、第1の可視光画像のドットよりも大きい。即ち、第1の赤外線画像の1ドットは、第1の可視光画像の複数のドットに対応する。 As FIG. 3 shows, the dots in the first infrared image are larger than the dots in the first visible light image. That is, one dot in the first infrared image corresponds to multiple dots in the first visible light image.

プロセッサ11は、第1の可視光画像の所定の座標を座標変換テーブルMAPに入力することで、当該所定の座標に対応する第1の赤外線画像の座標を取得する。当該所定の座標に対応する第1の赤外線画像の座標を取得すると、プロセッサ11は、第1の赤外線画像に基づいて、取得した座標における温度を取得する。温度を取得すると、プロセッサ11は、当該温度を、第1の可視光画像における当該所定の座標の温度として、特定する。
プロセッサ11は、同様に、第1の可視光画像の各座標において温度を特定する。プロセッサ11は、第1の可視光座標の各座標における温度を示す温度(x,y)を取得する。
The processor 11 inputs the predetermined coordinates of the first visible light image into the coordinate conversion table MAP, thereby acquiring the coordinates of the first infrared image corresponding to the predetermined coordinates. Upon acquiring the coordinates of the first infrared image corresponding to the predetermined coordinates, the processor 11 acquires the temperature at the acquired coordinates based on the first infrared image. Upon acquiring the temperature, the processor 11 specifies the temperature as the temperature at the predetermined coordinates in the first visible light image.
Processor 11 similarly identifies the temperature at each coordinate of the first visible light image. The processor 11 obtains temperatures (x, y) indicating the temperature at each coordinate of the first visible light coordinates.

また、プロセッサ11は、第2の赤外線画像に基づいて、第2の可視光画像の各座標における温度を特定するが、第2の可視光画像の各画素における温度を特定する動作は、第1の可視光画像の各画像における温度を特定する動作と同様であるため、説明を省略する。 Further, the processor 11 specifies the temperature at each coordinate of the second visible light image based on the second infrared image, but the operation of specifying the temperature at each pixel of the second visible light image is performed by the first infrared image. Since this operation is the same as the operation of specifying the temperature in each visible light image, the explanation will be omitted.

また、プロセッサ11は、第1の可視光画像(又は、第2の可視光画像)の各座標における距離を算出する。 Furthermore, the processor 11 calculates the distance at each coordinate of the first visible light image (or the second visible light image).

即ち、プロセッサ11は、基準点又は基準面からの第1の可視光画像の各座標における画素に写る対象物までの距離を算出する。 That is, the processor 11 calculates the distance from the reference point or reference plane to the object reflected in the pixel at each coordinate of the first visible light image.

プロセッサ11は、第1の可視光画像と第2の可視光画像との視差に基づいて各座標の画素に写る対象物との距離を算出する。プロセッサ11は、第1の可視光座標の各座標における距離を示す距離(x,y)を取得する。 The processor 11 calculates the distance to the object reflected in the pixel at each coordinate based on the parallax between the first visible light image and the second visible light image. The processor 11 obtains a distance (x, y) indicating the distance at each coordinate of the first visible light coordinates.

また、プロセッサ11は、車両1の前方方向に建築限界を設定する。建築限界は、障害物が存在すると車両1と衝突するおそれがある領域である。 Further, the processor 11 sets a construction limit in the forward direction of the vehicle 1. The construction limit is an area where there is a risk of collision with the vehicle 1 if an obstacle exists.

図4及び図5は、プロセッサ11が建築限界を設定する動作例を示す。 4 and 5 show an example of the operation in which the processor 11 sets building limits.

プロセッサ11は、車両1が進行する経路を特定する。例えば、プロセッサ11は、第1の可視光画像(又は第2の可視光画像)から、車両1が走行する線路を分岐させる転轍機70を特定する。転轍機70を特定すると、プロセッサ11は、転轍機70の画像に基づいて、転轍機70の開通状態を認識する。転轍機70の開通状態を認識すると、プロセッサ11は、認識結果に基づいて、車両1が進行する経路を特定する。 The processor 11 identifies the route along which the vehicle 1 will travel. For example, the processor 11 identifies the switch 70 that branches the track on which the vehicle 1 runs from the first visible light image (or the second visible light image). When the switch 70 is identified, the processor 11 recognizes the open state of the switch 70 based on the image of the switch 70. Upon recognizing the open state of the switch 70, the processor 11 specifies the route along which the vehicle 1 will travel based on the recognition result.

車両1が進行する経路を特定すると、プロセッサ11は、特定した経路上において車両1から進行方向に所定の距離離れた複数の位置における建築限界を設定する。 When the route along which the vehicle 1 is to travel is specified, the processor 11 sets building limits at a plurality of positions that are a predetermined distance away from the vehicle 1 in the direction of travel on the identified route.

図4及び図5が示す例では、プロセッサ11は、建築限界80(80a、80b、…)を設定する。建築限界80(80a、80b、…)は、車両1の前面から進行方向に向って距離L(La、Lb…)離れた位置に設定される建築限界である。 In the example shown in FIGS. 4 and 5, the processor 11 sets building limits 80 (80a, 80b, . . . ). The building limits 80 (80a, 80b, . . . ) are building limits set at a distance L (La, Lb, . . . ) away from the front of the vehicle 1 in the traveling direction.

また、プロセッサ11は、火災4の規模及び車両1から火災4までの距離に基づいて火災を検知したことを示す通知を出力する機能を有する。 Furthermore, the processor 11 has a function of outputting a notification indicating that a fire has been detected based on the scale of the fire 4 and the distance from the vehicle 1 to the fire 4.

図4及び図5は、プロセッサ11が火災を検知したことを示す通知を出力する動作例を示す。 4 and 5 show an example of an operation in which the processor 11 outputs a notification indicating that a fire has been detected.

プロセッサ11は、第1の赤外線画像(又は第2の赤外線画像)に基づいて算出された温度が対応付けられた第1の可視光画像(又は、第2の可視光画像)から、火災4を検知する。例えば、プロセッサ11は、第1の可視光画像(又は、第2の可視光画像)から所定の閾値(火災4を検出するための温度(火災温度))を超える温度の領域(火災4が写る火災領域90)を検出する。即ち、プロセッサ11は、温度(x,y)>火災温度となる座標(x,y)が存在するか判定する。プロセッサ11は、温度(x,y)>火災温度となる座標(x,y)が存在する場合、火災4を検知する。 The processor 11 detects the fire 4 from the first visible light image (or second visible light image) associated with the temperature calculated based on the first infrared image (or second infrared image). Detect. For example, the processor 11 selects an area (in which fire 4 is shown) that exceeds a predetermined threshold (temperature for detecting fire 4 (fire temperature)) from the first visible light image (or second visible light image). A fire area 90) is detected. That is, the processor 11 determines whether there is a coordinate (x, y) where temperature (x, y)>fire temperature. The processor 11 detects the fire 4 if there is a coordinate (x, y) where temperature (x, y)>fire temperature.

火災4を検知した場合、プロセッサ11は、第1の可視光画像における火災4の規模を算出する。ここでは、プロセッサ11は、温度が所定の閾値を超える各座標において温度×面積(ドットの大きさ)を算出し、各値を加算した評価値(規模評価値)を算出する。 When a fire 4 is detected, the processor 11 calculates the scale of the fire 4 in the first visible light image. Here, the processor 11 calculates temperature x area (dot size) at each coordinate where the temperature exceeds a predetermined threshold value, and calculates an evaluation value (scale evaluation value) by adding each value.

規模評価値を算出すると、プロセッサ11は、規模評価値が所定の閾値(火災規模規定値)以上であるか判定する。 After calculating the scale evaluation value, the processor 11 determines whether the scale evaluation value is greater than or equal to a predetermined threshold (fire scale regulation value).

規模評価値が火災規模規定値以上であると判定すると、プロセッサ11は、前述の通り建築限界を設定する。 If it is determined that the scale evaluation value is equal to or greater than the prescribed fire scale value, the processor 11 sets the building limit as described above.

建築限界を設定すると、プロセッサ11は、3次元空間において、所定の点を原点として各建築限界80の中心座標を算出する。 Once the building limits are set, the processor 11 calculates the center coordinates of each building limit 80 in the three-dimensional space using a predetermined point as the origin.

各建築限界80の中心の座標を算出すると、プロセッサ11は、第1の可視光画像の距離(x,y)などに基づいて、各建築限界80の中心座標から火災4(火災領域90)までの距離K(Ka、Kb…)を算出する。 After calculating the coordinates of the center of each building limit 80, the processor 11 calculates the distance from the center coordinates of each building limit 80 to the fire 4 (fire area 90) based on the distance (x, y) of the first visible light image. The distance K (Ka, Kb...) is calculated.

例えば、プロセッサ11は、車両1の前面から各建築限界80までの距離(水平方向の距離)と、車両1の前面から火災領域90までの距離(水平方向の距離)との差を、各建築限界80の中心座標から火災4までの距離として算出する。 For example, the processor 11 calculates the difference between the distance (horizontal distance) from the front of the vehicle 1 to each building limit 80 and the distance (horizontal distance) from the front of the vehicle 1 to the fire area 90 for each building. It is calculated as the distance from the center coordinates of the limit 80 to the fire 4.

各距離を算出すると、プロセッサ11は、1つの建築限界80(例えば、建築限界80a)に基づく危険度を算出する。例えば、プロセッサ11は、火災領域90の各座標において温度×面積(ドットの大きさ)/距離(例えば、距離Ka)を算出し、算出した各値を加算した危険度(例えば、危険度a)を算出する。例えば、プロセッサ11は、規模評価値を距離で減算した値を危険度として算出してもよい。 After calculating each distance, the processor 11 calculates the degree of risk based on one building limit 80 (eg, building limit 80a). For example, the processor 11 calculates temperature x area (dot size)/distance (for example, distance Ka) at each coordinate of the fire area 90, and adds the calculated values to a degree of risk (for example, degree of risk a). Calculate. For example, the processor 11 may calculate a value obtained by subtracting the scale evaluation value by the distance as the degree of risk.

なお、プロセッサ11は、3次元空間における各建築限界80の中心座標から火災領域90の各座標までの距離を算出し、火災領域90の各座標において温度×面積(ドットの大きさ)/距離を算出し、算出した各値を加算した危険度を算出してもよい。 Note that the processor 11 calculates the distance from the center coordinates of each building limit 80 to each coordinate of the fire area 90 in the three-dimensional space, and calculates the temperature x area (dot size)/distance at each coordinate of the fire area 90. The degree of risk may be calculated by adding the calculated values.

また、プロセッサ11は、第1の可視光画像において、建築限界80と火災領域90とが少なくとも一部が重なる場合、当該建築限界80の危険度を算出してもよい。プロセッサ11は、建築限界80と火災領域90とが重ならない場合、当該建築限界80の危険度を「0」と算出してもよい。 Moreover, in the first visible light image, when the building limit 80 and the fire area 90 at least partially overlap, the processor 11 may calculate the degree of danger of the building limit 80. If the building limit 80 and the fire area 90 do not overlap, the processor 11 may calculate the risk level of the building limit 80 as "0".

プロセッサ11は、各建築限界80(80a、80b…)に基づいて各危険度(危険度a、危険度b…)を算出する。 The processor 11 calculates each risk level (risk level a, risk level b...) based on each building limit 80 (80a, 80b...).

各危険度を算出すると、プロセッサ11は、各危険度に基づいて、車両1の運行に支障が生じる程度を示す支障度を算出する。例えば、プロセッサ11は、各危険度を加算した値を支障度として算出する。また、プロセッサ11は、各危険度に重みを付けて加算した値を支障度して算出してもよい。例えば、プロセッサ11は、車両1から近距離に設定される建築限界80の危険度に大きな重みを付けてもよい。プロセッサ11が支障度を算出する方法は、特定の方法に限定されるものではない。 After calculating each degree of risk, the processor 11 calculates a degree of hindrance indicating the extent to which the operation of the vehicle 1 is hindered based on each degree of risk. For example, the processor 11 calculates a value obtained by adding up each degree of risk as the degree of hindrance. Further, the processor 11 may calculate the degree of hindrance by adding a weighted value to each degree of risk. For example, the processor 11 may give greater weight to the degree of danger of the building limit 80 that is set at a short distance from the vehicle 1. The method by which the processor 11 calculates the degree of difficulty is not limited to a specific method.

支障度を算出すると、プロセッサ11は、支障度に基づいて、火災を検知したことを示す通知を出力する。例えば、プロセッサ11は、支障度が所定の閾値(支障判定規定値)以上である場合、当該通知を出力する。なお、プロセッサ11は、支障度が増加傾向である場合に、当該通知を出力してもよい。プロセッサ11が当該通知を出力する条件は、特定の構成に限定されるものではない。 After calculating the degree of hindrance, the processor 11 outputs a notification indicating that a fire has been detected based on the degree of hindrance. For example, the processor 11 outputs the notification when the degree of hindrance is equal to or higher than a predetermined threshold (default value for determining hindrance). Note that the processor 11 may output the notification when the degree of difficulty is increasing. The conditions under which the processor 11 outputs the notification are not limited to a specific configuration.

また、プロセッサ11は、通信装置20を通じて、当該通知を司令室2に送信する。また、プロセッサ11は、案内装置30、運転装置40及び制御装置60に送信する。また、プロセッサ11は、他の車両に対して当該通知を送信してもよい。プロセッサ11が当該通知を出力する出力先は、特定の構成に限定されるものではない。 Further, the processor 11 transmits the notification to the command room 2 through the communication device 20. The processor 11 also transmits the information to the guide device 30, the driving device 40, and the control device 60. Further, the processor 11 may transmit the notification to other vehicles. The output destination to which the processor 11 outputs the notification is not limited to a specific configuration.

図4及び図5が示す例では、プロセッサ11は、火災領域90が大きく写っているため、火災4の規模評価値を比較的高く算出する。しかしながら、図5が示すように、各建築限界80から火災4までの距離(Ka、Kb、…)は、比較的遠い。そのため、プロセッサ11は、支障度を低く算出する。その結果、プロセッサ11は、火災を検知したことを示す通知を出力しない。 In the example shown in FIGS. 4 and 5, the processor 11 calculates the scale evaluation value of the fire 4 to be relatively high because the fire area 90 is shown large. However, as shown in FIG. 5, the distances (Ka, Kb, . . . ) from each building limit 80 to the fire 4 are relatively long. Therefore, the processor 11 calculates a low degree of hindrance. As a result, the processor 11 does not output a notification indicating that a fire has been detected.

図6及び図7は、火災4の他の例を示す。図6及び図7が示す例では、プロセッサ11は、火災領域90が小さく写っているため、火災4の規模評価値を比較的小さく算出する。しかしながら、図7が示すように、各建築限界80から火災4までの距離(Ka、Kb、…)は、比較的近い。そのため、プロセッサ11は、支障度を高く算出する。その結果、プロセッサ11は、火災を検知したことを示す通知を出力する。 6 and 7 show other examples of the fire 4. In the example shown in FIGS. 6 and 7, the fire area 90 appears small, so the processor 11 calculates the scale evaluation value of the fire 4 to be relatively small. However, as shown in FIG. 7, the distances (Ka, Kb, . . . ) from each building limit 80 to the fire 4 are relatively short. Therefore, the processor 11 calculates the degree of hindrance to be high. As a result, the processor 11 outputs a notification indicating that a fire has been detected.

また、プロセッサ11は、第1の可視光画像において、各建築限界80内に障害物を検知すると、通信装置20を通じて司令室2に障害物を検知したことを示す通知を送信してもよい。また、監視装置10は、障害物を検知すると、停止することを指示する信号を運転装置40に送信してもよい。 Further, when the processor 11 detects an obstacle within each building limit 80 in the first visible light image, the processor 11 may transmit a notification indicating that the obstacle has been detected to the command room 2 via the communication device 20. Further, when the monitoring device 10 detects an obstacle, the monitoring device 10 may transmit a signal to the driving device 40 instructing it to stop.

次に、監視装置10の動作例について説明する。
図8は、監視装置10の動作例について説明するためのフローチャートである。
Next, an example of the operation of the monitoring device 10 will be described.
FIG. 8 is a flowchart for explaining an example of the operation of the monitoring device 10.

まず、監視装置10のプロセッサ11は、メモリ、タイマ又は入出力などを初期化する(S11)。メモリ、タイマ又は入出力などを初期化すると、プロセッサ11は、第1の可視光画像及び第2の可視光画像の各座標における温度を特定する(S12)。 First, the processor 11 of the monitoring device 10 initializes the memory, timer, input/output, etc. (S11). After initializing the memory, timer, input/output, etc., the processor 11 specifies the temperature at each coordinate of the first visible light image and the second visible light image (S12).

第1の可視光画像の各座標における温度を特定すると、プロセッサ11は、第1の可視光画像又は第2の可視光画像から火災領域を検出する(S13)。 After specifying the temperature at each coordinate of the first visible light image, the processor 11 detects a fire area from the first visible light image or the second visible light image (S13).

第1の可視光画像から火災領域を検出すると(S14、YES)、プロセッサ11は、規模評価値を算出する(S15)。規模評価値を算出すると、プロセッサ11は、規模評価値が火災規模規定値以上であるか判定する(S16)。 When a fire area is detected from the first visible light image (S14, YES), the processor 11 calculates a scale evaluation value (S15). After calculating the scale evaluation value, the processor 11 determines whether the scale evaluation value is greater than or equal to the prescribed fire scale value (S16).

規模評価値が火災規模規定値以上であると判定すると(S16、YES)、プロセッサ11は、第1の可視光画像の各座標における距離を算出する(S17)。第1の可視光画像の各座標における距離を算出すると、プロセッサ11は、建築限界を設定する(S18)。 If it is determined that the scale evaluation value is equal to or greater than the prescribed fire scale value (S16, YES), the processor 11 calculates the distance at each coordinate of the first visible light image (S17). After calculating the distance at each coordinate of the first visible light image, the processor 11 sets a building limit (S18).

建築限界を設定すると、プロセッサ11は、建築限界と火災領域までの距離とに基づいて、支障度を算出する(S19)。支障度を算出すると、プロセッサ11は、支障度が支障判定規定値以上であるか判定する(S20)。 After setting the building limits, the processor 11 calculates the degree of hindrance based on the building limits and the distance to the fire area (S19). After calculating the degree of hindrance, the processor 11 determines whether the degree of hindrance is greater than or equal to a prescribed value for determining the hindrance (S20).

支障度が支障判定規定値以上であると判定すると(S20、YES)、プロセッサ11は、火災を検知したことを示す通知を出力する(S21)。 If it is determined that the degree of hindrance is equal to or higher than the hindrance determination prescribed value (S20, YES), the processor 11 outputs a notification indicating that a fire has been detected (S21).

第1の可視光画像に火災領域がない場合(S14、NO)、又は、規模評価値が火災規模規定値以上でないと判定した場合(S16、NO)、支障度が支障判定規定値以上でないと判定した場合(S20、NO)、又は、火災を検知したことを示す通知を出力した場合(S21)、プロセッサ11は、S12に戻る。なお、プロセッサ11は、所定の時間待機してからS12に戻ってもよい。 If there is no fire area in the first visible light image (S14, NO), or if it is determined that the scale evaluation value is not equal to or greater than the fire scale prescribed value (S16, NO), the degree of hindrance must not be equal to or greater than the hindrance determination prescribed value. If it is determined (S20, NO), or if a notification indicating that a fire has been detected is output (S21), the processor 11 returns to S12. Note that the processor 11 may wait for a predetermined time and then return to S12.

プロセッサ11は、操作部14などを通じて、所定の操作の入力を受け付けるまで上記の動作を繰り返す。 The processor 11 repeats the above operations until it receives input of a predetermined operation through the operation unit 14 or the like.

次に、プロセッサ11が第1の可視光画像及び第2の可視光画像の各座標における温度を特定する動作例(S12)について説明する。 Next, an operation example (S12) in which the processor 11 specifies the temperature at each coordinate of the first visible light image and the second visible light image will be described.

図9は、プロセッサ11が第1の可視光画像及び第2の可視光画像の各座標における温度を特定する動作例(S12)について説明するためのフローチャートである。 FIG. 9 is a flowchart for explaining an operation example (S12) in which the processor 11 specifies the temperature at each coordinate of the first visible light image and the second visible light image.

まず、プロセッサ11は、第1の赤外線カメラ102を用いて第1の赤外線画像を取得する(S31)。第1の赤外線画像を取得すると、プロセッサ11は、第1の可視光カメラ101を用いて第1の可視光画像を取得する(S32)。 First, the processor 11 acquires a first infrared image using the first infrared camera 102 (S31). After acquiring the first infrared image, the processor 11 acquires a first visible light image using the first visible light camera 101 (S32).

第1の可視光画像を取得すると、プロセッサ11は、第1の赤外線画像に基づいて、第1の可視光画像における所定の座標の温度を特定する(S33)。第1の可視光画像における所定の座標の温度を特定すると、プロセッサ11は、第1の可視光画像における各座標の温度の特定を完了したか判定する(S34)。 After acquiring the first visible light image, the processor 11 identifies the temperature at a predetermined coordinate in the first visible light image based on the first infrared image (S33). After specifying the temperature at the predetermined coordinates in the first visible light image, the processor 11 determines whether the specification of the temperature at each coordinate in the first visible light image is completed (S34).

第1の可視光画像における各座標の温度の特定を完了していないと判定すると(S34、NO)、プロセッサ11は、S33に戻る。 If it is determined that the temperature identification of each coordinate in the first visible light image has not been completed (S34, NO), the processor 11 returns to S33.

第1の可視光画像における各座標の温度の特定を完了したと判定すると(S34、YES)、プロセッサ11は、第2の赤外線カメラ104を用いて第2の赤外線画像を取得する(S35)。第2の赤外線画像を取得すると、プロセッサ11は、第2の可視光カメラ103を用いて第2の可視光画像を取得する(S36)。 When determining that the temperature at each coordinate in the first visible light image has been identified (S34, YES), the processor 11 acquires a second infrared image using the second infrared camera 104 (S35). After acquiring the second infrared image, the processor 11 acquires a second visible light image using the second visible light camera 103 (S36).

第2の可視光画像を取得すると、プロセッサ11は、第2の赤外線画像に基づいて、第2の可視光画像における所定の座標の温度を特定する(S37)。第2の可視光画像における所定の座標の温度を特定すると、プロセッサ11は、第2の可視光画像における各座標の温度の特定を完了したか判定する(S38)。 After acquiring the second visible light image, the processor 11 identifies the temperature at a predetermined coordinate in the second visible light image based on the second infrared image (S37). After specifying the temperature at the predetermined coordinates in the second visible light image, the processor 11 determines whether the specification of the temperature at each coordinate in the second visible light image is completed (S38).

第2の可視光画像における各座標の温度の特定を完了していないと判定すると(S38、NO)、プロセッサ11は、S37に戻る。第2の可視光画像における各座標の温度の特定を完了したと判定すると(S38、YES)、プロセッサ11は、動作を終了する。 If it is determined that the temperature identification of each coordinate in the second visible light image has not been completed (S38, NO), the processor 11 returns to S37. When determining that the temperature at each coordinate in the second visible light image has been determined (S38, YES), the processor 11 ends the operation.

次に、プロセッサ11が建築限界を設定する動作例(S18)について説明する。図10は、プロセッサ11が建築限界を設定する動作例(S18)について説明するためのフローチャートである。 Next, an example of the operation (S18) in which the processor 11 sets a building limit will be described. FIG. 10 is a flowchart for explaining an operation example (S18) in which the processor 11 sets a building limit.

まず、プロセッサ11は、第1の可視光画像(又は、第2の可視光画像)から、転轍機70の開通状態などを認識する(S41)。転轍機70の開通状態などを認識すると、プロセッサ11は、車両1が走行する経路を特定する(S42)。 First, the processor 11 recognizes the opening state of the switch 70 from the first visible light image (or the second visible light image) (S41). Upon recognizing the open state of the switch 70, etc., the processor 11 specifies the route along which the vehicle 1 will travel (S42).

経路を特定すると、プロセッサ11は、Lに初期値を代入する(S43)。Lに初期値を代入すると、プロセッサ11は、車両1から進行方向にL離れた位置における建築限界を設定する(S44)。 After specifying the route, the processor 11 assigns an initial value to L (S43). After substituting the initial value for L, the processor 11 sets a construction limit at a position L away from the vehicle 1 in the traveling direction (S44).

車両1から進行方向にL離れた位置における建築限界を設定すると、プロセッサ11は、Lに所定の値(ΔL)を加算する(S45)。Lに所定の値(ΔL)を加算すると、プロセッサ11は、Lが所定の閾値を超えたか判定する(S46)。 After setting the building limit at a position L away from the vehicle 1 in the traveling direction, the processor 11 adds a predetermined value (ΔL) to L (S45). After adding the predetermined value (ΔL) to L, the processor 11 determines whether L exceeds a predetermined threshold (S46).

Lが所定の閾値以下であると判定すると(S46、NO)、プロセッサ11は、S44に戻る。
Lが所定の閾値を超えたと判定すると(S46、YES)、プロセッサ11は、動作を終了する。
If it is determined that L is less than or equal to the predetermined threshold (S46, NO), the processor 11 returns to S44.
If it is determined that L exceeds the predetermined threshold (S46, YES), the processor 11 ends the operation.

なお、監視装置10は、1つの赤外線カメラを備えるものであってもよい。この場合、プロセッサ11は、1つの赤外線画像に基づいて、第1の可視光画像及び第2の可視光画像の各座標の温度を特定してもよい。また、プロセッサ11は、1つの赤外線画像に基づいて、第1の可視光画像又は第2の可視光画像の各座標の温度を特定してもよい。また、監視装置10は、第2の可視光画像の各座標の温度を特定しなくともよい。 Note that the monitoring device 10 may include one infrared camera. In this case, the processor 11 may identify the temperature at each coordinate of the first visible light image and the second visible light image based on one infrared image. Furthermore, the processor 11 may specify the temperature at each coordinate of the first visible light image or the second visible light image based on one infrared image. Further, the monitoring device 10 does not need to specify the temperature at each coordinate of the second visible light image.

また、監視装置10は、1つの可視光カメラを備えるものであってもよい。この場合、プロセッサ11は、1つの可視光画像に基づいて、当該可視光画像の各座標における距離を測定してもよい。 Furthermore, the monitoring device 10 may include one visible light camera. In this case, the processor 11 may measure the distance at each coordinate of the visible light image based on one visible light image.

また、監視装置10は、距離センサなどを用いて、各部との距離を測定してもよい。この場合、監視装置10は、赤外線画像に基づいて、距離を測定した各部の温度を測定してもよい。 Further, the monitoring device 10 may measure the distance to each part using a distance sensor or the like. In this case, the monitoring device 10 may measure the temperature of each part whose distance was measured based on the infrared image.

また、監視装置10は、車、飛行機又は船舶などに設置されるものであってもよい。また、監視装置10は、所定の場所に設置されてもよい。監視装置10が設置される場所は、特定の構成に限定されるものではない。 Further, the monitoring device 10 may be installed in a car, an airplane, a ship, or the like. Furthermore, the monitoring device 10 may be installed at a predetermined location. The location where the monitoring device 10 is installed is not limited to a specific configuration.

以上のように構成された監視装置は、2つの可視光カメラを用いて、可視光画像の各座標における対象物との距離を測定する。また、監視装置は、赤外線カメラを用いて、赤外線画像の各座標における対象物の温度を測定する。監視装置は、可視光画像と赤外線画像とのキャリブレーションにより、可視光画像の各座標における温度を特定する。その結果、監視装置は、可視光画像の各座標において、距離及び温度を特定することができる。 The monitoring device configured as described above uses two visible light cameras to measure the distance to the object at each coordinate of the visible light image. Furthermore, the monitoring device uses an infrared camera to measure the temperature of the object at each coordinate in the infrared image. The monitoring device identifies the temperature at each coordinate of the visible light image by calibrating the visible light image and the infrared image. As a result, the monitoring device can determine the distance and temperature at each coordinate in the visible light image.

通常、赤外線カメラの解像度は、可視光カメラの解像度よりも低い。そのため、2つの赤外線カメラを用いた距離の測定は、2つの可視光カメラを用いた距離の測定よりも精度が低い。 Typically, the resolution of an infrared camera is lower than that of a visible light camera. Therefore, distance measurement using two infrared cameras is less accurate than distance measurement using two visible light cameras.

監視装置は、上記の構成により、可視光画像を用いることで各座標における距離を高精度に測定しつつ、各座標における温度を測定することができる。 With the above configuration, the monitoring device can measure the temperature at each coordinate while measuring the distance at each coordinate with high accuracy by using visible light images.

また、監視装置は、火災との距離に基づいて、火災を検知したことを示す通知を出力する。その結果、監視装置は、電車の運行に支障を来すおそれのある火災を検知した場合に、当該通知を出力することができる。 The monitoring device also outputs a notification indicating that a fire has been detected based on the distance to the fire. As a result, when the monitoring device detects a fire that may impede train operation, it can output the notification.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention, as well as within the scope of the invention described in the claims and its equivalents.

1…車両、2…司令室、3…信号機、4…火災、10…監視装置、11…プロセッサ、12…メモリ、13…通信部、14…操作部、15…表示部、16…第1の可視光カメラインターフェース、17…第1の赤外線カメラインターフェース、18…第2の可視光カメラインターフェース、19…第2の赤外線カメラインターフェース、20…通信装置、30…案内装置、40…運転装置、50…信号装置、60…制御装置、70…転轍機、80…建築限界、80a…建築限界、90…火災領域、100…運行システム、101…第1の可視光カメラ、102…第1の赤外線カメラ、103…第2の可視光カメラ、104…第2の赤外線カメラ、L…距離。 DESCRIPTION OF SYMBOLS 1...Vehicle, 2...Command room, 3...Traffic light, 4...Fire, 10...Monitoring device, 11...Processor, 12...Memory, 13...Communication section, 14...Operation section, 15...Display section, 16...First Visible light camera interface, 17...First infrared camera interface, 18...Second visible light camera interface, 19...Second infrared camera interface, 20...Communication device, 30...Guidance device, 40...Driving device, 50... Signal device, 60... Control device, 70... Switch, 80... Building limit, 80a... Building limit, 90... Fire area, 100... Traffic system, 101... First visible light camera, 102... First infrared camera, 103 ...Second visible light camera, 104...Second infrared camera, L...Distance.

Claims (5)

第1の可視光画像を取得する第1の可視光カメラインターフェースと、
前記第1の可視光画像に対応する第2の可視光画像を取得する第2の可視光カメラインターフェースと、
前記第1の可視光画像及び前記第2の可視光画像の解像度よりも低い解像度であって、前記第1の可視光画像に対応する赤外線画像を取得する赤外線カメラインターフェースと、
ここで、前記第1の可視光画像、前記第2の可視光画像及び前記赤外線画像は、走行する車両から進行方向を撮影した画像であり、
前記第1の可視光画像と前記第2の可視光画像とに基づいて、前記第1の可視光画像の各座標における距離を特定し、
前記赤外線画像に基づいて、前記第1の可視光画像の各座標における温度を特定し、
前記第1の可視光画像の各座標の温度に基づいて、火災を検知し、
前記車両の建築限界を設定し、
前記火災までの距離および前記建築限界に基づいて、火災を検知したことを示す通知を出力する、
プロセッサと、
を備える情報処理装置。
a first visible light camera interface that acquires a first visible light image;
a second visible light camera interface that acquires a second visible light image corresponding to the first visible light image;
an infrared camera interface that acquires an infrared image corresponding to the first visible light image, the resolution being lower than the resolution of the first visible light image and the second visible light image;
Here, the first visible light image, the second visible light image, and the infrared image are images taken in the traveling direction from a traveling vehicle,
Identifying the distance at each coordinate of the first visible light image based on the first visible light image and the second visible light image,
Identifying the temperature at each coordinate of the first visible light image based on the infrared image ,
Detecting a fire based on the temperature of each coordinate of the first visible light image,
setting a building limit for the vehicle;
outputting a notification indicating that a fire has been detected based on the distance to the fire and the building limit ;
a processor;
An information processing device comprising:
前記プロセッサは、前記第1の可視光画像の座標を前記赤外線画像の座標に変換するテーブルを用いて、前記第1の可視光画像の各座標における温度を特定する、
請求項1に記載の情報処理装置。
The processor identifies the temperature at each coordinate of the first visible light image using a table that converts the coordinates of the first visible light image into the coordinates of the infrared image.
The information processing device according to claim 1.
前記プロセッサは、前記火災の規模にさらに基づいて、前記通知を出力する、
請求項に記載の情報処理装置。
the processor outputs the notification further based on the scale of the fire;
The information processing device according to claim 1 .
前記プロセッサは、
前記第1の可視光画像から所定の火災温度を超える温度の火災領域を特定し、
前記火災領域の温度と、前記火災領域の面積と、前記建築限界と前記火災との距離と、に基づいて前記通知を出力する、
請求項に記載の情報処理装置。
The processor includes:
Identifying a fire area with a temperature exceeding a predetermined fire temperature from the first visible light image,
outputting the notification based on the temperature of the fire area, the area of the fire area, and the distance between the building limit and the fire;
The information processing device according to claim 3 .
前記第1の可視光画像を撮影する第1の可視光カメラと、
前記第2の可視光画像を撮影する第2の可視光カメラと、
前記赤外線画像を撮影する赤外線カメラと、
を備える、
請求項1乃至の何れか1項に記載の情報処理装置。
a first visible light camera that captures the first visible light image;
a second visible light camera that captures the second visible light image;
an infrared camera that captures the infrared image;
Equipped with
The information processing device according to any one of claims 1 to 4 .
JP2019223388A 2019-12-11 2019-12-11 information processing equipment Active JP7438738B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019223388A JP7438738B2 (en) 2019-12-11 2019-12-11 information processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019223388A JP7438738B2 (en) 2019-12-11 2019-12-11 information processing equipment

Publications (2)

Publication Number Publication Date
JP2021092987A JP2021092987A (en) 2021-06-17
JP7438738B2 true JP7438738B2 (en) 2024-02-27

Family

ID=76312448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019223388A Active JP7438738B2 (en) 2019-12-11 2019-12-11 information processing equipment

Country Status (1)

Country Link
JP (1) JP7438738B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076568A (en) 1998-08-31 2000-03-14 Hochiki Corp Fire detecting device
JP2002204445A (en) 2001-11-06 2002-07-19 Mitsubishi Heavy Ind Ltd Abnormality detector in combined use of visible ray camera and infrared ray camera
JP2004304249A (en) 2003-03-28 2004-10-28 Nohmi Bosai Ltd Fire detecting apparatus and disaster prevention system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076568A (en) 1998-08-31 2000-03-14 Hochiki Corp Fire detecting device
JP2002204445A (en) 2001-11-06 2002-07-19 Mitsubishi Heavy Ind Ltd Abnormality detector in combined use of visible ray camera and infrared ray camera
JP2004304249A (en) 2003-03-28 2004-10-28 Nohmi Bosai Ltd Fire detecting apparatus and disaster prevention system

Also Published As

Publication number Publication date
JP2021092987A (en) 2021-06-17

Similar Documents

Publication Publication Date Title
US9809223B2 (en) Driving assistant for vehicles
US11875685B2 (en) Convoy travel system
JP6257989B2 (en) Driving assistance device
US9020747B2 (en) Method for recognizing a turn-off maneuver
CN109017773B (en) Vehicle control device
US20110128136A1 (en) On-vehicle device and recognition support system
KR20210115026A (en) Vehicle intelligent driving control method and device, electronic device and storage medium
JP2014085331A (en) Method and system for recognizing space of road shoulder
JP6103265B2 (en) Pedestrian image acquisition device for vehicles
WO2021226786A1 (en) On-board systems for trains and methods of determining safe speeds and locations of trains
KR102316654B1 (en) Driving guidance apparatus and control method thereof
JP2018523191A (en) Device for determining a space in which a vehicle can travel, traveling based on the device, and vehicle
JP6855712B2 (en) Turnout entry possibility judgment device and turnout entry possibility judgment method
JP2016122362A (en) Traffic support device
US20230154322A1 (en) Driving assistance apparatus
JP2001195698A (en) Device for detecting pedestrian
KR20190078944A (en) Augmented reality head up display system for railway train
JP2635246B2 (en) Inter-vehicle distance detection device for tracking the preceding vehicle
KR101962403B1 (en) An Apparatus and A Method For Stop Guidance In Position Based On Phased-Array Optical Beams
JP7438738B2 (en) information processing equipment
US20190080599A1 (en) Vehicle control device, vehicle control method, and storage medium
KR20170003030A (en) Apparatus and method for monitoring tram crossroads
JP6811497B1 (en) Self-driving car
KR101891920B1 (en) Pedestrian detecting system, automatic cruise control apparatus and method thereof
JP2017219949A (en) Self-vehicle position estimation apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221104

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240214

R150 Certificate of patent or registration of utility model

Ref document number: 7438738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150