JP7383531B2 - Monitoring device, monitoring system and monitoring method - Google Patents

Monitoring device, monitoring system and monitoring method Download PDF

Info

Publication number
JP7383531B2
JP7383531B2 JP2020040657A JP2020040657A JP7383531B2 JP 7383531 B2 JP7383531 B2 JP 7383531B2 JP 2020040657 A JP2020040657 A JP 2020040657A JP 2020040657 A JP2020040657 A JP 2020040657A JP 7383531 B2 JP7383531 B2 JP 7383531B2
Authority
JP
Japan
Prior art keywords
flare
pixel
pixels
flow rate
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020040657A
Other languages
Japanese (ja)
Other versions
JP2021145158A (en
Inventor
治久 後藤
信行 石井
寛志 清家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eneos Corp
Original Assignee
Eneos Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eneos Corp filed Critical Eneos Corp
Priority to JP2020040657A priority Critical patent/JP7383531B2/en
Publication of JP2021145158A publication Critical patent/JP2021145158A/en
Priority to JP2023187340A priority patent/JP2024008990A/en
Application granted granted Critical
Publication of JP7383531B2 publication Critical patent/JP7383531B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、監視装置、監視システムおよび監視方法に関する。 The present invention relates to a monitoring device, a monitoring system, and a monitoring method.

製油所では、製油の過程で排出された余剰のガスをフレアスタックと呼ばれる設備で焼却する。フレアスタックのバーナー部の先端からは、余剰のガスの燃焼により生じる火炎(フレア)や黒煙が放出される。フレアガスラインは製油所の複数装置からの配管に接続されている。配管の安全弁のシールが劣化すると、本来製油所内で利用されるガス(以下、フレアガスと記載する。)がフレアガスラインに流入し、バーナー部の先端からフレアとして放出される場合がある。これは、省エネルギーの観点から好ましくない。フレアガスが放出されると、フレアの大きさが通常より大きくなる。この性質を利用して、フレアの状態を監視用カメラで撮影し、監視員がその映像を目視によって確認しながら、フレアガスがフレアガスラインに流入していないかどうかの監視を行うことが多い。 At oil refineries, excess gas emitted during the oil refining process is incinerated in equipment called a flare stack. From the tip of the burner section of the flare stack, flame (flare) and black smoke are emitted from the combustion of excess gas. The flare gas line is connected to piping from multiple units in the refinery. When the seal of the safety valve of the piping deteriorates, gas originally used in the refinery (hereinafter referred to as flare gas) may flow into the flare gas line and be released as flare from the tip of the burner section. This is not preferable from the viewpoint of energy saving. When flare gas is released, the size of the flare becomes larger than normal. Taking advantage of this property, the state of the flare is often photographed by a surveillance camera, and a surveillance officer visually checks the footage to monitor whether flare gas is flowing into the flare gas line.

特許文献1には、化学プラントや火力発電施設、塵焼却施設におけるフレアスタックや煙突から排出される黒煙を検知する黒煙検知システムが記載されている。特許文献1に記載の黒煙検知システムは、排出された煙を連続して撮影した画像を用いて、2つの画像の所定領域に対してオプティカルフロー推定を計算する。そして、オプティカルフロー推定から速度場ベクトルを演算し、速度場が存在する領域から排出煙領域を抽出する。さらに排出煙領域の全画素について輝度ヒストグラムを計算し、暗い輝度値を有する画素が一定以上存在する場合に排出煙領域に黒煙が存在すると判定する。 Patent Document 1 describes a black smoke detection system that detects black smoke discharged from flare stacks and chimneys in chemical plants, thermal power generation facilities, and dust incineration facilities. The black smoke detection system described in Patent Document 1 calculates optical flow estimation for a predetermined region of two images using consecutive images of emitted smoke. Then, a velocity field vector is calculated from the optical flow estimation, and an exhaust smoke region is extracted from the region where the velocity field exists. Further, a brightness histogram is calculated for all pixels in the exhaust smoke area, and if there are a certain number of pixels having dark brightness values, it is determined that black smoke exists in the exhaust smoke area.

特開2001-256475号公報Japanese Patent Application Publication No. 2001-256475

フレアスタックでは、放出されるフレアガスの流量(ロス量)を把握する必要がある。フレアスタックから放出されるフレアガスの流量は、フレアガス配管にガス流量計を設置して監視することができる。しかし、新たにフレアガス配管にガス流量計を設置するには、装置の定期修理期間に実施する必要があり、工事できる期間に制限がある。また、ガス流量計の設置に要する費用は高額となる。一方、監視用カメラでフレアを撮影し、監視員が目視により確認する方法では、フレアが大きくなることに基づいてフレアガスの放出が多いことは推定できても、フレアガスの流量を定量的に把握することはできない。簡便で低コストにフレアガスの流量を計測する方法が求められている。特許文献1にも、フレアガス流量を計測する方法は記載されていない。 In a flare stack, it is necessary to understand the flow rate (loss amount) of flare gas released. The flow rate of flare gas discharged from the flare stack can be monitored by installing a gas flow meter in the flare gas piping. However, installing a new gas flow meter in the flare gas piping must be done during a regular repair period for the equipment, and there is a limit to the period during which the work can be done. Furthermore, the cost required to install a gas flow meter is high. On the other hand, with the method of photographing flares with a surveillance camera and visually checking them by surveillance personnel, it is possible to estimate that a large amount of flare gas is being released based on the size of the flare, but it is not possible to quantitatively understand the flow rate of flare gas. It is not possible. There is a need for a simple and low-cost method to measure the flow rate of flare gas. Patent Document 1 also does not describe a method for measuring the flare gas flow rate.

そこでこの発明は、上述の課題を解決することのできる監視装置、監視システムおよび監視方法を提供することを目的としている。 Therefore, an object of the present invention is to provide a monitoring device, a monitoring system, and a monitoring method that can solve the above-mentioned problems.

本発明の一態様によれば、監視装置は、フレアを撮影した映像を取得する映像取得部と、フレアが写った所定のフレア画素の輝度値と、フレア以外が写った所定の背景画素の輝度値とに基づいて、前記映像に含まれる各画素を、前記フレア画素に近い第1画素と前記背景画素に近い第2画素の何れかに分類し、前記第1画素に分類された全画素数を算出する映像解析部と、前記全画素数に基づいて、フレアガス配管を流れるガスであるフレアガスの流量を推定するフレアガス流量推定部と、前記フレアガスの流量と所定の閾値とを比較して、前記フレアガスの流量が前記閾値を上回っていればアラームを発報する出力部と、を備え、前記映像取得部は、異なる2方向から撮影された前記映像を取得し、前記映像解析部は、取得された前記映像のうち、第一の方向から撮影された前記映像に基づいて、前記第1画素に分類された画素群の水平方向の画素数W1と垂直方向の画素数H1とを算出し、第二の方向から撮影された前記映像に基づいて、前記第1画素に分類された画素群の水平方向の画素数W2と垂直方向の画素数H2とを算出し、前記画素数H1と前記画素数H2のうち大きい画素数と、前記画素数W1と、前記画素数W2と、を乗じて体積Vを算出し、前記フレアガス流量推定部は、前記体積Vを前記全画素数として、前記全画素数に基づいて前記フレアガスの流量を推定する。 According to one aspect of the present invention, a monitoring device includes an image acquisition unit that acquires an image of a flare, a luminance value of a predetermined flare pixel in which a flare is captured, and a luminance value of a predetermined background pixel in which an object other than the flare is captured. Each pixel included in the video is classified into either a first pixel close to the flare pixel or a second pixel close to the background pixel based on the value, and the total number of pixels classified as the first pixel is determined. and a flare gas flow rate estimating unit that estimates the flow rate of flare gas, which is the gas flowing through the flare gas piping , based on the total number of pixels, and compares the flow rate of the flare gas with a predetermined threshold , an output unit that issues an alarm if the flow rate of the flare gas exceeds the threshold ; the image acquisition unit acquires the images taken from two different directions; and the image analysis unit Based on the video shot from the first direction among the video images taken from the first direction, the number of pixels in the horizontal direction W1 and the number of pixels in the vertical direction H1 of the pixel group classified as the first pixel are calculated. Based on the images taken from two directions, the number of pixels in the horizontal direction W2 and the number of pixels in the vertical direction H2 of the pixel group classified as the first pixel are calculated, and the number of pixels H1 and the number of pixels are calculated. The volume V is calculated by multiplying the larger number of pixels in H2, the number of pixels W1, and the number of pixels W2, and the flare gas flow rate estimator calculates the total number of pixels by setting the volume V to the total number of pixels. The flow rate of the flare gas is estimated based on.

本発明の一態様によれば、監視システムは、フレアスタックのフレア放出部周辺の映像を異なる方向から撮影する2つの撮像装置と、上記の監視装置と、を備える。 According to one aspect of the present invention, a monitoring system includes two imaging devices that capture images of the vicinity of the flare emission part of the flare stack from different directions, and the above-mentioned monitoring device.

本発明の一態様によれば、監視方法は、フレアを撮影した映像を取得するステップと、フレアが写った所定のフレア画素の輝度値と、フレア以外が写った所定の背景画素の輝度値とに基づいて、前記映像に含まれる各画素を、前記フレア画素に近い第1画素と前記背景画素に近い第2画素の何れかに分類し、前記第1画素に分類された全画素数を算出するステップと、前記全画素数に基づいて、フレアガス配管を流れるガスであるフレアガスの流量を推定するステップと、前記フレアガスの流量と所定の閾値とを比較して、前記フレアガスの流量が前記閾値を上回っていればアラームを発報するステップと、を有し、前記取得するステップでは、異なる2方向から撮影された前記映像を取得し、前記算出するステップでは、取得された前記映像のうち、第一の方向から撮影された前記映像に基づいて、前記第1画素に分類された画素群の水平方向の画素数W1と垂直方向の画素数H1とを算出し、第二の方向から撮影された前記映像に基づいて、前記第1画素に分類された画素群の水平方向の画素数W2と垂直方向の画素数H2とを算出し、前記画素数H1と前記画素数H2のうち大きい画素数と、前記画素数W1と、前記画素数W2と、を乗じて体積Vを算出し、前記推定するステップでは、前記体積Vを前記全画素数として、前記全画素数に基づいて前記フレアガスの流量を推定するAccording to one aspect of the present invention, a monitoring method includes the steps of acquiring an image of a flare, the brightness value of a predetermined flare pixel in which a flare is captured, and the brightness value of a predetermined background pixel in which a non-flare is captured. Based on the above, each pixel included in the video is classified as either a first pixel close to the flare pixel or a second pixel close to the background pixel, and the total number of pixels classified as the first pixel is calculated. estimating the flow rate of flare gas, which is the gas flowing through the flare gas piping , based on the total number of pixels; and comparing the flow rate of the flare gas with a predetermined threshold value , and determining whether the flow rate of the flare gas exceeds the threshold value. If it exceeds the above , an alarm is issued, and in the acquiring step, the images taken from two different directions are acquired, and in the calculating step, the first one of the acquired images is Based on the image taken from one direction, the number of pixels in the horizontal direction W1 and the number of pixels in the vertical direction H1 of the pixel group classified as the first pixel are calculated, and the number of pixels in the vertical direction H1 is calculated based on the image taken from the second direction. Based on the video, the number of pixels in the horizontal direction W2 and the number of pixels in the vertical direction H2 of the pixel group classified as the first pixel are calculated, and the number of pixels that is larger between the number of pixels H1 and the number of pixels H2 is calculated. , the volume V is calculated by multiplying the number of pixels W1 and the number of pixels W2, and in the estimating step, the volume V is the total number of pixels, and the flow rate of the flare gas is calculated based on the total number of pixels. presume .

本発明によれば、フレアガスの流量を推定することができる。 According to the present invention, the flow rate of flare gas can be estimated.

一実施形態における監視システムの一例を示す図である。FIG. 1 is a diagram illustrating an example of a monitoring system in an embodiment. 一実施形態における監視装置の一例を示す機能ブロック図である。It is a functional block diagram showing an example of a monitoring device in one embodiment. 一実施形態における監視装置が解析する映像の一例を示す図である。FIG. 3 is a diagram illustrating an example of a video analyzed by a monitoring device according to an embodiment. 一実施形態におけるフレアの検出処理を説明する第1の図である。FIG. 2 is a first diagram illustrating flare detection processing in an embodiment. 一実施形態におけるフレアの検出処理を説明する第2の図である。FIG. 7 is a second diagram illustrating flare detection processing in an embodiment. 一実施形態におけるフレアの検出処理を説明する第3の図である。FIG. 7 is a third diagram illustrating flare detection processing in an embodiment. 一実施形態におけるフレアの検出処理を説明する第4の図である。FIG. 4 is a fourth diagram illustrating flare detection processing in one embodiment. 一実施形態におけるフレアの検出処理を説明する第5の図である。FIG. 5 is a fifth diagram illustrating flare detection processing in an embodiment. 一実施形態におけるフレア画素数の計測結果の一例を示す図である。FIG. 3 is a diagram illustrating an example of a measurement result of the number of flare pixels in an embodiment. 一実施形態におけるフレアガス流量の推定処理を説明する図である。FIG. 3 is a diagram illustrating processing for estimating a flare gas flow rate in one embodiment. 一実施形態における設定処理の一例を示す図である。It is a figure showing an example of setting processing in one embodiment. 一実施形態におけるフレアガス流量の推定処理の一例を示す第1の図である。FIG. 2 is a first diagram illustrating an example of flare gas flow rate estimation processing in an embodiment. 一実施形態におけるフレアガス流量の推定処理の一例を示す第2の図である。FIG. 7 is a second diagram illustrating an example of flare gas flow rate estimation processing in one embodiment.

<実施形態>
以下、一実施形態によるフレアスタックの監視システムについて図1~図13を参照して説明する。
図1は、本発明の一実施形態における監視システムの一例を示す図である。
図1に、監視システム1の構成を示す。図1に示すように監視システム1は、カメラ10Aと、カメラ10Bと、映像取得装置15と、映像分配装置20と、監視用モニター25と、監視装置30と、中央監視装置40と、を備える。
図示するように、カメラ10Aと映像取得装置15、映像取得装置15と映像分配装置20、映像分配装置20と監視用モニター25、映像分配装置20と監視装置30、カメラ10Bと監視装置30、監視装置30と中央監視装置40、はそれぞれ接続されている。
<Embodiment>
Hereinafter, a flare stack monitoring system according to one embodiment will be described with reference to FIGS. 1 to 13.
FIG. 1 is a diagram showing an example of a monitoring system according to an embodiment of the present invention.
FIG. 1 shows the configuration of a monitoring system 1. As shown in FIG. 1, the monitoring system 1 includes a camera 10A, a camera 10B, a video acquisition device 15, a video distribution device 20, a monitoring monitor 25, a monitoring device 30, and a central monitoring device 40. .
As shown in the figure, a camera 10A and a video acquisition device 15, a video acquisition device 15 and a video distribution device 20, a video distribution device 20 and a monitoring monitor 25, a video distribution device 20 and a monitoring device 30, a camera 10B and a monitoring device 30, and a monitoring device. The device 30 and the central monitoring device 40 are connected to each other.

カメラ10A,10Bは、フレアスタック先端のバーナー部(フレアを放散する先端部、煙突)と、その周辺の映像を撮影する。カメラ10Aとカメラ10Bは、異なる方向からバーナー部周辺の映像を撮影する。異なる方向から撮影を行うのは、フレアが風でなびいたときにも、フレアの立体的な姿を撮影できるようにするためである。カメラ10A,10Bが撮影した映像を、以下フレア映像と記載する。 The cameras 10A and 10B take images of the burner section at the tip of the flare stack (the tip section that dissipates the flare, the chimney) and its surroundings. Camera 10A and camera 10B take images around the burner section from different directions. The reason for photographing from different directions is to be able to photograph the three-dimensional appearance of the flare even when the flare is waving in the wind. The images taken by the cameras 10A and 10B are hereinafter referred to as flare images.

なお、カメラ10A,10Bは、動画を撮影する撮像装置であることが好ましいが、例えば、所定の時間間隔で静止画を撮影するものであってもよい。また、カメラ10A,10Bのうちの何れか、又は両方は、赤外線カメラであってもよい。フレアスタックでは、フレアの拡大を抑えるため、バーナー部から蒸気を注入することがある。蒸気を注入すると、フレアの火炎が小さくなるが、代わりに水蒸気が放出される。赤外線カメラであれば、水蒸気を検出することができ、より正確にフレアガスの流量を推定することができる。また、赤外線カメラであれば、水素ガスが放出されたときにもその水素ガスを検出することができる。なお、カメラは2台あることが望ましいが、カメラ10A,10Bの何れか1つであってもよい。 Note that the cameras 10A and 10B are preferably imaging devices that take moving images, but may also take still images at predetermined time intervals, for example. Further, either or both of the cameras 10A and 10B may be an infrared camera. In flare stacks, steam is sometimes injected from the burner section to suppress the spread of flare. Injecting steam reduces the flame of the flare, but releases water vapor instead. An infrared camera can detect water vapor and more accurately estimate the flow rate of flare gas. Furthermore, an infrared camera can detect hydrogen gas even when it is released. Although it is desirable to have two cameras, it is also possible to use one of the cameras 10A and 10B.

映像取得装置15は、カメラ10Aが撮影したフレア映像を取得し、そのフレア映像を映像分配装置20へ出力する。一般的に映像取得装置15は、監視用モニター25と直接接続され、監視員は、監視用モニター25に表示されたフレア映像を見てフレアスタックのバーナー部の周辺や上空を確認し、フレアが大きくなっていないか、失火していないか、黒煙が発生していないかなどを目視により監視する。本実施形態の監視システム1では、映像取得装置15は、映像分配装置20と接続される。 The video acquisition device 15 acquires the flare video captured by the camera 10A, and outputs the flare video to the video distribution device 20. In general, the image acquisition device 15 is directly connected to the monitoring monitor 25, and the monitoring personnel check the flare image displayed on the monitoring monitor 25 to check the area around and above the burner part of the flare stack, and to detect flares. Visually monitor to see if it is getting bigger, if there is a misfire, if black smoke is being generated, etc. In the monitoring system 1 of this embodiment, the video acquisition device 15 is connected to the video distribution device 20.

映像分配装置20は、映像の分配する機能を有している。映像分配装置20は、監視用モニター25および監視装置30と接続されている。映像分配装置20は、映像取得装置15から取得したフレア映像を監視用モニター25および監視装置30へ出力する。
監視用モニター25は、フレア映像を表示する。監視員は、監視用モニター25に表示されたフレア映像を監視する。
The video distribution device 20 has a function of distributing video. The video distribution device 20 is connected to a monitoring monitor 25 and a monitoring device 30. The video distribution device 20 outputs the flare video acquired from the video acquisition device 15 to the monitoring monitor 25 and the monitoring device 30.
The monitoring monitor 25 displays flare images. The observer monitors the flare video displayed on the monitoring monitor 25.

カメラ10Bは、無線通信によって監視装置30と接続されている。カメラ10Bは、撮影したフレア映像を監視装置30へ送信する。 Camera 10B is connected to monitoring device 30 via wireless communication. The camera 10B transmits the captured flare video to the monitoring device 30.

監視装置30は、カメラ10A,10Bが撮影したフレア映像を解析して、フレアガスの流量を推定する。監視装置30は、フレアガスの流量を推定すると、その推定結果やアラーム等を監視装置30の表示部や監視装置30に接続された表示装置へ表示し、監視員に通知する。また、監視装置30は、フレアガスの流量の推定値やアラーム等を中央監視装置40へ送信する。次に監視装置30について詳しく説明する。 The monitoring device 30 analyzes the flare images taken by the cameras 10A and 10B and estimates the flow rate of the flare gas. When the monitoring device 30 estimates the flow rate of flare gas, it displays the estimation result, an alarm, etc. on the display unit of the monitoring device 30 or a display device connected to the monitoring device 30, and notifies the monitoring personnel. Further, the monitoring device 30 transmits an estimated value of the flow rate of flare gas, an alarm, etc. to the central monitoring device 40. Next, the monitoring device 30 will be explained in detail.

図2は、本発明の一実施形態における監視装置の一例を示す機能ブロック図である。
監視装置30は、CPU(Central Processing Unit)等の演算装置を備えたPC(Personal Computer)やサーバ等のコンピュータである。図示するように監視装置30は、映像取得部31と、設定情報取得部32と、映像解析部33と、フレアガス流量推定部34と、記憶部35と、出力部36と、を備えている。
FIG. 2 is a functional block diagram showing an example of a monitoring device according to an embodiment of the present invention.
The monitoring device 30 is a computer such as a PC (Personal Computer) or a server equipped with an arithmetic unit such as a CPU (Central Processing Unit). As illustrated, the monitoring device 30 includes a video acquisition section 31, a setting information acquisition section 32, a video analysis section 33, a flare gas flow rate estimation section 34, a storage section 35, and an output section 36.

映像取得部31は、カメラ10A,10Bが撮影したフレア映像を取得する。映像取得部31は、フレア映像を映像解析部33へ出力する。
設定情報取得部32は、フレア映像の解析に必要な各種の設定情報を取得する。設定情報取得部32は、取得した設定情報を記憶部35に記録する。
The image acquisition unit 31 acquires flare images captured by the cameras 10A and 10B. The video acquisition unit 31 outputs the flare video to the video analysis unit 33.
The setting information acquisition unit 32 acquires various types of setting information necessary for flare video analysis. The setting information acquisition unit 32 records the acquired setting information in the storage unit 35.

映像解析部33は、フレア映像を解析する。ここで、図3を参照する。図3は、本発明の一実施形態における監視装置が解析する映像の一例を示す図である。図3にカメラ10Aが撮影したフレア映像50の一例を示す。なお、52~53で示す矩形の枠は、フレア映像50そのものではなく、フレア映像の解析に必要な領域を示している。これらの領域は、設定情報取得部32が取得した設定情報に基づいて配置される。 The video analysis unit 33 analyzes the flare video. Reference is now made to FIG. FIG. 3 is a diagram showing an example of a video analyzed by a monitoring device according to an embodiment of the present invention. FIG. 3 shows an example of a flare image 50 taken by the camera 10A. Note that the rectangular frames indicated by 52 to 53 do not indicate the flare image 50 itself, but indicate areas necessary for analyzing the flare image. These areas are arranged based on the setting information acquired by the setting information acquisition unit 32.

(1)例えば、映像解析部33は、フレア映像に映るバーナー部51を、バーナー部の形状に基づくパターン認識により検出する。映像解析部33は、検出したバーナー部51の所定の位置(例えば、バーナー部51の先端の中心)を、フレア映像50における基準位置として設定する。映像解析部33は、例えば、フレア映像50の左下端を原点としたときの基準位置の座標情報を記憶部35に記録する。あるいは、映像解析部33が画像を解析するのではなく、監視員が、バーナー部51の先端中心の座標情報を監視装置30へ入力してもよい。 (1) For example, the video analysis unit 33 detects the burner section 51 appearing in the flare video by pattern recognition based on the shape of the burner section. The video analysis unit 33 sets the detected predetermined position of the burner unit 51 (for example, the center of the tip of the burner unit 51) as a reference position in the flare video 50. The video analysis unit 33 records, in the storage unit 35, coordinate information of a reference position when the lower left end of the flare video 50 is set as the origin, for example. Alternatively, instead of the video analysis unit 33 analyzing the image, a monitoring person may input the coordinate information of the center of the tip of the burner unit 51 to the monitoring device 30.

(2)映像解析部33は、設定情報取得部32が取得した設定情報に基づいて、基準位置に基づく所定範囲をフレア監視エリア52、背景エリア53として設定する。
フレア監視エリア52は、例えば、バーナー部51の先端からフレア54が観察される範囲を規定する。
背景エリア53は、フレアや黒煙が到達しない領域に設定される。背景エリア53は、例えば、バーナー部51から十分に離れ、構造物が存在しない空間の一部について設定される。フレア監視エリア52、背景エリア53は監視員が任意に設定することができる。
(2) The video analysis unit 33 sets a predetermined range based on the reference position as the flare monitoring area 52 and the background area 53 based on the setting information acquired by the setting information acquisition unit 32.
The flare monitoring area 52 defines, for example, a range in which the flare 54 is observed from the tip of the burner section 51.
The background area 53 is set to an area where flare and black smoke do not reach. The background area 53 is set, for example, in a part of the space that is sufficiently far away from the burner section 51 and in which no structure exists. The flare monitoring area 52 and the background area 53 can be set arbitrarily by the observer.

(3)映像解析部33は、フレアに対応するRGB輝度値(RGB色空間における赤、緑、青の256階調の値)に基づいて、フレア映像50からフレア54を検出する。フレアに対応するRGB輝度値の値は、後述する処理により、映像解析部33は、フレア監視エリア52に含まれる画素を解析してフレアに対応するRGB輝度値を設定してもよいし、監視員が監視装置30へフレアに対応するRGB輝度値を入力し、設定情報取得部32がその値を取得してもよい。 (3) The video analysis unit 33 detects the flare 54 from the flare video 50 based on the RGB luminance values (values of 256 gradations of red, green, and blue in the RGB color space) corresponding to the flare. The video analysis unit 33 may analyze the pixels included in the flare monitoring area 52 and set the RGB brightness values corresponding to the flare by processing described later, or the video analysis unit 33 may set the RGB brightness values corresponding to the flare by processing described later A person may input RGB luminance values corresponding to flare into the monitoring device 30, and the setting information acquisition unit 32 may acquire the values.

フレアガス流量推定部34は、フレア映像で検出されるフレア54の画素数に基づいて、フレアガス流量を推定する。また、フレアガス流量推定部34は、フレアガスの流量の推定値と予め設定された複数の閾値とを比較して、フレアガスの流量が各閾値を超えていればアラームの発報を出力部36へ指示する。 The flare gas flow rate estimation unit 34 estimates the flare gas flow rate based on the number of pixels of the flare 54 detected in the flare image. Further, the flare gas flow rate estimation unit 34 compares the estimated value of the flare gas flow rate with a plurality of preset threshold values, and instructs the output unit 36 to issue an alarm if the flare gas flow rate exceeds each threshold value. do.

記憶部35は、種々の情報を記憶する。例えば、記憶部35は、バーナー部51の基準位置の座標情報や、フレアに対応するRGB輝度値の設定情報、フレアガス流量と画素数の関係を示す検量線などを記憶する。 The storage unit 35 stores various information. For example, the storage unit 35 stores coordinate information of the reference position of the burner unit 51, setting information of RGB brightness values corresponding to flare, a calibration curve showing the relationship between the flare gas flow rate and the number of pixels, and the like.

出力部36は、フレアガス流量推定部34によるフレアガス流量の推定結果を表示したり、設定情報を入力したりするためのユーザインタフェースの画像を生成する。また、出力部36は、フレアガス流量推定部34の指示に基づいてアラームを出力する。 The output unit 36 generates an image of a user interface for displaying the estimation result of the flare gas flow rate by the flare gas flow rate estimating unit 34 and inputting setting information. Further, the output unit 36 outputs an alarm based on an instruction from the flare gas flow rate estimation unit 34.

図4~図8は、それぞれ一実施形態におけるフレアの検出処理を説明する第1の図~第5の図である。
図4(a)にフレア映像50の一例を示す。図4(b)に、フレア映像50を解析してフレアだけを抽出した画像(以下、フレア画像と記載する。)を示す。図4(b)に示すフレア画像の作成方法を次に示す。まず、監視員が、図5に示すようにフレアに対応するRGB輝度値の範囲を設定する。図5のR5はR(赤)の輝度の範囲、G5はG(緑)の輝度の範囲、B5はB(青)の輝度の範囲を示している。次に画像処理によって、設定された範囲に含まれる輝度値を有する画素を、フレアを示す画素として抽出する。フレアを示す画素と、非フレアを示す画素とに異なる色を付して画像を生成する。これにより図4(b)のフレア画像が得られる。図4(b)のフレア画像では、円環状の領域がフレアとして表示されている。図4(a)と図4(b)を比較して分かるように、図4(b)のフレア画像では、フレアの一部しか検出できていない。
4 to 8 are first to fifth diagrams each illustrating flare detection processing in one embodiment.
An example of the flare image 50 is shown in FIG. 4(a). FIG. 4B shows an image (hereinafter referred to as a flare image) obtained by analyzing the flare video 50 and extracting only the flare. A method for creating the flare image shown in FIG. 4(b) will be described below. First, the observer sets a range of RGB luminance values corresponding to flare, as shown in FIG. In FIG. 5, R5 indicates the R (red) luminance range, G5 indicates the G (green) luminance range, and B5 indicates the B (blue) luminance range. Next, through image processing, pixels having luminance values included in the set range are extracted as pixels indicating flare. An image is generated by assigning different colors to pixels indicating flare and pixels indicating non-flare. As a result, the flare image shown in FIG. 4(b) is obtained. In the flare image of FIG. 4(b), an annular region is displayed as a flare. As can be seen by comparing FIGS. 4(a) and 4(b), only a portion of the flare can be detected in the flare image of FIG. 4(b).

本実施形態では、フレアの検出精度を向上するために、RGB輝度のR(赤)と、G(緑)と、B(青)の各色の輝度値を座標軸とする3次元空間を用意する。そして、この3次元空間内に、フレアが写った代表的な画素(フレア画素)のRGB輝度値をプロットし、フレアが写っていない非フレアの画素(背景画素)のRGB輝度値をプロットし、フレア映像50の各画素のRGB輝度値をこの3次元空間内にプロットする。ここで、図6を参照する。図6の点61は、フレアが写った代表的な画素のRGB輝度値をプロットした点である。点63は、空などの背景が写った画素のRGB輝度値をプロットした点である。点62は、フレア映像50内のある画素のRGB輝度値をプロットした点である。映像解析部33は、フレア映像50内の画素のRGB輝度値をプロットした点62の座標と代表的なフレアのRGB輝度値をプロットした点61の座標とに基づいて、点62と点61の間の距離(ベクトル64の長さ)を算出する。また、映像解析部33は、フレア映像50内の画素のRGB輝度値をプロットした点62の座標と背景のRGB輝度値をプロットした点63の座標とに基づいて、点62と点63の間の距離(ベクトル65の長さ)を算出する。そして、映像解析部33は、点62に対応する画素を、ベクトル64の長さとベクトル65の長さのうち短い方に分類する。つまり、映像解析部33は、ベクトル64の長さが短ければ、点62に対応する画素を、フレアを示す画素(第1画素)であると判定し、ベクトル65の長さが短ければ、非フレアを示す画素(第2画素)であると判定する。映像解析部33は、フレア映像50内の全画素について同様の判定を行う。映像解析部33は、フレアと判定した画素と、非フレアと判定した画素とに異なる色を付してフレア画像を作成する。このような処理によって得られたフレア画像を図7(a)に示す。 In this embodiment, in order to improve flare detection accuracy, a three-dimensional space is prepared in which the coordinate axes are the luminance values of R (red), G (green), and B (blue) colors of RGB luminance. Then, in this three-dimensional space, the RGB luminance values of typical pixels in which flare is captured (flare pixels) are plotted, and the RGB luminance values of non-flare pixels in which flare is not captured (background pixels) are plotted, The RGB luminance values of each pixel of the flare image 50 are plotted in this three-dimensional space. Reference is now made to FIG. A point 61 in FIG. 6 is a point where the RGB luminance values of a typical pixel in which flare is captured are plotted. A point 63 is a point where the RGB luminance values of a pixel representing a background such as the sky are plotted. A point 62 is a point where the RGB luminance values of a certain pixel in the flare image 50 are plotted. The video analysis unit 33 calculates the points 62 and 61 based on the coordinates of the point 62 where the RGB brightness values of pixels in the flare video 50 are plotted and the coordinates of the point 61 where the RGB brightness values of typical flares are plotted. The distance between them (the length of the vector 64) is calculated. Further, the video analysis unit 33 determines the distance between the points 62 and 63 based on the coordinates of the point 62 where the RGB brightness values of pixels in the flare video 50 are plotted and the coordinates of the point 63 where the RGB brightness values of the background are plotted. The distance (length of vector 65) is calculated. The video analysis unit 33 then classifies the pixel corresponding to the point 62 into the shorter of the length of the vector 64 and the length of the vector 65. In other words, if the length of the vector 64 is short, the video analysis unit 33 determines that the pixel corresponding to the point 62 is a pixel indicating flare (the first pixel), and if the length of the vector 65 is short, it determines that the pixel corresponding to the point 62 is a non-flare pixel. It is determined that the pixel indicates flare (second pixel). The video analysis unit 33 performs the same determination for all pixels within the flare video 50. The video analysis unit 33 creates a flare image by assigning different colors to pixels determined to be flare and pixels determined to be non-flare. A flare image obtained by such processing is shown in FIG. 7(a).

図7(a)のフレア画像を参照すると、図4(b)のフレア画像と比較してより多くの領域がフレアとして検出されていて、検出されるフレアの領域が改善されていることが分かる。しかし、図7(a)のフレア画像では、フレアの中心部に空洞が生じている。次にこの空洞を補完する処理について説明する。まず、映像解析部33は、図7(a)に示すフレア画像を、例えば、Y軸方向に上から下方向へ所定の画素数を有する幅ごとに分割し、分割してできた一列の部分画像の各々に対して以下の処理を行う。映像解析部33は、一列の部分画像について、X軸方向に左から右へスキャンする。そのときにフレアを示す画素が所定の画素数以上連続して検知されて、次に非フレアを示す画素が所定の画素数以上連続して検知されて、その次にフレアを示す画素が所定の画素数以上連続して検知されたならば、映像解析部33は、その部分画像では空洞が含まれていると判定する。そして、フレアを示す画素群に挟まれた非フレアを示す画素群をフレアとして認識し、これらの画素群にフレアに対応する色(図7(a)と同様の色でもよいし、異なる色でもよい。)を付す。このような空洞を補完する処理を行った結果を得られるフレア画像を図7(b)に示す。なお、図7(b)のH1,W1については後述する。 Referring to the flare image in FIG. 7(a), it can be seen that more areas are detected as flares than in the flare image in FIG. 4(b), and the detected flare area has been improved. . However, in the flare image of FIG. 7(a), a cavity is created at the center of the flare. Next, a process for filling in this cavity will be explained. First, the video analysis unit 33 divides the flare image shown in FIG. 7(a), for example, into widths each having a predetermined number of pixels from top to bottom in the Y-axis direction, and divides the flare image into a row of parts. The following processing is performed on each image. The video analysis unit 33 scans a row of partial images from left to right in the X-axis direction. At that time, pixels indicating flare are detected consecutively for a predetermined number of pixels or more, then pixels indicating non-flare are detected for a predetermined number or more consecutively, and then pixels indicating flare are detected for a predetermined number of pixels or more. If more than the number of pixels are detected consecutively, the video analysis unit 33 determines that the partial image includes a cavity. Then, the pixel group indicating non-flare sandwiched between the pixel group indicating flare is recognized as flare, and the color corresponding to flare (the same color as in Fig. 7(a) or a different color) is assigned to these pixel groups. Good.) is attached. FIG. 7(b) shows a flare image obtained as a result of processing to complement such cavities. Note that H1 and W1 in FIG. 7(b) will be described later.

図8(a)に、図4(a)とは別のフレア映像50の一例を示す。この例では、バーナー部51の先端部から比較的小さなフレアが放出されている。図6を用いて説明した、フレア映像50の画素ごとに代表的なフレアのRGB輝度値を示す点および背景のRGB輝度値を示す点との距離に基づいてフレアが写った画素を検出する方法であれば、図8(b)のフレア画像に示すようにフレアが小さいときでも、検出可能なことが確認できた。 FIG. 8(a) shows an example of a flare image 50 different from that shown in FIG. 4(a). In this example, a relatively small flare is emitted from the tip of the burner section 51. A method of detecting pixels in which flare is captured based on the distance between each pixel of the flare image 50 and a point indicating a typical flare RGB luminance value and a point indicating a background RGB luminance value, as explained using FIG. 6. If so, it was confirmed that the flare could be detected even when the flare was small, as shown in the flare image of FIG. 8(b).

図9は、一実施形態におけるフレア画素数の計測結果の一例を示す図である。
図9のグラフの縦軸は、図6を用いて説明した方法によって検出したフレアを示す画素の全画素数、横軸は時間を示している。図9のグラフは、例えば、フレアが大きくなったときに撮影されたフレア映像に基づいて算出されたフレア画素数の推移と、フレアが小さくなった別の時間に撮影されたフレア映像に基づくフレア画素数の推移を並べて表示したものである。グラフ91は、フレアが大きくなったときに検出された画素数の推移を示し、グラフ92は、フレアが小さくなったときに検出された画素数の推移を示す。
目視により観察したフレアの大小と映像解析部33が検出したフレアの画素数が一致する結果が得られた。
FIG. 9 is a diagram illustrating an example of measurement results of the number of flare pixels in one embodiment.
The vertical axis of the graph in FIG. 9 represents the total number of pixels indicating flare detected by the method described using FIG. 6, and the horizontal axis represents time. The graph in FIG. 9 shows, for example, the change in the number of flare pixels calculated based on a flare image taken when the flare became large, and the change in the number of flare pixels calculated based on a flare image taken at a different time when the flare became smaller. The changes in the number of pixels are displayed side by side. A graph 91 shows a change in the number of pixels detected when the flare becomes large, and a graph 92 shows a change in the number of pixels detected when the flare becomes small.
A result was obtained in which the size of the flare visually observed matched the number of pixels of the flare detected by the video analysis unit 33.

次にフレアガス流量の推定方法について説明する。
図10は、一実施形態におけるフレアガス流量の推定処理を説明する図である。
図10にフレア画像におけるフレアを示す画素の画素数と、フレアガスの流量との関係を表した検量線の一例を示す。図10の縦軸は、図6を用いて説明した方法によって検出したフレアを示す画素の全画素数、横軸は、フレアスタックに設けられている流量計によって計測されたガス流量の計測値である。フレアガスの流量を計測する流量計が設けられたフレアスタックに監視システム1を導入し、例えば、カメラ10Aによってフレア映像を撮影する。映像解析部33がそのフレア映像を解析してフレアを示す画素の画素数を算出して記憶部35にフレア映像が撮影された時刻とともに記録する。この処理と並行して、流量計が計測した流量の情報を計測時刻とともに取得し、所定の記憶装置に記録する。記憶部35に記録された各時刻の全画素数と、同じ時刻に計測された流量の計測値と、を対応付けてマッピングすると、最小二乗法などにより、図10に例示するような検量線101が得られる。このようにして作成した検量線101を記憶部35に記録する。フレアガス流量推定部34は、記憶部35に記録された検量線101を参照して、映像解析部33が検出したフレアの全画素数に対応するフレアガスの流量の推定値を算出する。また、フレアガス流量推定部34は、フレアガス流量の推定値と、閾値とを比較して、フレアガス流量の推定値が閾値を上回っていれば、アラームの発報を出力部36に指示する。
Next, a method for estimating the flare gas flow rate will be explained.
FIG. 10 is a diagram illustrating a flare gas flow rate estimation process in one embodiment.
FIG. 10 shows an example of a calibration curve showing the relationship between the number of pixels indicating flare in a flare image and the flow rate of flare gas. The vertical axis of FIG. 10 is the total number of pixels indicating flare detected by the method explained using FIG. 6, and the horizontal axis is the measured value of the gas flow rate measured by the flow meter installed in the flare stack. be. A monitoring system 1 is introduced into a flare stack equipped with a flow meter that measures the flow rate of flare gas, and a flare image is photographed using, for example, a camera 10A. The video analysis unit 33 analyzes the flare video, calculates the number of pixels indicating flare, and records it in the storage unit 35 together with the time when the flare video was photographed. In parallel with this process, information on the flow rate measured by the flow meter is acquired together with the measurement time, and is recorded in a predetermined storage device. When the total number of pixels at each time recorded in the storage unit 35 and the measured value of the flow rate measured at the same time are mapped in correspondence, a calibration curve 101 as illustrated in FIG. 10 is obtained using the least squares method or the like. is obtained. The calibration curve 101 created in this way is recorded in the storage section 35. The flare gas flow rate estimation unit 34 refers to the calibration curve 101 recorded in the storage unit 35 and calculates an estimated value of the flare gas flow rate corresponding to the total number of pixels of the flare detected by the video analysis unit 33. Further, the flare gas flow rate estimation unit 34 compares the estimated value of the flare gas flow rate with a threshold value, and instructs the output unit 36 to issue an alarm if the estimated value of the flare gas flow rate exceeds the threshold value.

(設定処理)
次に監視システム1によるフレアガス流量の推定処理について説明する。
まず、フレアガス流量の推定に先立って、各種設定処理を行う。
図11は、一実施形態における設定処理の一例を示す図である。
まず、映像取得部31がカメラ10A、カメラ10Bが撮影したフレア映像を取得する(ステップS1)。出力部36は、各カメラが撮影したフレア映像を監視装置30のモニターに表示する。次に監視員は、各フレア映像を参照して、バーナー部51の先端位置を設定する(ステップS2)。例えば、監視員は、先端部の座標情報を入力する等によって先端位置を指定する入力を行う。設定情報取得部32は、入力された情報を取得する。先端位置の座標情報が入力された場合、設定情報取得部32は、その座標情報をバーナー部51の先端位置の設定情報として記憶部35に記録する。バーナー部51の先端位置の設定は、映像解析部33が、画像解析により行ってもよい。
(Setting process)
Next, a process for estimating the flare gas flow rate by the monitoring system 1 will be described.
First, prior to estimating the flare gas flow rate, various setting processes are performed.
FIG. 11 is a diagram illustrating an example of setting processing in one embodiment.
First, the image acquisition unit 31 acquires flare images taken by the cameras 10A and 10B (step S1). The output unit 36 displays flare images taken by each camera on the monitor of the monitoring device 30. Next, the observer refers to each flare image and sets the tip position of the burner section 51 (step S2). For example, the observer inputs the position of the tip by inputting coordinate information of the tip. The setting information acquisition unit 32 acquires the input information. When the coordinate information of the tip position is input, the setting information acquisition section 32 records the coordinate information in the storage section 35 as the setting information of the tip position of the burner section 51. The position of the tip of the burner section 51 may be set by the video analysis section 33 through image analysis.

次に監視員は、各フレア映像を参照して、フレア監視エリア52、背景エリア53を設定する(ステップS3)。フレア監視エリア52は、フレアが写った画素の代表的なRGB輝度値を検出する目的で設定する。監視員は、バーナー部51の先端付近の小さな範囲をフレア監視エリア52として設定する。これは、フレア以外の背景等が含まれないようにするためである。監視員は、フレア監視エリア52に対応する矩形の領域の頂点の座標を入力する等して、フレア監視エリア52を設定する。設定情報取得部32は、入力された座標情報をフレア監視エリア52の設定情報として記憶部35に記録する。 Next, the observer refers to each flare video and sets a flare monitoring area 52 and a background area 53 (step S3). The flare monitoring area 52 is set for the purpose of detecting typical RGB luminance values of pixels in which flare is captured. The observer sets a small area near the tip of the burner section 51 as a flare monitoring area 52. This is to prevent backgrounds other than flare from being included. The observer sets the flare monitoring area 52 by inputting the coordinates of the vertices of the rectangular area corresponding to the flare monitoring area 52, for example. The setting information acquisition unit 32 records the input coordinate information in the storage unit 35 as setting information of the flare monitoring area 52.

背景エリア53は、空などの背景のRGB輝度値を検出する目的で設定する。監視員は、フレアや煙が写り込まない範囲を背景エリア53として設定する。監視員は、背景エリア53に対応する矩形の領域の頂点の座標を入力する等して、背景エリア53を設定する。設定情報取得部32は、入力された座標情報を背景エリア53の設定情報として記憶部35に記録する。 The background area 53 is set for the purpose of detecting RGB luminance values of a background such as the sky. The observer sets a background area 53 as a range in which flare and smoke are not reflected. The observer sets the background area 53 by inputting the coordinates of the vertices of the rectangular area corresponding to the background area 53, etc. The setting information acquisition unit 32 records the input coordinate information in the storage unit 35 as setting information of the background area 53.

これらの設定を行って、監視員が所定の操作を行うと、映像解析部33は、映像取得部31が取得したフレア映像のうちフレア監視エリア52に含まれる各画素のRGB輝度値を算出する。映像解析部33は、任意の画素のRGB輝度値を選択して、この値を代表的なフレアのRGB輝度値(図6の点61に相当)として記憶部35に記録する。また、映像解析部33は、映像取得部31が取得したフレア映像のうち背景エリア53に含まれる各画素のRGB輝度値を算出する。映像解析部33は、任意の画素のRGB輝度値を選択して、この値を背景のRGB輝度値(図6の点63に相当)として記憶部35に記録する。あるいは、映像解析部33が算出したフレア監視エリア52に含まれる各画素のRGB輝度値を監視装置30の表示部に表示し、表示された輝度値を参照しながら、監視員が適切なRGB輝度値を監視装置30へ入力することによって、代表的なフレアのRGB輝度値を設定してもよい。背景のRGB輝度値についても同様である。 When these settings are made and the observer performs a predetermined operation, the video analysis unit 33 calculates the RGB luminance value of each pixel included in the flare monitoring area 52 in the flare video acquired by the video acquisition unit 31. . The video analysis unit 33 selects the RGB brightness value of an arbitrary pixel and records this value in the storage unit 35 as a typical flare RGB brightness value (corresponding to point 61 in FIG. 6). Further, the video analysis unit 33 calculates the RGB luminance value of each pixel included in the background area 53 in the flare video acquired by the video acquisition unit 31. The video analysis unit 33 selects the RGB brightness value of an arbitrary pixel and records this value in the storage unit 35 as the background RGB brightness value (corresponding to point 63 in FIG. 6). Alternatively, the RGB brightness value of each pixel included in the flare monitoring area 52 calculated by the video analysis unit 33 is displayed on the display unit of the monitoring device 30, and the watcher can select an appropriate RGB brightness while referring to the displayed brightness value. Representative flare RGB brightness values may be set by inputting the values into the monitoring device 30. The same applies to the RGB luminance values of the background.

なお、フレアの代表的なRGB輝度値や背景の代表的なRGB輝度値は、時間帯や季節、天候などに応じて複数セット設定されてもよい。例えば、記憶部35には、晴れの日のフレアの代表的なRGB輝度値および背景のRGB輝度値、雨の日のフレアの代表的なRGB輝度値および背景のRGB輝度値、昼間のフレアの代表的なRGB輝度値および背景のRGB輝度値、夕方のフレアの代表的なRGB輝度値および背景のRGB輝度値、などが記録されていてもよい。また、フレアのRGB輝度値について、代表的な値が複数存在する場合(例えば、火炎の中心付近のRGB輝度値と境界付近のRGB輝度値)、複数のRGB輝度値を設定してもよい。 Note that a plurality of sets of typical RGB brightness values of the flare and typical RGB brightness values of the background may be set depending on the time of day, season, weather, and the like. For example, the storage unit 35 stores typical RGB luminance values of flare and background RGB luminance values on a sunny day, typical RGB luminance values of flare and background RGB luminance values on a rainy day, and typical RGB luminance values of flare and background RGB luminance values on a rainy day. A typical RGB brightness value and a background RGB brightness value, a typical RGB brightness value of an evening flare and a background RGB brightness value, etc. may be recorded. Furthermore, if there are a plurality of representative RGB brightness values of the flare (for example, an RGB brightness value near the center of the flame and an RGB brightness value near the boundary), a plurality of RGB brightness values may be set.

次に監視員は、アラーム発報の判定用閾値を監視装置30に設定する(ステップS4)。監視員は、フレアガスの流量に応じた複数の閾値を設定してもよい。例えば、監視員は、フレアガスの流量が“X1”ml/secを上回ったら、“フレアガス流量がX1を超えました”とのアラームを発報し、“X2”ml/sec(X2>X1)を上回ったら、“フレアガス流量がX2を超えました”とのアラームを発報するように設定する。設定情報取得部32は、入力された閾値とアラームの内容を記憶部35に記録する。 Next, the monitor sets a threshold value for determining whether to issue an alarm in the monitoring device 30 (step S4). The monitor may set a plurality of threshold values depending on the flow rate of flare gas. For example, if the flow rate of flare gas exceeds "X1" ml/sec, the monitor will issue an alarm saying "Flare gas flow rate has exceeded If it exceeds X2, set it to issue an alarm saying "Flare gas flow rate has exceeded X2." The setting information acquisition unit 32 records the input threshold value and alarm content in the storage unit 35.

(フレアガス流量の推定処理)
次にフレアガス流量の推定処理について説明する。まず、1台のカメラ10Aが撮影したフレア映像だけを用いてフレアガス流量を推定する処理について説明する。
図12は、一実施形態におけるフレアガス流量の推定処理の一例を示す第1の図である。まず、映像取得部31がカメラ10Aによって撮影されたフレア映像を取得する(ステップS11)。映像取得部31は、フレア映像を映像解析部33へ出力する。映像解析部33は、フレア映像の各画素につき、以下の処理を行う。
まず、映像解析部33は、フレア映像のある画素のRGB輝度値を解析する(ステップS12)。次に映像解析部33は、解析したRGB輝度値を、Rの輝度値、Gの輝度値、Bの輝度値を座標軸に持つRGBの3次元空間にプロットする(ステップS13)。プロットされた点は、図6の点62に相当する。次に映像解析部33は、代表的なフレアのRGB輝度値および背景のRGB輝度値からの距離を計算する(ステップS14)。具体的には、映像解析部33は、代表的なフレアのRGB輝度値に対応する点(図6の点61)と、プロットした点(図6の点62)との距離を算出する。また、映像解析部33は、背景のRGB輝度値に対応する点(図6の点63)と、プロットした点(図6の点62)との距離を算出する。このとき、例えば、時間帯ごとにフレアの代表的なRGB輝度値および背景のRGB輝度値が設定されている場合、映像解析部33は、現在の時間帯に応じたフレアおよび背景のRGB輝度値の情報を記憶部35から読み出して3次元空間にプロットする。また、例えば、代表的なフレアのRGB輝度値が複数設定されている場合、それぞれのRGB輝度値に対応する点と、ステップS13にてプロットした点との距離を算出する。
(Flare gas flow rate estimation process)
Next, the flare gas flow rate estimation process will be explained. First, a process of estimating the flare gas flow rate using only the flare image captured by one camera 10A will be described.
FIG. 12 is a first diagram illustrating an example of a flare gas flow rate estimation process in one embodiment. First, the video acquisition unit 31 acquires a flare video captured by the camera 10A (step S11). The video acquisition unit 31 outputs the flare video to the video analysis unit 33. The video analysis unit 33 performs the following processing for each pixel of the flare video.
First, the video analysis unit 33 analyzes the RGB luminance values of a pixel in a flare video (step S12). Next, the video analysis unit 33 plots the analyzed RGB luminance values in an RGB three-dimensional space whose coordinate axes are the R luminance value, the G luminance value, and the B luminance value (step S13). The plotted point corresponds to point 62 in FIG. Next, the video analysis unit 33 calculates the distance from the typical flare RGB luminance value and the background RGB luminance value (step S14). Specifically, the video analysis unit 33 calculates the distance between the point corresponding to the RGB luminance value of a typical flare (point 61 in FIG. 6) and the plotted point (point 62 in FIG. 6). The video analysis unit 33 also calculates the distance between the point corresponding to the RGB luminance value of the background (point 63 in FIG. 6) and the plotted point (point 62 in FIG. 6). At this time, for example, if typical RGB brightness values of flare and background RGB brightness values are set for each time period, the video analysis unit 33 determines the RGB brightness values of flare and background according to the current time period. The information is read out from the storage unit 35 and plotted in a three-dimensional space. Further, for example, if a plurality of representative flare RGB brightness values are set, the distance between the point corresponding to each RGB brightness value and the point plotted in step S13 is calculated.

次に映像解析部33は、解析したRGB輝度値に対応する点が、フレアの代表的なRGB輝度値に対応する点に近いかどうかを判定する(ステップS15)。フレアの代表的なRGB輝度値に対応する点に近い場合(ステップS15;Yes)、映像解析部33は、今回解析した画素は、フレアが写った画素であると判定する(ステップS16)。背景のRGB輝度値に対応する点に近い場合(ステップS15;No)、映像解析部33は、今回解析した画素は、背景が写った画素であると判定する(ステップS17)。次に映像解析部33は、フレア映像の全画素について解析を行ったかどうかを判定し(ステップS18)、全画素についての解析が完了するまで、ステップS12からの処理を繰り返す。映像解析部33は、ステップS12~S18の処理を繰り返す中で、フレアと判定した画素と背景と判定した画素に異なる色を付したフレア画像(図7(a))を作成する。 Next, the video analysis unit 33 determines whether the point corresponding to the analyzed RGB brightness value is close to the point corresponding to the typical RGB brightness value of flare (step S15). If the point is close to the point corresponding to the typical RGB luminance value of flare (step S15; Yes), the video analysis unit 33 determines that the currently analyzed pixel is a pixel in which flare is captured (step S16). If the point is close to the point corresponding to the RGB luminance value of the background (step S15; No), the video analysis unit 33 determines that the currently analyzed pixel is a pixel in which the background is reflected (step S17). Next, the video analysis unit 33 determines whether all pixels of the flare video have been analyzed (step S18), and repeats the processing from step S12 until the analysis of all pixels is completed. While repeating the processing of steps S12 to S18, the video analysis unit 33 creates a flare image (FIG. 7(a)) in which pixels determined to be flare and pixels determined to be background are given different colors.

なお、ステップS12~ステップS18の処理をフレア映像に含まれる全画素について行うこととしたが、例えば、フレアスタックの設備が写っている箇所など、明らかにフレアが写らないエリアについては処理対象外としてもよい。あるいは、監視対象エリアを設定できるようにして、監視対象エリア内の画素に対してのみステップS12~ステップS18の処理を行うようにしてもよい。 It should be noted that the processes from step S12 to step S18 are performed on all pixels included in the flare image, but areas where flare is clearly not visible, such as areas where flare stack equipment is visible, are excluded from processing. Good too. Alternatively, a monitoring target area may be set, and the processes of steps S12 to S18 may be performed only on pixels within the monitoring target area.

全画素についてフレアか背景かを判定する処理が完了すると、次に映像解析部33は、フレアと判定された画素群の中に空洞が存在するかどうかを判定する(ステップS19)。映像解析部33は、フレア画像を垂直方向にスキャンしながら、スキャン中の部分画像について水平方向にスキャンしたときにフレアが写った画素群、背景が写った画素群、フレアが写った画素群の順で画素群が検出されると空洞が存在すると判定する。空洞が存在する場合(ステップS19;Yes)、図7を用いて説明した空洞補完処理を行う。具体的には、映像解析部33は、フレアの画素群に挟まれた非フレアの画像群にフレアであることを示す色を付してフレア画像を更新する。空洞が存在しない場合(ステップS19;No)、ステップS21の処理に進む。次に映像解析部33は、全部分画像について空洞の検出処理を行ったかどうかを判定し(ステップS21)、全部分画像について空洞の検出処理、補完処理が完了するまで、ステップS19からの処理を繰り返す。 When the process of determining whether all pixels are flare or background is completed, the video analysis unit 33 next determines whether a cavity exists in the group of pixels determined to be flare (step S19). While scanning the flare image in the vertical direction, the video analysis unit 33 analyzes the partial image being scanned in the horizontal direction, and determines the pixel group in which the flare appears, the pixel group in which the background appears, and the pixel group in which the flare appears. When pixel groups are detected in this order, it is determined that a cavity exists. If a cavity exists (step S19; Yes), the cavity complement process described using FIG. 7 is performed. Specifically, the video analysis unit 33 updates the flare image by adding a color indicating that it is a flare to a group of non-flare images sandwiched between a group of flare pixels. If a cavity does not exist (step S19; No), the process proceeds to step S21. Next, the video analysis unit 33 determines whether the cavity detection process has been performed for all partial images (step S21), and repeats the process from step S19 until the cavity detection process and complementation process are completed for all the partial images. repeat.

なお、フレアの補完処理は、フレア画像を水平方向にスキャンしながら、スキャン中の部分画像について垂直方向にスキャンしたときにフレアが写った画素群、背景が写った画素群、フレアが写った画素群の順で画素群が検出されると空洞が存在すると判定してもよい。 In addition, flare complementation processing is performed while scanning the flare image horizontally and scanning the partial image being scanned in the vertical direction. If pixel groups are detected in the order of groups, it may be determined that a cavity exists.

空洞の補完処理が完了すると、次に映像解析部33は、フレア画像に基づいて、フレアと判定された画素の全画素数を算出する(ステップS22)。フレアと判定された画素には、ステップS16でフレアと判定された画素の他、ステップS20で補完した画素も含まれる。映像解析部33は、算出した画素数をフレアガス流量推定部34に出力する。次にフレアガス流量推定部34は、映像解析部33から取得したフレアと判定された画素数と、図10に例示する検量線101とに基づいて、バーナー部51から放出されているフレアガスの流量を推定する。また、フレアガス流量推定部34は、フレアガス流量の推定値と、ステップS4で設定された閾値とを比較する。フレアガス流量の推定値が閾値を上回っている場合、フレアガス流量推定部34は、閾値に対応するアラームを出力するように出力部36へ指示する。出力部36は、フレアガス流量の推定値やアラームを出力する(ステップS23)。これにより、カメラ10Aが撮影したフレア映像に基づいて、バーナー部51から放出されるフレアガスの流量を推定することができる。 When the cavity complementation process is completed, the video analysis unit 33 then calculates the total number of pixels determined to be flare based on the flare image (step S22). The pixels determined to be flare include the pixels determined to be flare in step S16 as well as the pixels complemented in step S20. The video analysis section 33 outputs the calculated number of pixels to the flare gas flow rate estimation section 34. Next, the flare gas flow rate estimating unit 34 calculates the flow rate of the flare gas being emitted from the burner unit 51 based on the number of pixels determined to be flare obtained from the video analysis unit 33 and the calibration curve 101 illustrated in FIG. presume. Further, the flare gas flow rate estimation unit 34 compares the estimated value of the flare gas flow rate with the threshold value set in step S4. When the estimated value of the flare gas flow rate exceeds the threshold value, the flare gas flow rate estimation unit 34 instructs the output unit 36 to output an alarm corresponding to the threshold value. The output unit 36 outputs an estimated value of the flare gas flow rate and an alarm (step S23). Thereby, the flow rate of the flare gas released from the burner section 51 can be estimated based on the flare image taken by the camera 10A.

次に2台のカメラ10A,10Bが撮影した2つのフレア映像を用いてフレアガス流量を推定する処理について説明する。
図13は、一実施形態におけるフレアガス流量の推定処理の一例を示す第2の図である。ステップS11からステップS21までの処理については、図12で説明した処理と同様である。まず、映像取得部31がカメラ10A、10Bによって撮影されたフレア映像を取得する(ステップS11)。次に映像解析部33は、2つのフレア映像のそれぞれについて、ステップS12からステップS18の処理を行う。まず、映像解析部33は、画素ごとにRGB輝度値を解析し(ステップS12)、RGBの3次元空間にプロットする(ステップS13)。次に映像解析部33は、プロットとした点とフレアの代表的なRGB輝度値および背景のRGB輝度値までの距離を計算し(ステップS14)、今回解析している画素のRGB輝度値が代表的なフレアのRGB輝度値に近いかどうかを判定する(ステップS15)。代表的なフレアのRGB輝度値に近い場合(ステップS15;Yes)、映像解析部33は、今回解析した画素は、フレアが写った画素であると判定する(ステップS16)。背景のRGB輝度値に近い場合(ステップS15;No)、映像解析部33は、今回解析した画素は、背景が写った画素であると判定する(ステップS17)。
映像解析部33は、以上の処理をカメラ10A,10Bが撮影した2つのフレア映像に含まれる全画素について行い、それぞれのフレア画像を作成する。
Next, a process of estimating the flare gas flow rate using two flare images taken by the two cameras 10A and 10B will be described.
FIG. 13 is a second diagram illustrating an example of the flare gas flow rate estimation process in one embodiment. The processing from step S11 to step S21 is the same as the processing described in FIG. 12. First, the image acquisition unit 31 acquires flare images captured by the cameras 10A and 10B (step S11). Next, the video analysis unit 33 performs the processes from step S12 to step S18 for each of the two flare videos. First, the video analysis unit 33 analyzes RGB luminance values for each pixel (step S12), and plots them in an RGB three-dimensional space (step S13). Next, the video analysis unit 33 calculates the distance between the plotted point and the representative RGB luminance value of the flare and the RGB luminance value of the background (step S14), and the RGB luminance value of the pixel currently being analyzed is representative. It is determined whether the RGB luminance value is close to the typical flare RGB luminance value (step S15). If the RGB luminance value is close to the typical flare RGB luminance value (step S15; Yes), the video analysis unit 33 determines that the currently analyzed pixel is a pixel in which flare is captured (step S16). If the RGB luminance value is close to the background RGB luminance value (step S15; No), the video analysis unit 33 determines that the currently analyzed pixel is a pixel in which the background is reflected (step S17).
The video analysis unit 33 performs the above processing on all pixels included in the two flare videos taken by the cameras 10A and 10B, and creates respective flare images.

次に映像解析部33は、フレアと判定された画素群の間に空洞が存在するかどうかを判定し(ステップS19)、空洞があれば補完する処理を行う(ステップS20)。
映像解析部33は、以上の処理を2つのフレア画像のそれぞれに対して行い、空洞を補完する。ここで、カメラ10Aが撮影したフレア映像に基づく補完処理後のフレア画像をフレア画像a、カメラ10Bが撮影したフレア映像に基づく補完処理後のフレア画像をフレア画像bとする。
Next, the video analysis unit 33 determines whether a cavity exists between the pixel groups determined to be flare (step S19), and if there is a cavity, performs a process of interpolating the cavity (step S20).
The video analysis unit 33 performs the above processing on each of the two flare images to complement the cavities. Here, the flare image after the complementation process based on the flare image taken by the camera 10A is called a flare image a, and the flare image after the complementation process based on the flare image taken by the camera 10B is called a flare image b.

次に映像解析部33は、フレア画像aについて、フレアが写っている領域の水平方向の幅W1と垂直方向の高さH1を算出する(ステップS22A)。ここで、図7(b)を参照する。水平方向の幅W1は、フレアが写る領域のうち最も幅がある部分における水平方向の画素数である。垂直方向の高さH1は、フレアが写る領域のうち最も高さがある部分における垂直方向の画素数である。
また、映像解析部33は、フレア画像bについて、フレアが写っている領域の水平方向の幅W2と垂直方向の高さH2を算出する(ステップS22A)。幅W2、高さH2の算出方法は、W1、H1と同様である。
Next, the video analysis unit 33 calculates, for the flare image a, the horizontal width W1 and the vertical height H1 of the area in which the flare is captured (step S22A). Here, refer to FIG. 7(b). The horizontal width W1 is the number of pixels in the horizontal direction in the widest part of the flare area. The vertical height H1 is the number of pixels in the vertical direction in the highest part of the flare area.
Further, the video analysis unit 33 calculates the horizontal width W2 and the vertical height H2 of the area in which the flare is captured for the flare image b (step S22A). The method of calculating width W2 and height H2 is the same as W1 and H1.

次に映像解析部33は、フレアを内包する直方体の体積Vを算出する(ステップS22B)。具体的には、高さH1と高さH2のうち画素数が大きい方をMax(H1,H2)とすると、映像解析部33は、以下の式(1)により体積Vを算出する。
体積V = Max(H1,H2)×幅W1×幅W2 ・・・・(1)
体積Vは、フレアを内包する直方体に含まれる画素数を示し、本実施形態では、これをフレアの画素数の近似値として用いる。例えば、風の影響でカメラ10Aから撮影したフレア映像ではフレアが小さく(細く)映っていても、他の方向からカメラ10Bが撮影したフレア映像では、幅の広いフレアが映っているような場合、体積Vを算出することにより、実態に近いフレアの大きさに対応する画素数を算出することができる。
Next, the video analysis unit 33 calculates the volume V of the rectangular parallelepiped that includes the flare (step S22B). Specifically, when the height H1 and the height H2, whichever has the larger number of pixels, is Max(H1, H2), the video analysis unit 33 calculates the volume V using the following equation (1).
Volume V = Max (H1, H2) x Width W1 x Width W2 (1)
The volume V indicates the number of pixels included in the rectangular parallelepiped containing the flare, and in this embodiment, this is used as an approximate value of the number of pixels of the flare. For example, if the flare image taken from camera 10A appears small (thin) due to the influence of wind, but the flare image taken from another direction shows a wide flare. By calculating the volume V, it is possible to calculate the number of pixels corresponding to the size of the flare that is close to the actual size.

体積Vを算出すると、フレアガス流量推定部34は、体積V(画素数)と、検量線とに基づいて、バーナー部51から放出されているフレアガスの流量を推定する。なお、記憶部35には、体積Vとフレアガス流量の計測値との関係に基づいて作成された検量線が登録されている。
また、フレアガス流量推定部34は、フレアガス流量の推定値が閾値を上回っている場合、閾値に対応するアラームを出力するように出力部36へ指示する。出力部36は、フレアガス流量の推定値やアラームを出力する(ステップS23)。
After calculating the volume V, the flare gas flow rate estimating unit 34 estimates the flow rate of the flare gas being emitted from the burner unit 51 based on the volume V (number of pixels) and the calibration curve. Note that a calibration curve created based on the relationship between the volume V and the measured value of the flare gas flow rate is registered in the storage unit 35.
Further, when the estimated value of the flare gas flow rate exceeds the threshold value, the flare gas flow rate estimating unit 34 instructs the output unit 36 to output an alarm corresponding to the threshold value. The output unit 36 outputs an estimated value of the flare gas flow rate and an alarm (step S23).

本実施形態の監視システム1によれば、フレア映像を監視装置30に入力するだけで、バーナー部51から放出されるフレアガスの流量を推定することができる。また、複数の閾値を設定することで、フレアガス流量が閾値を超過した場合にリアルタイムにアラームを発報することができる。これにより、不確かな目視によるフレアの確認や、高価な流量計の導入を行うこと無く、フレアガスのロス量を把握することができる。また、図1に示すようにフレア映像を監視用モニター25に表示させて従来通りの監視を行いつつ、監視装置30が通知するフレアガス流量の推定結果や通報されたアラームを参照することができる。また、監視員は、余剰ガスの性質やフレアスタックの設置環境などに応じて、フレア監視エリア52、背景エリア53、閾値、フレアに対応する輝度値などを任意に設定することができるので、どのような設備にも適用することができる。 According to the monitoring system 1 of the present embodiment, the flow rate of flare gas released from the burner section 51 can be estimated simply by inputting flare images to the monitoring device 30. Moreover, by setting a plurality of threshold values, an alarm can be issued in real time when the flare gas flow rate exceeds the threshold value. This allows the amount of flare gas loss to be ascertained without the need for uncertain visual confirmation of flares or the introduction of expensive flow meters. Further, as shown in FIG. 1, while performing conventional monitoring by displaying a flare image on the monitoring monitor 25, it is possible to refer to the estimation result of the flare gas flow rate notified by the monitoring device 30 and the reported alarm. In addition, the observer can arbitrarily set the flare monitoring area 52, background area 53, threshold value, brightness value corresponding to flare, etc., depending on the nature of the surplus gas and the installation environment of the flare stack. It can also be applied to such equipment.

監視装置30における各処理の過程は、例えば監視装置30が有するCPU等がプログラムを実行することによって実現できる。監視装置30によって実行されるプログラムは、コンピュータが読み取り可能な記録媒体に記録され、この記録媒体に記録されたプログラムを読み出して実行することによって実現してもよい。なお、監視装置30は、OSや周辺機器等のハードウェアを含むものとする。また、コンピュータが読み取り可能な記録媒体は、例えば、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、監視装置30に内蔵されるハードディスク等の記憶装置である。また、コンピュータが読み取り可能な記録媒体には、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。 Each process in the monitoring device 30 can be realized by, for example, a CPU included in the monitoring device 30 executing a program. The program executed by the monitoring device 30 may be recorded on a computer-readable recording medium, and may be realized by reading and executing the program recorded on the recording medium. Note that the monitoring device 30 includes hardware such as an OS and peripheral devices. Further, the computer-readable recording medium is, for example, a portable medium such as a flexible disk, magneto-optical disk, ROM, or CD-ROM, or a storage device such as a hard disk built into the monitoring device 30. In addition, computer-readable recording media may dynamically retain programs for short periods of time, such as communication lines used to transmit programs over networks such as the Internet or communication lines such as telephone lines. It may also include a device that retains a program for a certain period of time, such as a volatile memory inside a computer system that is a server or client in that case. Further, the above-mentioned program may be one for realizing a part of the above-mentioned functions, or may be one that can realize the above-mentioned functions in combination with a program already recorded in the computer system.

その他、本発明の趣旨を逸脱しない範囲で、上記した実施の形態における構成要素を周知の構成要素に置き換えることは適宜可能である。また、この発明の技術範囲は上記の実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。
なお、RGB輝度値とは、RGB色空間における赤(R)、緑(G)、青(B)の輝度値(0~255)の組み合わせで表される値のことである、白黒輝度値とは、0(黒)~255(白)の256階調で表される値のことである。
In addition, it is possible to appropriately replace the components in the above-described embodiments with well-known components without departing from the spirit of the present invention. Further, the technical scope of the present invention is not limited to the above-described embodiments, and various changes can be made without departing from the spirit of the present invention.
Note that RGB luminance values are values expressed by a combination of red (R), green (G), and blue (B) luminance values (0 to 255) in the RGB color space, and black and white luminance values. is a value expressed in 256 gradations from 0 (black) to 255 (white).

1・・・監視システム
10A、10B・・・カメラ
15・・・映像取得装置
20・・・映像分配装置
25・・・監視用モニター
30・・・監視装置
31・・・映像取得部
32・・・設定情報取得部
33・・・映像解析部
34・・・フレアガス流量推定部
35・・・記憶部
36・・・出力部
50・・・フレア映像
52・・・フレア監視エリア
53・・・背景エリア
1... Surveillance system 10A, 10B... Camera 15... Video acquisition device 20... Video distribution device 25... Monitor for monitoring 30... Monitoring device 31... Video acquisition unit 32... -Setting information acquisition section 33...Video analysis section 34...Flare gas flow rate estimation section 35...Storage section 36...Output section 50...Flare video 52...Flare monitoring area 53...Background area

Claims (7)

フレアを撮影した映像を取得する映像取得部と、
フレアが写った所定のフレア画素の輝度値と、フレア以外が写った所定の背景画素の輝度値とに基づいて、前記映像に含まれる各画素を、前記フレア画素に近い第1画素と前記背景画素に近い第2画素の何れかに分類し、前記第1画素に分類された全画素数を算出する映像解析部と、
前記全画素数に基づいて、フレアガス配管を流れるガスであるフレアガスの流量を推定するフレアガス流量推定部と、
前記フレアガスの流量と所定の閾値とを比較して、前記フレアガスの流量が前記閾値を上回っていればアラームを発報する出力部と、
を備え
前記映像取得部は、異なる2方向から撮影された前記映像を取得し、
前記映像解析部は、取得された前記映像のうち、第一の方向から撮影された前記映像に基づいて、前記第1画素に分類された画素群の水平方向の画素数W1と垂直方向の画素数H1とを算出し、第二の方向から撮影された前記映像に基づいて、前記第1画素に分類された画素群の水平方向の画素数W2と垂直方向の画素数H2とを算出し、前記画素数H1と前記画素数H2のうち大きい画素数と、前記画素数W1と、前記画素数W2と、を乗じて体積Vを算出し、
前記フレアガス流量推定部は、前記体積Vを前記全画素数として、前記全画素数に基づいて前記フレアガスの流量を推定する、
監視装置。
an image acquisition unit that acquires an image of the flare;
Based on the luminance value of a predetermined flare pixel in which flare is captured and the luminance value of a predetermined background pixel in which non-flare is captured, each pixel included in the video is divided into a first pixel close to the flare pixel and the background. a video analysis unit that classifies the pixel as any second pixel close to the pixel and calculates the total number of pixels classified as the first pixel;
a flare gas flow rate estimation unit that estimates the flow rate of flare gas , which is gas flowing through the flare gas piping, based on the total number of pixels;
an output unit that compares the flow rate of the flare gas with a predetermined threshold value and issues an alarm if the flow rate of the flare gas exceeds the threshold value ;
Equipped with
The image acquisition unit acquires the images taken from two different directions,
The video analysis unit calculates the number W1 of pixels in the horizontal direction and the number W1 of pixels in the vertical direction of the pixel group classified as the first pixel based on the video shot from a first direction among the acquired video. A number H1 is calculated, and a number W2 of pixels in the horizontal direction and a number H2 of pixels in the vertical direction of the pixel group classified as the first pixel are calculated based on the image taken from the second direction, Calculating the volume V by multiplying the larger number of pixels of the number of pixels H1 and the number of pixels H2, the number of pixels W1, and the number of pixels W2,
The flare gas flow rate estimation unit estimates the flow rate of the flare gas based on the total number of pixels, with the volume V being the total number of pixels.
Monitoring equipment.
前記映像解析部は、前記映像に含まれる1つの画素を検出対象画素としたときに、前記検出対象画素のRGB輝度値を解析し、解析した前記RGB輝度値を、RGBそれぞれの輝度値を座標軸とする3次元空間にプロットした第1の座標情報と、前記フレア画素のRGB輝度値を前記3次元空間にプロットした第2の座標情報と、前記背景画素のRGB輝度値を前記3次元空間にプロットした第3の座標情報と、を用いて、前記第1の座標情報と前記第2の座標情報との距離を示す第1の距離と、前記第1の座標情報と前記第3の座標情報との距離を示す第2の距離と、を算出し、前記第1の距離と前記第2の距離に基づいて前記検出対象画素が、前記第1画素に分類されるか前記第2画素に分類されるかを判定する、
請求項1に記載の監視装置。
When one pixel included in the video is taken as a detection target pixel, the video analysis unit analyzes the RGB brightness values of the detection target pixel, and converts the analyzed RGB brightness values into coordinate axes of each RGB brightness value. first coordinate information plotted in a three-dimensional space, second coordinate information plotting an RGB luminance value of the flare pixel in the three-dimensional space, and RGB luminance value of the background pixel plotted in the three-dimensional space. a first distance indicating a distance between the first coordinate information and the second coordinate information using the plotted third coordinate information; and a first distance indicating the distance between the first coordinate information and the second coordinate information, and the first coordinate information and the third coordinate information. and a second distance indicating the distance between the pixel and the target pixel, and whether the detection target pixel is classified as the first pixel or the second pixel based on the first distance and the second distance. determine whether
The monitoring device according to claim 1.
前記映像解析部は、時間帯または天候に応じて、前記フレア画素のRGB輝度値および前記背景画素のRGB輝度値を設定する、
請求項2に記載の監視装置。
The video analysis unit sets an RGB brightness value of the flare pixel and an RGB brightness value of the background pixel according to the time of day or the weather.
The monitoring device according to claim 2.
前記映像解析部は、前記第2画素に分類された前記検出対象画素が、前記第1画素に分類された画素群に挟まれた位置に存在する場合、当該検出対象画素を、前記第1画素に分類する、
請求項2または請求項3に記載の監視装置。
When the detection target pixel classified as the second pixel exists in a position sandwiched between the pixel group classified as the first pixel, the video analysis unit converts the detection target pixel into the first pixel. classified into,
The monitoring device according to claim 2 or 3.
前記フレアガス流量推定部は、前記フレアガスの流量と前記全画素数との関係を定めた検量線に基づいて、前記フレアガスの流量を推定する、
請求項1から請求項4の何れか1項に記載の監視装置。
The flare gas flow rate estimation unit estimates the flare gas flow rate based on a calibration curve that defines a relationship between the flare gas flow rate and the total number of pixels.
A monitoring device according to any one of claims 1 to 4.
フレアスタックのフレア放出部周辺の映像を異なる方向から撮影する2つの撮像装置と、
前記映像を取得する請求項から請求項の何れか1項に記載の監視装置と、
を備える監視システム。
two imaging devices that take images of the area around the flare emission part of the flare stack from different directions;
The monitoring device according to any one of claims 1 to 5 , which acquires the video;
A monitoring system equipped with
フレアを撮影した映像を取得するステップと、
フレアが写った所定のフレア画素の輝度値と、フレア以外が写った所定の背景画素の輝度値とに基づいて、前記映像に含まれる各画素を、前記フレア画素に近い第1画素と前記背景画素に近い第2画素の何れかに分類し、前記第1画素に分類された全画素数を算出するステップと、
前記全画素数に基づいて、フレアガス配管を流れるガスであるフレアガスの流量を推定するステップと、
前記フレアガスの流量と所定の閾値とを比較して、前記フレアガスの流量が前記閾値を上回っていればアラームを発報するステップと、
を有し、
前記取得するステップでは、異なる2方向から撮影された前記映像を取得し、
前記算出するステップでは、取得された前記映像のうち、第一の方向から撮影された前記映像に基づいて、前記第1画素に分類された画素群の水平方向の画素数W1と垂直方向の画素数H1とを算出し、第二の方向から撮影された前記映像に基づいて、前記第1画素に分類された画素群の水平方向の画素数W2と垂直方向の画素数H2とを算出し、前記画素数H1と前記画素数H2のうち大きい画素数と、前記画素数W1と、前記画素数W2と、を乗じて体積Vを算出し、
前記推定するステップでは、前記体積Vを前記全画素数として、前記全画素数に基づいて前記フレアガスの流量を推定する、
監視方法。
a step of obtaining a video of the flare;
Based on the luminance value of a predetermined flare pixel in which flare is captured and the luminance value of a predetermined background pixel in which non-flare is captured, each pixel included in the video is divided into a first pixel close to the flare pixel and the background. a step of classifying the pixel into any second pixel close to the pixel and calculating the total number of pixels classified as the first pixel;
estimating the flow rate of flare gas, which is gas flowing through the flare gas piping , based on the total number of pixels;
Comparing the flow rate of the flare gas with a predetermined threshold value, and issuing an alarm if the flow rate of the flare gas exceeds the threshold value ;
has
In the acquiring step, acquiring the images taken from two different directions,
In the step of calculating, the number of pixels in the horizontal direction W1 and the number of pixels in the vertical direction of the pixel group classified as the first pixel are determined based on the image taken from the first direction among the acquired images. A number H1 is calculated, and a number W2 of pixels in the horizontal direction and a number H2 of pixels in the vertical direction of the pixel group classified as the first pixel are calculated based on the image taken from the second direction, Calculating the volume V by multiplying the larger number of pixels of the number of pixels H1 and the number of pixels H2, the number of pixels W1, and the number of pixels W2,
In the estimating step, the volume V is the total number of pixels, and the flow rate of the flare gas is estimated based on the total number of pixels.
Monitoring method.
JP2020040657A 2020-03-10 2020-03-10 Monitoring device, monitoring system and monitoring method Active JP7383531B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020040657A JP7383531B2 (en) 2020-03-10 2020-03-10 Monitoring device, monitoring system and monitoring method
JP2023187340A JP2024008990A (en) 2020-03-10 2023-11-01 Monitoring device, monitoring system, and monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020040657A JP7383531B2 (en) 2020-03-10 2020-03-10 Monitoring device, monitoring system and monitoring method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023187340A Division JP2024008990A (en) 2020-03-10 2023-11-01 Monitoring device, monitoring system, and monitoring method

Publications (2)

Publication Number Publication Date
JP2021145158A JP2021145158A (en) 2021-09-24
JP7383531B2 true JP7383531B2 (en) 2023-11-20

Family

ID=77767278

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020040657A Active JP7383531B2 (en) 2020-03-10 2020-03-10 Monitoring device, monitoring system and monitoring method
JP2023187340A Pending JP2024008990A (en) 2020-03-10 2023-11-01 Monitoring device, monitoring system, and monitoring method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023187340A Pending JP2024008990A (en) 2020-03-10 2023-11-01 Monitoring device, monitoring system, and monitoring method

Country Status (1)

Country Link
JP (2) JP7383531B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000268270A (en) 1999-03-19 2000-09-29 Sogo Keibi Hosho Co Ltd Method and device for detecting fire by image processing
US20080233523A1 (en) 2007-03-22 2008-09-25 Honeywell International Inc. Flare characterization and control system
US20090046172A1 (en) 2007-08-14 2009-02-19 Honeywell International Inc. Flare Monitoring
US20160282508A1 (en) 2015-03-27 2016-09-29 Omniearth, Inc. System and method for predicting well site production
JP2019175066A (en) 2018-03-28 2019-10-10 Jxtgエネルギー株式会社 Monitoring device, monitoring system and monitoring method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000268270A (en) 1999-03-19 2000-09-29 Sogo Keibi Hosho Co Ltd Method and device for detecting fire by image processing
US20080233523A1 (en) 2007-03-22 2008-09-25 Honeywell International Inc. Flare characterization and control system
US20090046172A1 (en) 2007-08-14 2009-02-19 Honeywell International Inc. Flare Monitoring
US20160282508A1 (en) 2015-03-27 2016-09-29 Omniearth, Inc. System and method for predicting well site production
JP2019175066A (en) 2018-03-28 2019-10-10 Jxtgエネルギー株式会社 Monitoring device, monitoring system and monitoring method

Also Published As

Publication number Publication date
JP2024008990A (en) 2024-01-19
JP2021145158A (en) 2021-09-24

Similar Documents

Publication Publication Date Title
JP4705090B2 (en) Smoke sensing device and method
EP2118862B1 (en) System and method for video detection of smoke and flame
US20190003919A1 (en) Image processing device for gas detection, image processing method for gas detection, image processing program for gas detection, computer-readable recording medium having image processing program for gas detection recorded thereon, and gas detection system
JP6966970B2 (en) Monitoring equipment, monitoring system and monitoring method
KR101503213B1 (en) Visual range measurement device and method using a geographical information and perspective of a visual image
KR101204259B1 (en) A method for detecting fire or smoke
KR100862409B1 (en) The fire detection method using video image
JP7289684B2 (en) DETECTION DEVICE, DETECTION SYSTEM AND DETECTION METHOD
CN109360370B (en) Robot-based smoke and fire detection method
KR101215666B1 (en) Method, system and computer program product for object color correction
CN104954627B (en) A kind of information processing method and electronic equipment
JP7383531B2 (en) Monitoring device, monitoring system and monitoring method
CN113408479A (en) Flame detection method and device, computer equipment and storage medium
KR20200085608A (en) Apparatus and method for indicating temperature based on augmented reality
KR101476764B1 (en) Flame dete ction method based on gray imaging signal of a cameras
JP7154537B2 (en) Image feature extraction method and image feature extraction device
KR20150055686A (en) Plume Opacity Measurement Method and Medium recorded Plume Opacity Measurement Program using Optical sensing
KR20070028812A (en) Method and apparatus for monitoring forest fire using images photographed by camera device
JP2022188921A (en) Monitoring device, monitoring system, and monitoring method
JP5309069B2 (en) Smoke detector
JP7294848B2 (en) Monitoring device, monitoring system and monitoring method
JP7257212B2 (en) Monitoring device, monitoring system and monitoring method
JP2021156824A (en) Dust measurement device and dust measurement method
CN105516716A (en) Site test method of video image quality of a closed-loop security and protection system
JP2021038871A (en) Method of observing combustion field, observation device, and observation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231108

R150 Certificate of patent or registration of utility model

Ref document number: 7383531

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150