JP7154537B2 - Image feature extraction method and image feature extraction device - Google Patents

Image feature extraction method and image feature extraction device Download PDF

Info

Publication number
JP7154537B2
JP7154537B2 JP2018168459A JP2018168459A JP7154537B2 JP 7154537 B2 JP7154537 B2 JP 7154537B2 JP 2018168459 A JP2018168459 A JP 2018168459A JP 2018168459 A JP2018168459 A JP 2018168459A JP 7154537 B2 JP7154537 B2 JP 7154537B2
Authority
JP
Japan
Prior art keywords
image
feature
target images
luminance
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018168459A
Other languages
Japanese (ja)
Other versions
JP2020042468A (en
Inventor
博和 野里
信治 岩下
英徳 坂無
正宏 村川
崇寛 松本
聡彦 嶺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Mitsubishi Heavy Industries Ltd
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd, National Institute of Advanced Industrial Science and Technology AIST filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2018168459A priority Critical patent/JP7154537B2/en
Publication of JP2020042468A publication Critical patent/JP2020042468A/en
Application granted granted Critical
Publication of JP7154537B2 publication Critical patent/JP7154537B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、燃焼空間などの流動場を撮像した画像から画像特徴を抽出する技術に関する。 The present disclosure relates to technology for extracting image features from an image of a flow field such as a combustion space.

例えば、コンベンショナルボイラを初めとした火力プラントの運転においては、運転員が炉内カメラや目視で観察した結果を元に炉内の燃焼状態を判断することがあるが、その判断基準が運転員によって異なる。このため、NOxや灰中未燃分が上昇した場合など燃焼状態が悪化した時には、熟練の指導員を現地に派遣して燃焼状態を診断する必要が生じる場合もあり、派遣費用や対応の遅れによる効率低下などが課題となる。また、燃焼状態は、例えば灰中未燃分、NOx濃度、CO濃度などの状態量から判断することが可能であるが、例えば灰中未燃分の値は、炉出口でサンプリングした灰を分析計で加熱し、その際の重量変化を測定する必要がある(JIS M 8815)など、測定結果が得られるまでに時間を要する。このため、状態量の計測結果に基づいて行った燃焼状態の判定結果をリアルタイムに運転制御に用いることは困難である。また、レーザCT計測を利用して得られる燃焼ガス温度・濃度の分布から燃焼状態を診断することも可能であるが、レーザ機器が高価であることがネックとなる。 For example, in the operation of a thermal power plant such as a conventional boiler, operators may judge the combustion state in the furnace based on the results of observation by the camera inside the furnace or by visual observation, but the judgment criteria are determined by the operator. different. For this reason, when the combustion condition deteriorates due to an increase in NOx or unburned ash, it may be necessary to dispatch a skilled instructor to the site to diagnose the combustion condition. Problems such as lower efficiency will arise. In addition, the combustion state can be determined from state quantities such as unburned content in ash, NOx concentration, and CO concentration. It takes time to obtain measurement results, such as the need to heat with a meter and measure the weight change at that time (JIS M 8815). For this reason, it is difficult to use the determination result of the combustion state based on the measurement result of the state quantity for the operation control in real time. It is also possible to diagnose the combustion state from the distribution of combustion gas temperature and concentration obtained by using laser CT measurement, but the drawback is that the laser equipment is expensive.

例えば、特許文献1には、灰中未燃分などの状態量の計測に時間が要するために生じる、燃焼状態の診断の時間遅れを低減することが可能な燃焼判定方法が開示されている。具体的には、燃焼室出口におけるO濃度、燃焼室炉内圧力、または燃焼室出口温度などを計測値する。また、燃焼状態を撮像したカラー画像を画像処理して赤成分、緑成分および青成分の3成分画像に分けて表色系の変換を行い、表色系変換後の画像から特徴パラメータ(画像特徴)を抽出する。そして、抽出された特徴パラメータおよびプロセス状態量をニューラルネットワークの入力として用いて求められる典型的な燃焼状態との適合度に基づいて、例えば燃焼悪化、燃焼適正、燃焼活発というような判定を行う。 For example, Patent Literature 1 discloses a combustion determination method capable of reducing the time delay in diagnosing the combustion state caused by the time it takes to measure state quantities such as unburned content in ash. Specifically, the O 2 concentration at the combustion chamber outlet, the pressure inside the combustion chamber, the temperature at the combustion chamber outlet, and the like are measured. In addition, a color image obtained by imaging the combustion state is image-processed, divided into three-component images of red, green, and blue components, and colorimetric system conversion is performed. ). Then, based on the degree of compatibility with typical combustion conditions obtained using the extracted characteristic parameters and process state quantities as inputs to the neural network, judgments such as deterioration of combustion, appropriate combustion, and active combustion are made.

その他、特許文献1とは異なる手法ではあるが、特許文献2~3には燃焼画像を用いた燃焼状態の検出方法が開示され、特許文献4にはモデルを用いたNOxや灰中未燃分の評価方法が開示されている。
また、特許文献5には、動画像の特徴量の抽出手法としては立体高次局所自己相関特徴法が開示されている。立体高次局所自己相関特徴とは、画像を時系列に並べたボクセルデータ(3次元データ)に対して、その中の各点において局所的な自己相関特徴を計算し、この局所特徴をボクセルデータ全体にわたって積分することにより得られる統計的特徴である(特許文献5参照)。
In addition, although it is a different method from Patent Document 1, Patent Documents 2 and 3 disclose a combustion state detection method using a combustion image, and Patent Document 4 uses a model for NOx and unburned content in ash. evaluation method is disclosed.
Further, Patent Document 5 discloses a three-dimensional high-order local autocorrelation feature method as a method for extracting a feature amount of a moving image. Stereoscopic high-order local autocorrelation features are obtained by calculating local autocorrelation features at each point in voxel data (three-dimensional data) in which images are arranged in time series, and converting these local features into voxel data. It is a statistical feature obtained by integrating over the whole (see Patent Document 5).

特開平8-49845号公報JP-A-8-49845 特開2013-210108号公報Japanese Unexamined Patent Application Publication No. 2013-210108 特開平4-315929号公報JP-A-4-315929 特開平4-214120号公報JP-A-4-214120 特許第4368767号公報Japanese Patent No. 4368767

燃料の燃焼時を撮像した画像(以下、燃焼画像)に対してどの部分からどのような特徴(画像特徴)を抽出するかを人が予め決める手法では、燃焼画像に表れている複雑な燃焼現象の特徴を全て記述することは困難であるなど、熟練者の暗黙知を形式化(明示化)することは困難である。この点、本発明者らは、燃焼画像に含まれる幾何学的な特徴を抽出し、抽出された特徴と燃焼状態との相関を機械学習により導出することで、これまで形式化できなかった熟練者の燃焼診断手法を再現することが可能と考えた。 A method in which a person predetermines what features (image features) are to be extracted from which part of an image of fuel combustion (hereinafter referred to as a combustion image). It is difficult to formalize (explicitly) an expert's tacit knowledge, for example, it is difficult to describe all the characteristics of In this regard, the present inventors extracted the geometric features contained in the combustion image, and derived the correlation between the extracted features and the combustion state by machine learning. We thought that it would be possible to reproduce the combustion diagnosis method of a person.

燃焼画像では、例えば相対的に暗く映っている領域(暗部領域)は燃焼状態の良くない部分に該当するので、火炎の未燃領域の挙動を判断するのに役立つ。このような知見の下、本発明者らは、燃焼画像において燃焼状態を特徴付ける領域(部分)を画像処理により際立たせれば(強調させれば)、画像処理後の燃焼画像から燃焼状態の特徴をより確度良く抽出できるようになるので、燃焼画像の特徴(燃焼画像に表れる燃焼状態のパターン)と燃焼状態との相関をより良く導出できるようになり、燃焼画像から燃焼状態をより精度良く評価することが可能であることを見出した。また、上述したような画像から特徴を抽出する前に特徴を際立たせる手法は、燃焼画像に限らず、流体が流れる流動場(流れ場)を撮影した画像に含まれる幾何学的な特徴と、その流動状態との相関を導出するような場合にも適用可能である。 In a combustion image, for example, a relatively dark area (dark area) corresponds to a portion in which the combustion state is not good, so it is useful for judging the behavior of the unburned area of the flame. Based on this knowledge, the inventors of the present invention found that if the area (portion) that characterizes the combustion state in the combustion image is highlighted (emphasized) by image processing, the characteristics of the combustion state can be identified from the combustion image after image processing. Since it will be possible to extract more accurately, it will be possible to better derive the correlation between the characteristics of the combustion image (the pattern of the combustion state that appears in the combustion image) and the combustion state, and to evaluate the combustion state more accurately from the combustion image. I found that it is possible. In addition, the method of highlighting features before extracting features from an image as described above is not limited to combustion images, and is based on geometric features included in images obtained by photographing flow fields in which fluid flows, It can also be applied to derive the correlation with the flow state.

上述の事情に鑑みて、本発明の少なくとも一実施形態は、画像に表れる幾何学的な特徴を確度良く抽出するための画像特徴抽出のための画像特徴抽出方法を提供することを目的とする。 In view of the above circumstances, it is an object of at least one embodiment of the present invention to provide an image feature extraction method for extracting geometric features appearing in an image with high accuracy.

(1)本発明の少なくとも一実施形態に係る画像特徴抽出方法は、
流動場を撮像することにより得られた処理対象となる複数の対象画像の各々毎に、前記対象画像が有する輝度分布に基づいて、前記輝度分布における輝度値の高低の差を増幅することによるコントラストの強調を通して、少なくとも1つの前処理後画像を得る前処理ステップと、
前記少なくとも1つの前処理後画像から、前記流動場の時間的・空間的な変化の画像特徴を数値化した少なくとも1つの特徴量を算出する特徴量算出ステップと、を備える。
(1) An image feature extraction method according to at least one embodiment of the present invention,
For each of a plurality of target images to be processed obtained by imaging a flow field, based on the brightness distribution of the target image, the contrast is obtained by amplifying the difference between the brightness values in the brightness distribution. a preprocessing step of obtaining at least one preprocessed image through enhancement of
a feature amount calculation step of calculating, from the at least one preprocessed image, at least one feature amount obtained by quantifying image features of temporal and spatial changes in the flow field.

上記(1)の構成によれば、複数の対象画像毎に、その輝度分布を構成する複数の輝度値間の高低の差を増幅することを通して前処理後画像を得ると共に、前処理後画像から特徴量を算出する。例えば、一般に、画像は複数の画素により構成されるが、対象画像を例えば画素毎などの複数の領域に区分けした際の各領域の輝度値の分布(輝度分布)に基づいて例えば閾値を設定し、設定した閾値に基づいてコントラストを強調した後に、特徴量を算出するなどする。このように、対象画像毎にコントラストの強調を行うことにより、対象画像に表れる流動場(流動状態)の特徴をより強調させる(際立たせる)ことができるので、前処理後画像から特徴量を算出することにより、流動状態の特徴をより確度良く抽出することができる。 According to the configuration (1) above, for each of a plurality of target images, a post-preprocessing image is obtained by amplifying a difference in height between a plurality of luminance values constituting the luminance distribution, and from the post-preprocessing image, Calculate the feature amount. For example, in general, an image is composed of a plurality of pixels, and a threshold is set based on the distribution of luminance values (luminance distribution) of each region when the target image is divided into a plurality of regions, for example, for each pixel. , and after emphasizing the contrast based on the set threshold value, the feature amount is calculated. In this way, by enhancing the contrast for each target image, the characteristics of the flow field (fluid state) appearing in the target image can be further emphasized (emphasized), so the feature amount is calculated from the preprocessed image. By doing so, the features of the flow state can be extracted with higher accuracy.

したがって、例えば流動場の一種である燃焼空間(燃焼状態)を撮像した画像(燃焼画像)の画像特徴に基づいて、燃焼状態に応じて変化する例えば灰中未燃分、NOx濃度、CO濃度などの状態量を推定する場合など、燃焼画像の画像特徴に基づいて燃焼状態を評価する場合に、前処理後画像から画像特徴を算出するようにすれば、燃焼画像と燃焼状態とのより適切な相関を得ることができ、状態量の推定精度の向上など、燃焼状態の評価精度を向上させることができる。 Therefore, for example, based on the image characteristics of an image (combustion image) obtained by imaging a combustion space (combustion state), which is a type of flow field, changes such as unburned content in ash, NOx concentration, CO concentration, etc. according to the combustion state When evaluating the combustion state based on the image features of the combustion image, such as when estimating the state quantity of the combustion image, if the image features are calculated from the preprocessed image, the combustion image and the combustion state can be more appropriately matched. A correlation can be obtained, and the evaluation accuracy of the combustion state can be improved, such as improving the accuracy of estimating the state quantity.

(2)幾つかの実施形態では、上記(1)の構成において、
前記対象画像は、前記流動場を撮像した画像である撮像画像の一部の領域を構成する画像である。
上記(2)の構成によれば、各対象画像は、撮像された画像(撮像画像)の一部の領域を構成(形成)する画像である。これによって、撮像した画像に流動状態と関係のない部分(流動状態の撮像を妨げる遮蔽物など)が含まれている場合に、その部分による前処理結果への影響の防止や、撮影した画像において流動状態がより顕著に表れる部分を対象画像とすることができ、コントラストの強調をより適切に行うことができる。
(2) In some embodiments, in the configuration of (1) above,
The target image is an image that constitutes a partial area of the captured image that is the captured image of the flow field.
According to the configuration (2) above, each target image is an image that configures (forms) a partial region of the captured image (captured image). As a result, if the captured image contains parts that are unrelated to the flow state (such as obstructions that interfere with imaging of the flow state), this prevents the influence of that part on the preprocessing results and prevents the captured image from A portion in which the fluid state appears more conspicuously can be set as the target image, and the contrast can be emphasized more appropriately.

(3)幾つかの実施形態では、上記(2)の構成において、
前記撮像画像の一部の領域は前記撮像画像の中心に位置する領域を含む。
上記(3)の構成によれば、各対象画像は、撮像された画像(撮像画像)の中心に位置する領域を含む部分領域の画像である。これによって、撮像画像において流動状態が適切に写る領域が対象画像に含まれるように、機械的に処理することができる。よって、このような対象画像に対してコントラストの強調を行うことにより、対象画像の画像特徴を適切に際立だせることができる。
(3) In some embodiments, in the configuration of (2) above,
The partial area of the captured image includes an area positioned at the center of the captured image.
According to the above configuration (3), each target image is an image of a partial area including an area positioned at the center of the captured image (captured image). As a result, it is possible to perform mechanical processing so that the target image includes an area in which the fluid state is appropriately captured in the captured image. Therefore, by performing contrast enhancement on such a target image, the image features of the target image can be appropriately emphasized.

(4)幾つかの実施形態では、上記(1)~(3)の構成において、
前記輝度分布は、グレースケールの前記対象画像の前記輝度値の分布である。
上記(4)の構成によれば、グレースケール(白黒)の対象画像を対象に前処理を行う。一般に、カラー画像の場合には輝度のデータはRGBの3種類の各々について存在するが、撮像画像がカラー画像の場合にはグレースケール化される。対象画像がグレースケールであることにより輝度情報を1種類にするなど、画素毎の輝度情報の数を少なくすることができ、対象画像に対する前処理を容易化することができる。
(4) In some embodiments, in the configurations of (1) to (3) above,
The luminance distribution is a distribution of the luminance values of the target image in grayscale.
According to the configuration (4) above, preprocessing is performed on a grayscale (black and white) target image. Generally, in the case of a color image, brightness data exists for each of the three types of RGB, but when the captured image is a color image, it is grayscaled. Since the target image is grayscale, it is possible to reduce the number of brightness information for each pixel, such as using only one type of brightness information, thereby facilitating preprocessing of the target image.

(5)幾つかの実施形態では、上記(1)~(4)の構成において、
前記前処理ステップは、
前記複数の対象画像の各々の前記輝度分布に基づいて、前記複数の対象画像の各々に応じた前記輝度値の閾値を設定する閾値設定ステップと、
前記複数の対象画像の各々毎に、前記複数の対象画像の各々に応じた前記輝度値の閾値を用いて、前記コントラストの強調を実行するコントラスト強調ステップと、を有する。
上記(5)の構成によれば、対象画像毎に、その輝度分布に基づいて輝度値の閾値を設定すると共に、この閾値を用いてコントラストの強調を行う。これによって、対象画像における暗部領域をより際立たせることができ、前処理後画像において、画像処理前の対象画像で示される流動状態の特徴をより強調させることができる。
(5) In some embodiments, in the configurations of (1) to (4) above,
The pretreatment step includes
a threshold setting step of setting a threshold of the luminance value corresponding to each of the plurality of target images based on the luminance distribution of each of the plurality of target images;
and a contrast enhancement step of executing the contrast enhancement using the brightness value threshold corresponding to each of the plurality of target images for each of the plurality of target images.
According to the above configuration (5), the threshold value of the brightness value is set for each target image based on the brightness distribution thereof, and contrast enhancement is performed using this threshold value. As a result, the dark region in the target image can be made more conspicuous, and the feature of the fluid state shown in the target image before image processing can be emphasized in the post-preprocessing image.

(6)幾つかの実施形態では、上記(5)の構成において、
前記コントラスト強調ステップは、
前記複数の対象画像の各々毎に、前記輝度分布を構成する複数の輝度値のうちの前記閾値よりも小さい値を有する輝度値を、前記閾値よりも小さい所定値に変更する。
上記(6)の構成によれば、各対象画像を構成する例えば画素毎など各領域の輝度値のうち、対象画像に応じて設定した閾値より小さい値を有する輝度値を最小値(例えば0)などの所定値に変更する。これによって、対象画像における暗部領域を最大限に強調させる(際立たせる)ことができる。
(6) In some embodiments, in the configuration of (5) above,
The contrast enhancement step includes:
For each of the plurality of target images, a luminance value having a value smaller than the threshold among the plurality of luminance values forming the luminance distribution is changed to a predetermined value smaller than the threshold.
According to the above configuration (6), among the luminance values of each region such as each pixel constituting each target image, the luminance value having a value smaller than a threshold value set according to the target image is set to the minimum value (for example, 0). to a predetermined value such as As a result, the dark region in the target image can be maximally emphasized (emphasized).

(7)幾つかの実施形態では、上記(6)の構成において、
前記前処理ステップは、
前記コントラスト強調ステップの後に、前記コントラストの強調が実行された2つの前記対象画像の差分画像を生成する差分画像生成ステップを、さらに有し、
前記差分画像生成ステップで生成される前記差分画像を前記前処理後画像として得る。
上記(7)の構成によれば、差分画像を前処理後画像とすることにより、差分画像から画像特徴を算出することができる。
(7) In some embodiments, in the configuration of (6) above,
The pretreatment step includes
further comprising, after the contrast enhancement step, a differential image generating step of generating a differential image of the two target images on which the contrast enhancement has been performed;
The differential image generated in the differential image generating step is obtained as the preprocessed image.
With configuration (7) above, by using the preprocessed image as the difference image, the image feature can be calculated from the difference image.

(8)幾つかの実施形態では、上記(1)~(7)の構成において、
前記特徴量算出ステップは、
立体高次局所自己相関特徴法による処理を行うことによって、前記少なくとも1つの前処理後画像から前記少なくとも1つの特徴量を算出する。
上記(8)の構成によれば、立体高次局所自己相関特徴法により、少なくとも1つの前処理後画像から、複数の対象画像に表れる流動状態の特徴量を適切に算出することができる。
(8) In some embodiments, in the configurations of (1) to (7) above,
The feature amount calculation step includes:
The at least one feature amount is calculated from the at least one preprocessed image by performing processing using a stereoscopic high-order local autocorrelation feature method.
With configuration (8) above, it is possible to appropriately calculate the feature amount of the flow state appearing in a plurality of target images from at least one preprocessed image by the three-dimensional high-order local autocorrelation feature method.

(9)幾つかの実施形態では、上記(1)~(8)の構成において、
前記特徴量算出ステップは複数の前記特徴量を算出するようになっており、
前記特徴量算出ステップにより得られる前記複数の特徴量の中から前記少なくとも1つの特徴量を選択する特徴量選択ステップを、さらに備える。
上記(9)の構成によれば、例えば立体高次局所自己相関特徴法などの複数の対象画像から複数の特徴量が得られる手法により複数の特徴量を算出した場合、例えば算出した複数の特徴量のうちの一部など、特に流動状態の変化が反映される所望の1以上の特徴量などを所定の基準に基づくなどして選択する。これによって、複数の対象画像に表れる流動状態の特徴が的確に反映されているような特徴量などを抽出することができる。
(9) In some embodiments, in the configurations of (1) to (8) above,
The feature amount calculating step is adapted to calculate a plurality of the feature amounts,
The method further includes a feature amount selection step of selecting the at least one feature amount from among the plurality of feature amounts obtained by the feature amount calculation step.
According to the above configuration (9), for example, when a plurality of feature amounts are calculated by a method such as a three-dimensional high-order local autocorrelation feature method that obtains a plurality of feature amounts from a plurality of target images, the calculated plurality of features, for example, One or more desired feature values reflecting changes in the flow state, such as a portion of the quantity, are selected based on a predetermined criterion. As a result, it is possible to extract a feature quantity or the like that accurately reflects the features of the flow state appearing in the plurality of target images.

(10)幾つかの実施形態では、上記(1)~(9)の構成において、
互いに異なる前記対象画像を含む、前記複数の対象画像の複数のセットを準備し、前記複数のセットに対して、それぞれ、前記前処理ステップおよび前記特徴量算出ステップを行うことによって得られる前記画像特徴毎の前記特徴量の集合に対して、前記集合毎に平均化処理を実行する平均化処理ステップを、さらに備える。
上記(10)の構成によれば、時間をずらして得られる画像特徴毎の特徴量の集合に対して、集合毎に平均化処理を実行する。特徴量Fの変化が激しい場合にはノイズとなりやすく、平均化処理を行うことにより、ノイズを抑え、画像特徴毎に特徴Fの値の変化を適切に得ることができる。
(10) In some embodiments, in the configurations of (1) to (9) above,
The image features obtained by preparing a plurality of sets of the plurality of target images including the target images different from each other, and performing the preprocessing step and the feature amount calculation step on each of the plurality of sets. It further comprises an averaging processing step of performing an averaging process on each set of the feature amounts for each set.
According to the above configuration (10), the averaging process is performed for each set of feature amounts for each image feature obtained by shifting the time. If the feature amount F changes sharply, it tends to become noise. By performing the averaging process, the noise can be suppressed and the change in the value of the feature F can be appropriately obtained for each image feature.

(11)幾つかの実施形態では、上記(10)の構成において、
前記平均化処理は、前記集合毎の移動平均を算出する処理、または前記集合毎の区間平均を算出する処理である。
上記(11)の構成によれば、平均化処理として移動平均または区間平均を行うことにより、画像特徴毎に、特徴量の値の変化を適切に得ることができる。
(11) In some embodiments, in the configuration of (10) above,
The averaging process is a process of calculating a moving average for each set or a process of calculating an interval average for each set.
With configuration (11) above, by performing a moving average or an interval average as the averaging process, it is possible to appropriately obtain changes in the value of the feature amount for each image feature.

(12)幾つかの実施形態では、上記(10)~(11)の構成において、
前記特徴量は、前記複数の対象画像で示される流動状態の状態量の推定に用いるためのものであり、
前記平均化処理された複数の前記特徴量の中から前記状態量の推定に対する寄与度が高い特徴量を選択する平均化特徴量選択ステップを、さらに備える。
上記(12)の構成によれば、例えば主成分分析などにより、状態量の推定への寄与度(状態量の計測値への寄与度)が高い1以上の特徴量を選択する。例えば、このようにして得られた1以上の特徴量と、その特徴量の抽出元の複数の対象画像に表れる流動状態の状態量(測定値など)との関係を学習すれば、複数の対象画像に表れる流動状態の状態量との関連が特に深い画像特徴と状態量Sとの関係が得られる。よって、その関係に基づいて所望の対象画像における状態量を、選択された画像特徴から確度良く推定することが可能となる。
(12) In some embodiments, in the configurations of (10) to (11) above,
The feature quantity is for use in estimating the state quantity of the flow state indicated by the plurality of target images,
The method further comprises an averaged feature amount selection step of selecting a feature amount having a high degree of contribution to the estimation of the state amount from among the plurality of averaged feature amounts.
According to the configuration (12) above, one or more feature quantities having a high degree of contribution to the estimation of the state quantity (the degree of contribution to the measured value of the state quantity) are selected by, for example, principal component analysis. For example, by learning the relationship between one or more feature values obtained in this way and the state quantities (measured values, etc.) of the flow state appearing in a plurality of target images from which the feature values are extracted, a plurality of target A relationship between the image feature and the state quantity S, which is particularly closely related to the state quantity of the fluid state appearing in the image, can be obtained. Therefore, based on the relationship, it is possible to accurately estimate the state quantity in the desired target image from the selected image feature.

(13)幾つかの実施形態では、上記(1)~(12)の構成において、
前記複数の対象画像は、焼却炉の炉内の同一の範囲を燃料の燃焼時に時間をずらして撮像した撮像画像の少なくとも一部を構成する。
上記(13)の構成によれば、複数の対象画像に表れる燃焼状態の特徴を抽出することができる。
(13) In some embodiments, in the configurations of (1) to (12) above,
The plurality of target images constitute at least part of captured images obtained by capturing the same range in the incinerator at different times during fuel combustion.
With configuration (13) above, it is possible to extract the characteristics of the combustion state appearing in a plurality of target images.

(14)本発明の少なくとも一実施形態に係る画像特徴抽出装置は、
画像特徴抽出のための画像特徴抽出装置であって、
流動場を撮像することにより得られた処理対象となる複数の対象画像の各々毎に、前記対象画像が有する輝度分布に基づいて、前記輝度分布における輝度値の高低の差を増幅することによるコントラストの強調を通して、少なくとも1つの前処理後画像を得る前処理部と、
前記少なくとも1つの前処理後画像から、前記流動場の時間的・空間的な変化の画像特徴を数値化した少なくとも1つの特徴量を算出する特徴量算出部と、を備える。
(14) An image feature extraction device according to at least one embodiment of the present invention,
An image feature extraction device for image feature extraction,
For each of a plurality of target images to be processed obtained by imaging a flow field, based on the brightness distribution of the target image, the contrast is obtained by amplifying the difference between the brightness values in the brightness distribution. a preprocessing unit that obtains at least one preprocessed image through enhancement of
a feature amount calculation unit that calculates at least one feature amount obtained by quantifying image features of temporal and spatial changes in the flow field from the at least one preprocessed image.

上記(14)の構成によれば、上記(1)と同様の効果を奏する。 According to the configuration of (14) above, the same effect as that of (1) above is achieved.

本発明の少なくとも一実施形態によれば、画像に表れる幾何学的な特徴を確度良く抽出するための画像特徴抽出のための画像特徴抽出方法が提供される。 According to at least one embodiment of the present invention, there is provided an image feature extraction method for extracting geometric features appearing in an image with high accuracy.

本発明の一実施形態に係る画像特徴抽出方法を示す図である。FIG. 2 illustrates an image feature extraction method according to an embodiment of the present invention; 本発明の一実施形態に係る画像特徴抽出方法を示す図であり、特徴量選択ステップを備える。1 is a diagram showing an image feature extraction method according to an embodiment of the present invention, comprising a feature amount selection step; FIG. 本発明の一実施形態に係る画像特徴抽出方法を示す図であり、解析ステップ(S4)を備える。Fig. 3 shows an image feature extraction method according to an embodiment of the present invention, comprising an analysis step (S4); 本発明の一実施形態に係る撮像画像と前処理後画像およびこれらの輝度分布の遷移を示す図であり、(a)が撮像画像、(b)が前処理後画像である。It is a figure which shows the captured image, the post-preprocessing image, and the transition of luminance distribution of these, (a) is a captured image, (b) is a post-preprocessing image which concerns on one Embodiment of this invention. 本発明の一実施形態に係る状態量推定方法を示す図である。It is a figure which shows the state quantity estimation method which concerns on one Embodiment of this invention. 本発明の一実施形態に係る状態量推定装置の機能を示すブロック図である。It is a block diagram which shows the function of the state quantity estimation apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像特徴抽出装置が設置された燃焼炉の構成を概略的に示す図である。1 is a diagram schematically showing the configuration of a combustion furnace in which an image feature extraction device according to one embodiment of the present invention is installed; FIG. 本発明の一実施形態に係る画像特徴抽出装置の機能を示すブロック図であり、図2に対応する処理を実行する。3 is a block diagram showing functions of an image feature extraction device according to an embodiment of the present invention, which executes processing corresponding to FIG. 2. FIG. 本発明の一実施形態に係る画像特徴抽出装置の機能を示すブロック図であり、図3に対応する処理を実行する。4 is a block diagram showing functions of an image feature extraction device according to an embodiment of the present invention, which executes processing corresponding to FIG. 3. FIG.

以下、添付図面を参照して本発明の幾つかの実施形態について説明する。ただし、実施形態として記載されている又は図面に示されている構成部品の寸法、材質、形状、その相対的配置等は、本発明の範囲をこれに限定する趣旨ではなく、単なる説明例にすぎない。
例えば、「ある方向に」、「ある方向に沿って」、「平行」、「直交」、「中心」、「同心」或いは「同軸」等の相対的或いは絶対的な配置を表す表現は、厳密にそのような配置を表すのみならず、公差、若しくは、同じ機能が得られる程度の角度や距離をもって相対的に変位している状態も表すものとする。
例えば、「同一」、「等しい」及び「均質」等の物事が等しい状態であることを表す表現は、厳密に等しい状態を表すのみならず、公差、若しくは、同じ機能が得られる程度の差が存在している状態も表すものとする。
例えば、四角形状や円筒形状等の形状を表す表現は、幾何学的に厳密な意味での四角形状や円筒形状等の形状を表すのみならず、同じ効果が得られる範囲で、凹凸部や面取り部等を含む形状も表すものとする。
一方、一の構成要素を「備える」、「具える」、「具備する」、「含む」、又は、「有する」という表現は、他の構成要素の存在を除外する排他的な表現ではない。
Several embodiments of the present invention will now be described with reference to the accompanying drawings. However, the dimensions, materials, shapes, relative arrangements, etc. of the components described as embodiments or shown in the drawings are not intended to limit the scope of the present invention, and are merely illustrative examples. do not have.
For example, expressions denoting relative or absolute arrangements such as "in a direction", "along a direction", "parallel", "perpendicular", "center", "concentric" or "coaxial" are strictly not only represents such an arrangement, but also represents a state of relative displacement with a tolerance or an angle or distance to the extent that the same function can be obtained.
For example, expressions such as "identical", "equal", and "homogeneous", which express that things are in the same state, not only express the state of being strictly equal, but also have tolerances or differences to the extent that the same function can be obtained. It shall also represent the existing state.
For example, expressions that express shapes such as squares and cylinders do not only represent shapes such as squares and cylinders in a geometrically strict sense, but also include irregularities and chamfers to the extent that the same effect can be obtained. The shape including the part etc. shall also be represented.
On the other hand, the expressions "comprising", "comprising", "having", "including", or "having" one component are not exclusive expressions excluding the presence of other components.

図1は、本発明の一実施形態に係る画像特徴抽出方法を示す図である。図2は、本発明の一実施形態に係る画像特徴抽出方法を示す図であり、特徴量選択ステップを備える。図3は、本発明の一実施形態に係る画像特徴抽出方法を示す図であり、解析ステップ(S4)を備える。また、図4は、本発明の一実施形態に係る撮像画像Paと前処理後画像Gおよびこれらの輝度分布の遷移を示す図であり、(a)が撮像画像Pa、(b)が前処理後画像Gである。 FIG. 1 is a diagram showing an image feature extraction method according to one embodiment of the present invention. FIG. 2 is a diagram showing an image feature extraction method according to an embodiment of the present invention, comprising a feature amount selection step. FIG. 3 is a diagram showing an image feature extraction method according to an embodiment of the present invention, comprising an analysis step (S4). 4A and 4B are diagrams showing the captured image Pa, the preprocessed image G, and the transition of the luminance distribution of these according to one embodiment of the present invention, where (a) is the captured image Pa and (b) is the preprocessed This is the back image G.

画像特徴抽出方法は、流体が流れる場所である流動場(流れ場)を撮像することにより得られる画像の特徴(以下、画像特徴)を抽出するための方法である。具体的には、流動場は、燃料を燃焼させるごみ焼却炉(後述する図7参照)やボイラ、ガス火炉などの燃焼炉の炉内にある燃焼室(燃焼空間8)や、エンジン(例えばディーゼルエンジン)やガスタービン燃焼器などの燃焼器が備える燃焼室である。これらに共通した課題として、燃焼室における燃焼状態の変化による火炎の挙動の違いは微小であるため識別が困難、火炎の様相から燃焼状態の良否を判断するのには知識と経験が必要などの課題が挙げられる。また、燃焼器の燃焼空間8は燃焼炉の燃焼空間8と比べてクリーンなので、燃焼炉に特有の課題としては、煤や粉塵などで火炎の撮影が困難であることが挙げられる。その他、流動場は、例えばエンジンに設置される過給機内など、空気が流れる場所などであっても良い。 The image feature extraction method is a method for extracting features of an image (hereinafter referred to as image features) obtained by imaging a flow field (flow field) where fluid flows. Specifically, the flow field includes a combustion chamber (combustion space 8) in a combustion furnace such as a garbage incinerator (see FIG. 7 described later), a boiler, and a gas furnace that burns fuel, and an engine (for example, diesel engine) or gas turbine combustor. Common problems with these are that the difference in flame behavior due to changes in the combustion state in the combustion chamber is minute, making it difficult to identify, and knowledge and experience are required to judge the quality of the combustion state from the appearance of the flame. There are issues. In addition, since the combustion space 8 of the combustor is cleaner than the combustion space 8 of the combustion furnace, it is difficult to photograph the flame due to soot and dust as a problem specific to the combustion furnace. Alternatively, the flow field may be a place where air flows, such as inside a supercharger installed in an engine.

また、画像特徴は、流動場を撮像した画像(以下、適宜、撮像画像Pa)に表れる流体の流動状態の特徴である。撮像画像Paは、カラー画像または白黒画像のいずれであっても良いし、静止画像あるいは動画像を構成するフレーム(画像)であっても良い。例えば、上記の画像が、焼却炉の炉内(燃焼空間8)を燃料の燃焼時に撮像した画像(燃焼画像)である場合には、画像特徴は、画像に表れる(示される)燃焼状態の特徴などに対応する。 Further, the image feature is the feature of the flow state of the fluid appearing in an image obtained by capturing the flow field (hereinafter, appropriately, captured image Pa). The captured image Pa may be either a color image or a monochrome image, and may be a frame (image) forming a still image or a moving image. For example, if the above image is an image (combustion image) captured inside the incinerator (combustion space 8) during combustion of fuel, the image feature is the feature of the combustion state appearing (shown) in the image. etc.

そして、図1~図3に示すように、画像特徴抽出方法は、前処理ステップ(S2)と、特徴量算出ステップ(S3)と、を備える。
以下、本発明の画像特徴抽出方法について、上記の画像が燃焼画像である場合を例に説明する。
Then, as shown in FIGS. 1 to 3, the image feature extraction method includes a preprocessing step (S2) and a feature amount calculation step (S3).
The image feature extraction method of the present invention will be described below by taking as an example a case where the above image is a combustion image.

前処理ステップ(S2)は、燃焼空間8などの流動場を撮像することにより得られた処理対象となる複数(少なくとも2つ)の画像(以下、対象画像P)の各々毎に、対象画像Pが有する輝度分布Hに基づいて、この輝度分布Hにおける輝度値の高低の差を増幅することによるコントラストの強調(明暗の差の強調)を通して、少なくとも1つの強調後の画像(以下、前処理後画像G)を得るステップである。つまり、前処理ステップ(S2)では、複数の画像の各々に表れている複雑な燃焼現象の特徴を際立たせる(強調させる)ための画像処理を実行する。 In the preprocessing step (S2), a target image P based on the luminance distribution H of the luminance distribution H, at least one post-enhancement image (hereinafter referred to as post-preprocessing Obtaining image G). That is, in the preprocessing step (S2), image processing is performed to highlight (emphasize) the features of the complicated combustion phenomenon appearing in each of the plurality of images.

詳述すると、複数の対象画像Pは、焼却炉の炉内の同一の範囲を燃料の燃焼時に時間をずらして撮像した画像となる。また、一般に、画像は、複数の画素(ピクセル)が格子状に配列されて構成される。そして、詳細は後述するが、幾つかの実施形態では、図1~図3に示すように、前処理ステップ(S2)では、複数の対象画像Pの各々毎に、対象画像Pを複数の領域(以下、単位領域R)に区分し、各対象画像Pについて、対象画像Pを構成する複数の単位領域Rの各々の輝度値の輝度分布Hを算出しても良い。この輝度分布Hは、輝度値とその度数との関係を示すヒストグラムであっても良い。その後、この輝度分布Hに基づいて対象画像P毎に閾値Lを設定(決定)し、設定した閾値Lに基づいて各対象画像Pのコントラストの強調を行っても良い。他の幾つかの実施形態では、コントラストの強調は、各単位領域Rの輝度値をn倍にするなど、他の周知の方法によるものであっても良い。 More specifically, the plurality of target images P are images of the same range in the incinerator taken at different times during fuel combustion. In general, an image is configured by arranging a plurality of picture elements (pixels) in a grid pattern. Although details will be described later, in some embodiments, as shown in FIG. 1 to FIG. (hereinafter referred to as unit regions R), and for each target image P, a luminance distribution H of luminance values of each of a plurality of unit regions R forming the target image P may be calculated. This luminance distribution H may be a histogram showing the relationship between luminance values and their frequencies. Thereafter, a threshold value L may be set (determined) for each target image P based on this luminance distribution H, and the contrast of each target image P may be enhanced based on the set threshold value L. FIG. In some other embodiments, contrast enhancement may be by other well-known methods, such as multiplying the luminance value of each unit area R by n times.

上記の単位領域Rは、例えば、画像を構成(形成)する最小単位である1つの画素で構成しても良いし、複数の画素で構成しても良い。各単位領域Rを複数の画素で構成する場合には、複数の単位領域Rの各々に含まれる画素の数は、同じであっても良いし、少なくとも1つの単位領域Rにおいてその他の単位領域Rと異なっていても良い。また、この場合の単位領域Rの輝度値は、同一の単位領域Rに属する複数の画素の輝度値の平均値など、複数の輝度値を統計的に処理することによって得られる統計値であっても良いし、任意に選択した1つの輝度値であっても良い。 The unit region R may be composed of, for example, one pixel, which is the minimum unit that constitutes (forms) an image, or may be composed of a plurality of pixels. When each unit region R is composed of a plurality of pixels, the number of pixels included in each of the plurality of unit regions R may be the same, or at least one unit region R may include the other unit regions R may be different from Further, the luminance value of the unit region R in this case is a statistical value obtained by statistically processing a plurality of luminance values, such as an average value of luminance values of a plurality of pixels belonging to the same unit region R. , or an arbitrarily selected luminance value.

そして、この前処理ステップ(S2)による対象画像P毎のコントラストの強調により、図4に示すように、対象画像P(図4(a))における相対的に暗い部分(以下、暗部領域Rl)は、前処理後画像G(図4(b))において相対的な暗さが増し、対象画像Pにおける相対的に明るい部分(以下、高輝度領域Rh)は、前処理後画像Gにおいて相対的な明るさが増す。このため、推定モデルM(後述)を用いるなどして、複数の対象画像Pに表れる燃焼状態の特徴(画像特徴)の特徴量Fから、例えば灰中未燃分、NOx濃度、CO濃度などの状態量Sを推定する場合に、その特徴量Fの抽出が、対象画像Pから行うよりも、前処理後画像Gから行った方がより確度良く行うことが可能となる。 Then, by enhancing the contrast of each target image P in this preprocessing step (S2), as shown in FIG. , the relative darkness increases in the post-preprocessing image G (FIG. 4(b)), and the relatively bright portions (hereinafter referred to as high-brightness regions Rh) in the target image P are relatively dark in the post-preprocessing image G. brightness increases. For this reason, by using an estimation model M (described later), for example, unburned content in ash, NOx concentration, CO concentration, etc., from the feature amount F of the combustion state feature (image feature) appearing in the plurality of target images P When estimating the state quantity S, it is possible to extract the feature quantity F from the preprocessed image G with higher accuracy than from the target image P.

特徴量算出ステップ(S3)は、上記の前処理ステップ(S2)を行うことにより得られる少なくとも1つの前処理後画像Gから、流動場の時間的・空間的な変化の画像特徴を数値化した少なくとも1つの特徴量Fを算出するステップである。画像特徴は、複数の対象画像Pから得られる燃焼状態(流動状態)の時間変化を輝度情報に基づいて捉える(定量化)ことが可能な指標である。また、特徴量Fは、画像特徴を数値化したものである。輝度情報は火炎そのものを検出することなく対象画像Pから得られる情報であり、例えば炉内の上部に撮像装置6を設置(後述する図7参照)する場合など、火炎が排ガスEで撮像されないような場合であっても特徴量Fを得ることができる。よって、炉内を撮像するための撮像装置6(炉内カメラ)の設置を容易化することも可能となる。 In the feature amount calculation step (S3), image features of temporal and spatial changes in the flow field are digitized from at least one preprocessed image G obtained by performing the preprocessing step (S2). It is a step of calculating at least one feature value F. The image feature is an index capable of capturing (quantifying) temporal changes in combustion states (flow states) obtained from a plurality of target images P based on luminance information. Also, the feature quantity F is a numerical representation of the image feature. The brightness information is information obtained from the target image P without detecting the flame itself. Even in this case, the feature quantity F can be obtained. Therefore, it is also possible to facilitate installation of the imaging device 6 (in-furnace camera) for imaging the inside of the furnace.

具体的には、画像特徴は、対象画像Pに表れたり対象画像Pに基づいて得られたりする輝度情報から得られる、輝度値、形、大きさ、色、濃淡、温度(温度分布)、波長(波長分布)などの情報の少なくとも一つの情報の経時的な変化を示す特徴であっても良いし、これらの情報の平均、ピークなどの統計値の経時的な変化であっても良い。あるいは、画像特徴は、所定値以上あるいは所定値以下の輝度を有する部分の面積、形、大きさのいずれかであっても良い。なお、輝度情報から得られる温度や温度分布などは、輝度値を変換することにより得られる。 Specifically, the image features are brightness values, shapes, sizes, colors, shadings, temperatures (temperature distributions), and wavelengths obtained from brightness information appearing in the target image P or obtained based on the target image P. It may be a feature indicating temporal change of at least one piece of information such as (wavelength distribution), or it may be a temporal change of a statistical value such as an average or peak of these information. Alternatively, the image feature may be any of the area, shape, and size of a portion having luminance equal to or greater than a predetermined value or equal to or less than a predetermined value. Note that the temperature, temperature distribution, and the like obtained from the luminance information are obtained by converting the luminance value.

そして、画像特徴の特徴量Fからその変化の大きさ(程度)に対応した評価が可能となる。この特徴量Fは、例えば立体高次局所自己相関特徴法による処理を行うことによって得られる立体高次局所自己相関特徴量(CHLAC特徴量)や、CNN(Convolution Neural Network)、AE(AutoEncoder)などにより得られる画像特徴の量であっても良い。CHLAC特徴量は、対象画像Pの全体に表れる時空間変動をコンパクトに表現できるという利点を有する。CNNは、畳み込み処理やプーリング処理、またAEでは、エンコード処理にて特徴を得ることで、対象画像Pの全体の画像特徴を効果的に縮小し取得することができる利点を有する。 Then, it is possible to perform evaluation corresponding to the magnitude (degree) of the change from the feature amount F of the image feature. This feature amount F is, for example, a three-dimensional high-order local autocorrelation feature amount (CHLAC feature amount) obtained by performing processing by a three-dimensional high-order local autocorrelation feature method, a CNN (Convolution Neural Network), an AE (AutoEncoder), or the like. It may be the amount of the image feature obtained by The CHLAC feature quantity has the advantage of being able to compactly express spatio-temporal variations that appear in the entire target image P. CNN has the advantage of being able to effectively reduce and acquire the image features of the entire target image P by obtaining features through convolution processing, pooling processing, or encoding processing in AE.

つまり、複数の対象画像Pは、流動場における同一の範囲を時間をずらして(互いに時間間隔を空けて)撮像した複数の画像であり、複数の対象画像Pから、流動場の2次元空間や3次元空間といった空間的な変化が分かる。よって、特徴量算出ステップ(S3)は、複数の対象画像Pに基づいて、このような流動場の時間的・空間的な変化の特徴を判別し、その特徴を数値化することにより特徴量Fを得る。 In other words, the plurality of target images P are a plurality of images obtained by imaging the same range in the flow field at different times (at intervals of time). Spatial changes such as three-dimensional space can be seen. Therefore, in the feature quantity calculation step (S3), based on a plurality of target images P, the characteristics of temporal and spatial changes in the flow field are discriminated, and the features are quantified to obtain the feature quantity F get

図1~図3に示す実施形態では、ステップS1において、複数の対象画像Pを記憶装置などから読み込むなどして取得し(対象画像取得ステップ)、ステップS2において、取得した複数の対象画像Pに対して、それぞれ、上述したコントラストの強調を実行する。そして、ステップS3において、ステップS2の実行により得られた前処理後画像Gに基づいて、特徴量Fを算出するようになっている。 In the embodiment shown in FIGS. 1 to 3, in step S1, a plurality of target images P are acquired by reading them from a storage device or the like (target image acquisition step), and in step S2, the acquired multiple target images P are acquired. , respectively, perform the contrast enhancement described above. Then, in step S3, the feature amount F is calculated based on the preprocessed image G obtained by executing step S2.

上記の構成によれば、複数の対象画像P毎に、その輝度分布Hを構成する複数の輝度値間の高低の差を増幅すること通して前処理後画像Gを得ると共に、前処理後画像Gから特徴量Fを算出する。このように、対象画像P毎にコントラストの強調を行うことにより、対象画像Pに表れる流動場(流動状態)の特徴をより強調させる(際立たせる)ことができるので、前処理後画像Gから特徴量Fを算出することにより、流動状態の特徴をより確度良く抽出することができる。 According to the above configuration, the post-preprocessing image G is obtained by amplifying the height difference between the plurality of luminance values forming the luminance distribution H for each of the plurality of target images P, and the post-preprocessing image G is obtained. A feature amount F is calculated from G. In this way, by enhancing the contrast for each target image P, the characteristics of the flow field (flow state) appearing in the target image P can be further emphasized (emphasized). By calculating the quantity F, the characteristics of the flow state can be extracted with higher accuracy.

したがって、例えば燃焼状態を撮像した画像(燃焼画像)の画像特徴に基づいて、燃焼状態に応じて変化する例えば灰中未燃分、NOx濃度、CO濃度などの状態量Sを推定する場合など、燃焼画像の画像特徴に基づいて燃焼状態を評価する場合に、前処理後画像Gから画像特徴を算出するようにすれば、燃焼画像と燃焼状態とのより適切な相関を得ることができ、状態量Sの推定精度の向上など、燃焼状態の評価精度を向上させることができる。 Therefore, for example, when estimating the state quantity S such as the unburned content in the ash, the NOx concentration, the CO concentration, etc., which changes according to the combustion state, based on the image features of an image (combustion image) that captures the combustion state. When the combustion state is evaluated based on the image features of the combustion image, if the image features are calculated from the preprocessed image G, a more appropriate correlation between the combustion image and the combustion state can be obtained. It is possible to improve the evaluation accuracy of the combustion state, such as improving the estimation accuracy of the quantity S.

次に、上述した対象画像Pについて、より詳細に説明する。
幾つかの実施形態では、上述した複数の対象画像Pは、それぞれ、流動場を撮像することにより得られた複数の撮像画像Paの各々の少なくとも一部の領域を構成(形成)する画像であっても良い。つまり、撮像画像Paは、流動場を撮像した画像そのものであり、対象画像Pは、撮像画像Paの一部の領域を構成する画像であっても良い。この場合、上述した画像特徴抽出方法は、対象画像取得ステップ(図1のS1)では、複数の撮像画像Paの各々の少なくとも一部の領域を構成する複数の対象画像Pを取得する。つまり、対象画像Pは、撮像画像Paそのものであっても良いし、撮像画像Paの一部の領域を切り出すなどした画像であっても良い。特徴抽出にあたっては、必ずしも撮像画像Paの全体を対象とする必要はなく、推定しようとする状態量Sに応じるなど、目的に応じて、対象画像Pとすべき撮像画像Paの領域を選択可能である。
Next, the target image P described above will be described in more detail.
In some embodiments, each of the plurality of target images P described above is an image that constitutes (forms) at least a partial region of each of the plurality of captured images Pa obtained by imaging the flow field. can be In other words, the captured image Pa may be an image of the flow field itself, and the target image P may be an image forming a part of the captured image Pa. In this case, in the above-described image feature extraction method, in the target image acquisition step (S1 in FIG. 1), a plurality of target images P forming at least a partial region of each of the plurality of captured images Pa are acquired. That is, the target image P may be the captured image Pa itself, or may be an image obtained by cutting out a partial area of the captured image Pa. In the feature extraction, it is not always necessary to target the entire captured image Pa, and the area of the captured image Pa to be the target image P can be selected according to the purpose, such as depending on the state quantity S to be estimated. be.

例えば、撮像条件によっては、撮像したい燃焼空間8が、窓枠などの燃焼空間8を隠すような物体や文字などの遮蔽物の向こう側にある場合があり、このような場合には撮像画像Paの一部を遮蔽物が占めることになる。そして、遮蔽物が一緒に撮像されることによって燃焼状態が撮像画像Paに撮像されない燃焼空間8の部分からは、燃焼状態の特徴が得られないばかりか、逆に、画像特徴の抽出に際してノイズ(妨げ)となる可能性がある。よって、撮像画像Paにおける遮蔽物が写っていない領域を切り出して、対象画像Pとしても良い。さらに、対象画像Pは、撮像画像Paから遮蔽物などを取り除いたような撮像画像Paの一部の画像(中間画像)から、さらに一部の領域を切り出した画像であっても良い。推定したい状態量Sに応じて、対象画像Pに含めるべき領域が変わる場合において、中間画像を保持しておくことにより、中間画像からその一部を適宜切り出すなどして、対象画像Pを得ることが可能となる。 For example, depending on the imaging conditions, the combustion space 8 to be imaged may be behind an object such as a window frame that hides the combustion space 8 or a shield such as letters. will be occupied by the shield. In addition, from the part of the combustion space 8 where the combustion state is not captured in the captured image Pa because the shielding object is captured together, not only is it not possible to obtain the characteristics of the combustion state, but conversely, noise ( hindrance). Therefore, the target image P may be obtained by cutting out a region in which the shielding object is not captured in the captured image Pa. Furthermore, the target image P may be an image obtained by cutting out a partial area from a partial image (intermediate image) of the captured image Pa obtained by removing a shield or the like from the captured image Pa. When the area to be included in the target image P changes according to the state quantity S to be estimated, the target image P can be obtained by holding an intermediate image and appropriately cutting out a part of the intermediate image. becomes possible.

つまり、対象画像Pが、撮像画像Paの一部の領域を構成する画像である場合には、対象画像取得ステップ(S1)は、撮像画像Paあるいは中間画像を取得するステップと、取得した画像の一部の領域を切り出す(取得する)ステップにより構成されていても良いし、その後、切り出すステップによって得られる画像から一部の領域をさらに切り出すステップをさらに有していても良い。なお、対象画像取得ステップ(S1)では、流動場を撮像することを通して、対象画像Pを取得しても良いし、予め記憶装置などに記憶され読み込むことを通して、対象画像Pを取得しても良い。 That is, when the target image P is an image forming a part of the captured image Pa, the target image acquisition step (S1) includes a step of acquiring the captured image Pa or an intermediate image, and a step of acquiring the acquired image. It may comprise a step of cutting out (obtaining) a partial region, and may further include a step of further cutting out a partial region from the image obtained by the cutting step. In the target image acquisition step (S1), the target image P may be acquired by capturing an image of the flow field, or may be stored in a storage device or the like in advance and read. .

また、上述した撮像画像Paの一部の領域は、幾つかの実施形態では、撮像画像Paの中心に位置する領域(中心領域)を含んでいても良い。この中心領域は、画像の中心から所定の半径を有する円や楕円、その円や楕円に接するような四角形やその他の形状の内側であっても良く、画像の中心を含む。この画像の中心は、画像の重心の位置であっても良い。燃焼空間8では、遮蔽物は撮像画像Paの端にあるのが通常であり、撮像画像Paにおいて流動状態が適切に写る領域が対象画像に含まれるように、機械的に処理することが可能となる。 In some embodiments, the partial area of the captured image Pa described above may include an area (central area) located in the center of the captured image Pa. This central region may be inside a circle or ellipse having a predetermined radius from the center of the image, a rectangle tangent to the circle or ellipse, or any other shape that includes the center of the image. The center of this image may be the position of the center of gravity of the image. In the combustion space 8, the shielding object is usually at the edge of the captured image Pa, and it is possible to mechanically process so that the target image includes an area in which the flow state is appropriately captured in the captured image Pa. Become.

上記の構成によれば、各対象画像Pは、撮像された画像(撮像画像Pa)の少なくとも一部の領域を構成(形成)する画像である。これによって、撮像した画像に流動状態と関係のない部分(流動状態の撮像を妨げる遮蔽物など)が含まれている場合に、その部分による前処理結果への影響の防止や、撮影した画像において流動状態がより顕著に表れる部分を対象画像Pとすることができ、コントラストの強調をより適切に行うことができる。 According to the above configuration, each target image P is an image that constitutes (forms) at least a partial region of the captured image (captured image Pa). As a result, if the captured image contains parts that are unrelated to the flow state (such as obstructions that interfere with imaging of the flow state), this prevents the influence of that part on the preprocessing results and prevents the captured image from A portion in which the fluid state appears more prominently can be set as the target image P, and the contrast can be emphasized more appropriately.

また、幾つかの実施形態では、上述した対象画像Pは、グレースケール(白黒画像)であっても良い。この場合には、上述した輝度分布は、グレースケールの対象画像Pの輝度値の分布である。上述したように、対象画像Pは、カラー画像である場合や、白黒画像である場合がある。よって、撮像画像Paや、上述した中間画像などがカラー画像である場合(グレースケールの画像ではない場合)にはグレースケールに変換(グレースケール化)する。具体的には、RGBの情報を用いて輝度保存変換によりグレースケールに変換しても良い。RGBの各レイヤを分離して、いずれかのレイヤをグレースケールに変換しても良い。または、RGBの情報から変換可能なRGB以外の色空間(HSVなど)の情報を用いて、グレースケール化を行っても良い。 Also, in some embodiments, the target image P described above may be a grayscale (black and white image). In this case, the luminance distribution described above is the distribution of luminance values of the target image P in grayscale. As described above, the target image P may be a color image or a monochrome image. Therefore, if the captured image Pa or the intermediate image described above is a color image (not a grayscale image), it is converted to grayscale (grayscale conversion). Specifically, RGB information may be converted to grayscale by luminance preservation conversion. Each layer of RGB may be separated and one of the layers may be converted to grayscale. Alternatively, grayscaling may be performed using information of a color space other than RGB (such as HSV) that can be converted from RGB information.

図1~図3に示す実施形態では、上述した前処理ステップ(S2)の前に対象画像Pのグレースケール化を実行しているが(図1のS1a)、前処理ステップ(S2)における輝度分布Hの算出を行う前までに、対象画像Pに対してグレースケール化を行っていれば良い。あるいは、対象画像取得ステップ(S1)は、グレースケール化された対象画像Pを取得しても良い。この場合には、対象画像取得ステップ(S1)の前にグレースケール化するステップを行っても良いし、対象画像取得ステップ(S1)は、白黒画像で撮像画像Paを得る(撮像)する場合や、カラー画像で撮像された撮像画像Paがグレースケール化されて保存されている場合など、グレースケールの画像を取得しても良い。 In the embodiments shown in FIGS. 1 to 3, the target image P is grayscaled (S1a in FIG. 1) before the preprocessing step (S2) described above. Before calculating the distribution H, the target image P may be grayscaled. Alternatively, the target image acquisition step (S1) may acquire a grayscaled target image P. In this case, a grayscale step may be performed before the target image acquisition step (S1). A grayscale image may be obtained, for example, when the captured image Pa captured as a color image is converted to grayscale and stored.

上記の構成によれば、グレースケール(白黒)の対象画像Pを対象に前処理を行う。一般に、カラー画像の場合には輝度のデータはRGBの3種類の各々について存在するが、撮像画像Paがカラー画像の場合にはグレースケール化される。対象画像Pがグレースケールであることにより輝度情報を1種類にするなど、画素毎の輝度情報の数を少なくすることができ、対象画像Pに対する前処理を容易化することができる。 According to the above configuration, the preprocessing is performed on the grayscale (black and white) target image P. Generally, in the case of a color image, brightness data exists for each of the three types of RGB, but when the captured image Pa is a color image, it is grayscaled. Since the target image P is grayscale, it is possible to reduce the number of brightness information for each pixel, such as using only one type of brightness information, thereby facilitating preprocessing of the target image P. FIG.

次に、上述した画像特徴抽出方法が備える前処理ステップ(S2)について、詳細に説明する。
幾つかの実施形態では、前処理ステップ(図1のS2)は、輝度分布取得ステップ(S21)と、閾値設定ステップ(S22)と、コントラスト強調ステップ(S23)と、を有する。
Next, the preprocessing step (S2) included in the image feature extraction method described above will be described in detail.
In some embodiments, the preprocessing step (S2 in FIG. 1) comprises a luminance distribution obtaining step (S21), a threshold setting step (S22) and a contrast enhancement step (S23).

輝度分布取得ステップ(S21)は、複数の対象画像Pの各々の輝度分布Hを取得(算出)するステップである。上述したように画像データは、画像を構成する複数の画素毎の輝度情報を有しており、対象画像P(データ)が有する上記の画素毎の輝度情報に基づいて、上述した単位領域R毎の輝度をそれぞれ取得し、取得された複数の輝度値の分布(輝度分布H)を得る。 The brightness distribution acquisition step (S21) is a step of acquiring (calculating) the brightness distribution H of each of the plurality of target images P. FIG. As described above, the image data has luminance information for each of a plurality of pixels forming an image. Based on the luminance information for each pixel of the target image P (data), are obtained, and a distribution of the plurality of obtained luminance values (luminance distribution H) is obtained.

閾値設定ステップ(S22)は、複数の対象画像Pの各々の輝度分布Hに基づいて、複数の対象画像Pの各々に応じた輝度値の閾値L(以下、適宜、閾値L)を設定するステップである。幾つかの実施形態では、図1~図3に示すように、大津の閾値判別法(大津の二値化法)により、各対象画像Pの閾値Lをそれぞれ決定するようにしている。そして、各対象画像Pを構成する複数の単位領域Rを、その対象画像Pの閾値Lに基づいて、閾値Lよりも大きな輝度値を有するクラスである高輝度領域Rhと、閾値L以下の輝度値を有するクラスである暗部領域Rlとの2つにクラス分けする。なお、大津の閾値判別法では、輝度のヒストグラム(本実施形態では、ヒストグラム)を任意の輝度値を境に2つのクラスに分けた際のクラス内分散およびクラス間分散により定義される分離度が最大となる場合の輝度値を閾値Lとする。 The threshold setting step (S22) is a step of setting a threshold value L (hereinafter referred to as a threshold value L) for each of the plurality of target images P based on the luminance distribution H of each of the plurality of target images P. is. In some embodiments, as shown in FIGS. 1 to 3, the threshold value L of each target image P is determined by Otsu's threshold discrimination method (Otsu's binarization method). Then, based on the threshold value L of the target image P, a plurality of unit regions R constituting each target image P are classified into high-luminance regions Rh, which are classes having a luminance value greater than the threshold value L, and luminance values equal to or less than the threshold value L. It is classified into two classes, the dark area Rl which is a class having a value. In Otsu's threshold discrimination method, the degree of separation defined by the intra-class variance and the inter-class variance when a brightness histogram (in this embodiment, a histogram) is divided into two classes with an arbitrary brightness value as a boundary is Let the threshold value L be the luminance value when it becomes the maximum.

ただし、本実施形態に本発明は限定されない。各対象画像Pの一部を構成する複数の単位領域Rを高輝度領域Rhと暗部領域Rlとの2つに分けられれば、他の手法により閾値Lの決定を行っても良い。例えば、他の幾つかの実施形態では、閾値Lは、上述したように得られる、対象画像Pを構成する複数の単位領域Rの各々の輝度値の平均値や、最頻値、中央値などの統計値であっても良い。 However, the present invention is not limited to this embodiment. The threshold value L may be determined by another method as long as a plurality of unit regions R forming a part of each target image P can be divided into two regions, ie, a high brightness region Rh and a dark region Rl. For example, in some other embodiments, the threshold value L is the average value, the mode value, the median value, etc. It may be a statistical value of

コントラスト強調ステップ(S23)は、複数の対象画像Pの各々毎に、複数の対象画像Pの各々に応じた輝度値の閾値Lを用いて、上述したコントラストの強調を実行するステップである。具体的には、幾つかの実施形態では、このコントラスト強調ステップ(S23)は、複数の対象画像Pの各々毎に、輝度分布Hを構成する複数の輝度値のうちの上記の閾値Lよりも小さい値を有する輝度値を、閾値Lよりも小さい所定値に変更することにより、対象画像P(図4(a)参照)を前処理した前処理後画像Gを生成しても良い。上記の所定値は輝度値の最小値であっても良い。あるいは、コントラスト強調ステップは、複数の対象画像Pの各々毎に、輝度分布Hを構成する複数の輝度値のうちの上記の閾値Lより大きい輝度値を有する輝度値を閾値Lよりも大きい所定値に変更することにより、対象画像P(図4(a)参照)を前処理した前処理後画像Gを生成しても良い。上記の所定値は輝度値の最大値であっても良い。または、このコントラスト強調ステップは、複数の対象画像Pの各々毎に、輝度分布Hを構成する複数の輝度値のうちの上記の閾値Lより大きい輝度値を有する輝度値を閾値Lよりも大きい所定値に変更し、かつ、上記の閾値Lより小さい輝度値を有する輝度値を閾値Lよりも小さい所定値に変更することにより、対象画像P(図4(a)参照)を前処理した前処理後画像Gを生成しても良い。 The contrast enhancement step ( S<b>23 ) is a step of performing the contrast enhancement described above for each of the plurality of target images P using the threshold value L of the luminance value corresponding to each of the plurality of target images P. Specifically, in some embodiments, this contrast enhancement step (S23) is performed such that, for each of the plurality of target images P, A preprocessed image G obtained by preprocessing the target image P (see FIG. 4A) may be generated by changing the luminance value having a small value to a predetermined value smaller than the threshold value L. FIG. The predetermined value may be the minimum luminance value. Alternatively, in the contrast enhancement step, for each of the plurality of target images P, among the plurality of luminance values forming the luminance distribution H, the luminance value having a luminance value larger than the threshold value L is set to a predetermined value larger than the threshold value L. , a preprocessed image G obtained by preprocessing the target image P (see FIG. 4A) may be generated. The predetermined value may be the maximum luminance value. Alternatively, in this contrast enhancement step, for each of the plurality of target images P, among the plurality of luminance values forming the luminance distribution H, the luminance value having a luminance value larger than the threshold value L is set to a predetermined value larger than the threshold value L. , and by changing the luminance value having a luminance value smaller than the threshold L to a predetermined value smaller than the threshold L, the target image P (see FIG. 4A) is preprocessed. A post image G may be generated.

このように、上記の複数の単位領域Rを高輝度領域Rhと暗部領域Rlと分けた際に、暗部領域Rlに属する各単位領域Rの輝度値を閾値Lよりも小さい値に変更し、かつ、高輝度領域Rhの輝度値を変更しないこと、あるいは、高輝度領域Rhに属する各単位領域Rの輝度値を閾値Lよりも大きい値に変更し、かつ、暗部領域Rlの輝度値を変更しないこと、または、暗部領域Rlに属する各単位領域Rの輝度値を閾値Lよりも小さい値に変更し、かつ、高輝度領域Rhに属する各単位領域Rの輝度値を閾値Lよりも大きい値に変更することにより、高輝度領域Rhと暗部領域Rlとの各々に属する輝度値の差をより大きくすることができる。その結果、対象画像Pの暗部領域Rlあるいは高輝度領域Rhが、前処理後画像Gにおいてより際立ったものとなる。 In this way, when the plurality of unit regions R are divided into the high brightness region Rh and the dark region Rl, the brightness value of each unit region R belonging to the dark region Rl is changed to a value smaller than the threshold value L, and , do not change the luminance value of the high-luminance region Rh, or change the luminance value of each unit region R belonging to the high-luminance region Rh to a value larger than the threshold value L, and do not change the luminance value of the dark region Rl. Alternatively, the brightness value of each unit region R belonging to the dark region Rl is changed to a value smaller than the threshold value L, and the brightness value of each unit region R belonging to the high brightness region Rh is changed to a value larger than the threshold value L. By changing, the difference between the luminance values belonging to each of the high-luminance region Rh and the dark region Rl can be increased. As a result, the dark region Rl or the high brightness region Rh of the target image P becomes more conspicuous in the preprocessed image G.

図1~図3に示す実施形態では、対象画像Pを構成する複数の単位領域Rの各々の輝度のうち、暗部領域Rlに属する各単位領域Rの輝度値を閾値Lよりも小さい所定値に変更するようになっている。この際、幾つかの実施形態では、図4に示すように、輝度値の最小値は0であり、暗部領域Rlに属する各単位領域Rの輝度値を0にするようになっている。これによって、対象画像Pにおける暗部領域Rlを最大限に強調させる(際立たせる)ことができる。 In the embodiment shown in FIGS. 1 to 3, the luminance value of each unit region R belonging to the dark region Rl among the luminance of each of the plurality of unit regions R forming the target image P is set to a predetermined value smaller than the threshold value L. It's supposed to change. At this time, in some embodiments, as shown in FIG. 4, the minimum luminance value is 0, and the luminance value of each unit region R belonging to the dark region Rl is set to 0. Thereby, the dark area Rl in the target image P can be emphasized (made conspicuous) to the maximum.

図4について説明すると、図4(a)のヒストグラムは、対象画像Pを複数の単位領域Rに区分した際の各単位領域Rの輝度値の分布(ヒストグラム)であり、上記の閾値設定ステップ(S22)によって設定された閾値Lを境に、ヒストグラムは、高輝度領域Rhと暗部領域Rlとに分けられる。そして、この図4(a)の暗部領域Rlに属する各単位領域Rの輝度値を0にしたものが図4(b)に示される前処理後画像Gであり、この前処理後画像Gに対応するヒストグラムを見ると、暗部領域Rlに属する各単位領域Rの輝度値が0になっていることが分かる。 Referring to FIG. 4, the histogram in FIG. 4A is the distribution (histogram) of the brightness values of each unit region R when the target image P is divided into a plurality of unit regions R, and the above threshold setting step ( The histogram is divided into a high luminance area Rh and a dark area Rl with the threshold L set in S22) as a boundary. Then, the preprocessed image G shown in FIG. Looking at the corresponding histogram, it can be seen that the luminance value of each unit region R belonging to the dark region Rl is 0.

ただし、本実施形態に本発明は限定されない。他の幾つかの実施形態ではコントラスト強調ステップ(S23)は、各単位領域Rから任意の値だけ減算しても良い。また、コントラスト強調ステップ(S23)において、対象画像Pを構成する複数の単位領域Rの輝値のうち、高輝度領域Rhに属する各単位領域Rの輝度値を閾値Lよりも大きい所定値に変更するように構成されている場合には、上記の閾値Lよりも大きい所定値は輝度値の最大値であっても良いし、あるいは、各単位領域Rの輝度値から任意の値だけ加算しても良い。 However, the present invention is not limited to this embodiment. In some other embodiments, the contrast enhancement step (S23) may subtract an arbitrary value from each unit region R. Further, in the contrast enhancement step (S23), among the brightness values of the plurality of unit regions R forming the target image P, the brightness value of each unit region R belonging to the high brightness region Rh is changed to a predetermined value larger than the threshold value L. , the predetermined value larger than the threshold value L may be the maximum value of the luminance value, or an arbitrary value is added from the luminance value of each unit region R. Also good.

上記の構成によれば、対象画像P毎に、その輝度分布Hに基づいて輝度値の閾値Lを設定すると共に、この閾値Lを用いてコントラストの強調を行う。これによって、対象画像Pにおける暗部領域Rlをより際立たせることができ、前処理後画像Gにおいて、画像処理前の対象画像Pで示される流動状態の特徴をより強調させることができる。 According to the above configuration, the threshold value L of the brightness value is set for each target image P based on the brightness distribution H thereof, and the threshold value L is used to enhance the contrast. As a result, the dark region Rl in the target image P can be made more conspicuous, and in the post-preprocessing image G, the feature of the fluid state shown in the target image P before image processing can be further emphasized.

また、幾つかの実施形態では、図1に示すように(図2~図3では省略)、前処理ステップ(S2)は、上述したコントラスト強調ステップ(S23)の後に、上述したコントラストの強調が実行された2つの対象画像Pの差分画像を生成する差分画像生成ステップ(S24)を、さらに有していても良い。この場合、前処理ステップ(S2)では、この差分画像生成ステップ(S24)で生成される差分画像を前処理後画像Gとして得る。このように、差分画像を前処理後画像Gとすることにより、差分画像から画像特徴を算出することができる。 Also, in some embodiments, as shown in FIG. 1 (not shown in FIGS. 2-3), the preprocessing step (S2) is performed after the contrast enhancement step (S23) described above. A differential image generating step (S24) of generating a differential image of the executed two target images P may be further provided. In this case, in the preprocessing step (S2), the differential image generated in the differential image generation step (S24) is obtained as the image G after preprocessing. In this way, by using the post-preprocessing image G as the difference image, the image feature can be calculated from the difference image.

次に、上述した画像特徴抽出方法が備える特徴量算出ステップ(S3)について、詳細に説明する。
幾つかの実施形態では、上述した特徴量算出ステップ(S3)は、立体高次局所自己相関特徴法(CHLAC)による処理を行うことによって、前処理ステップ(S2)を実行することにより得られた少なくとも1つ前処理後画像Gから少なくとも1つの特徴量Fを算出する。一般に、立体高次局所自己相関特徴法では複数の特徴量Fが得られるが、その全ての特徴量Fを算出しても良いし、そのうちの一部の特徴量Fのみに限って算出しても良い。実際に状態量Sの推定などに用いる特徴量Fのみ算出するようにすれば、計算量を少なくすることができ、特徴量Fの算出に要する時間を短縮することが可能となる。これによって、立体高次局所自己相関特徴法により、少なくとも1つの前処理後画像Gから、複数の対象画像Pに表れる流動状態の特徴量を適切に抽出することができる。
Next, the feature amount calculation step (S3) included in the image feature extraction method described above will be described in detail.
In some embodiments, the feature amount calculation step (S3) described above is obtained by performing the preprocessing step (S2) by performing processing by the cubic high-order local autocorrelation feature method (CHLAC) At least one feature amount F is calculated from at least one preprocessed image G. In general, a plurality of feature quantities F can be obtained by the three-dimensional high-order local autocorrelation feature method. Also good. By calculating only the feature amount F that is actually used for estimating the state amount S, the amount of calculation can be reduced, and the time required to calculate the feature amount F can be shortened. As a result, it is possible to appropriately extract the feature amount of the flow state appearing in the plurality of target images P from at least one preprocessed image G by the three-dimensional high-order local autocorrelation feature method.

続いて、上述した特徴量算出ステップ(S3)の後に行うことが可能な画像特徴抽出方法の他のステップについて説明する。
幾つかの実施形態では、図2に示すように、上述した特徴量算出ステップ(S3)は、例えば立体高次局所自己相関特徴法(CHLAC)による処理を行うなど、複数の特徴量Fを算出するようになっており、画像特徴抽出方法は、図2に示すように、上述した特徴量算出ステップ(S3)により得られる複数の特徴量Fの中から少なくとも1つの特徴量F(画像特徴)を選択する特徴量選択ステップ(S40)を、さらに備える。つまり、例えばCHLACなどにより得られる複数の特徴量Fのうち、例えば状態量Sを推定するのに適切な1以上の特徴量Fを選択する。この特徴量選択ステップ(S40)における選択は経験上の知見に基づいて行っても良いし、例えば、これより前に行われた後述する解析ステップ(S4)を行うことで選択した特徴量Fを、本ステップにおいても選択するようにしても良い。
Next, another step of the image feature extraction method that can be performed after the above feature amount calculation step (S3) will be described.
In some embodiments, as shown in FIG. 2, the above-described feature amount calculation step (S3) calculates a plurality of feature amounts F, for example, by performing processing by the cubic high-order local autocorrelation feature method (CHLAC). As shown in FIG. 2, the image feature extraction method extracts at least one feature value F (image feature) from among the plurality of feature values F obtained in the feature value calculation step (S3) described above. It further comprises a feature quantity selection step (S40) for selecting . That is, one or more feature quantities F suitable for estimating the state quantity S, for example, are selected from a plurality of feature quantities F obtained by, for example, CHLAC. The selection in this feature quantity selection step (S40) may be made based on empirical knowledge. , may also be selected in this step.

上記の構成によれば、例えば立体高次局所自己相関特徴法などの複数の対象画像から複数の特徴量Fが得られる手法により複数の特徴量を算出した場合、例えば算出した複数の特徴量Fの一部など、特に流動状態の変化が反映される所望の1以上の特徴量Fなどを所定の基準に基づくなどして選択する。これによって、複数の対象画像Pに表れる流動状態の画像特徴が的確に反映されているような特徴量Fなどを抽出することができる。 According to the above configuration, when a plurality of feature amounts are calculated by a method such as a three-dimensional high-order local autocorrelation feature method that obtains a plurality of feature amounts F from a plurality of target images, for example, the calculated plurality of feature amounts F One or more desired feature quantities F that particularly reflect changes in the flow state, such as a part of , are selected based on a predetermined criterion. As a result, it is possible to extract the feature amount F that accurately reflects the image features of the fluid state appearing in the plurality of target images P.

また、幾つかの実施形態では、図3に示すように、画像特徴抽出方法は、特徴量算出ステップ(S3)の後に、目的に応じて適切な特徴量F(画像特徴)を選択するための解析ステップ(S4)を、さらに備えていても良い。より具体的には、幾つかの実施形態では、図3に示すように、画像特徴抽出方法(解析ステップ)は、互いに異なる対象画像Pを含む、上述した複数の対象画像Pの複数のセットを準備し、この複数のセットに対して、それぞれ、前処理ステップ(S2)および特徴量算出ステップ(S3)を行うことによって得られる画像特徴毎の特徴量Fの集合に対して、その集合毎に平均化処理を実行する平均化処理ステップ(S41)を、さらに備えても良い。上記の複数のセットの準備は、上述した対象画像取得ステップ(S1)の前に全て完了しても良いし、あるいは、1つのセットが準備できる度に前処理ステップ(S2)および特徴量算出ステップ(S3)を行うなど、対象画像取得ステップ(S1)の前に全て完了しなくても良い。 Further, in some embodiments, as shown in FIG. 3, the image feature extraction method includes, after the feature amount calculation step (S3), a process for selecting an appropriate feature amount F (image feature) according to the purpose. An analysis step (S4) may be further provided. More specifically, in some embodiments, as shown in FIG. 3, the image feature extraction method (analysis step) extracts a plurality of sets of target images P described above, including target images P that are different from each other. For each set of feature values F for each image feature obtained by performing the preprocessing step (S2) and the feature value calculation step (S3) on each of the plurality of sets, An averaging processing step (S41) for executing averaging processing may be further provided. The preparation of the plurality of sets may be completed before the target image acquisition step (S1) described above, or the preprocessing step (S2) and the feature amount calculation step may be performed each time one set is prepared. (S3) does not have to be completed before the target image acquisition step (S1).

例えば動画などを撮像すると、撮像動画を構成する複数の連続的な静止画像(撮像画像Pa)が得られる。このような連続的に得られる画像に対して、例えば所定のルール(連続、数コマ置きなど)に従って任意の数の対象画像Pが得られる度に、それらの得られた複数の画像からなるセットを複数の対象画像Pとして画像特徴を算出していくなどすると、画像特徴の種類毎に複数の特徴量Fが得られる。ここでいう画像特徴の種類は、例えばCHLACなどの特徴抽出のための処理を一度行うことにより得られる複数の特徴量Fにそれぞれ対応する画像特徴である。そして、画像特徴の種類や、画像特徴の算出頻度などの算出条件によっては、特徴量Fの変動の大きさからノイズとみなせる成分が生じる場合がある。よって、画像特徴の種類毎の集合毎に平均化処理を行うことによって、ノイズ成分を抑制する。 For example, when a moving image is captured, a plurality of continuous still images (captured images Pa) forming the captured moving image are obtained. For such continuously obtained images, each time an arbitrary number of target images P are obtained, for example, according to a predetermined rule (continuous, every few frames, etc.), a set of these obtained images are calculated as a plurality of target images P, a plurality of feature amounts F are obtained for each type of image feature. The types of image features referred to here are image features respectively corresponding to a plurality of feature amounts F obtained by performing processing for feature extraction such as CHLAC once. Depending on the type of image feature and the calculation conditions such as the frequency of calculation of the image feature, a component that can be regarded as noise may occur due to the magnitude of variation in the feature amount F. Therefore, noise components are suppressed by performing an averaging process for each set of image features for each type.

この平均化処理は、画像特徴毎の特徴量Fの集合の移動平均を算出する処理であっても良いし、あるいは、その集合の区間平均を算出する処理であっても良い。移動平均は、時間と共に移動する移動窓により、移動窓の範囲にある所定期間分の複数の特徴量Fの平均値を算出する。移動窓の範囲には、現在時刻から所定期間分だけ過去の範囲が含まれることにより、最新の特徴量Fが含まれるようにしても良い。他方、区間平均は、時間軸に沿って期間に重複がないように複数の区間を設定し、各区間に含まれる複数の特徴量Fの平均を区間毎に算出する。これによって、画像特徴毎に、特徴量Fの値の変化を適切に得ることが可能となり、最新の撮像画像Paを撮像することにより取得しつつ、画像特徴を抽出するといったリアルタイムの処理が可能となる。よって、燃焼状態(流動状態)のリアルタイムの監視なども可能となる。 This averaging process may be a process of calculating a moving average of a set of feature amounts F for each image feature, or may be a process of calculating an interval average of the set. For the moving average, a moving window that moves with time is used to calculate the average value of a plurality of feature values F for a predetermined period within the range of the moving window. The range of the moving window may include the latest feature amount F by including the range from the current time to the past for a predetermined period. On the other hand, for the section average, a plurality of sections are set along the time axis so that the periods do not overlap, and the average of the plurality of feature amounts F included in each section is calculated for each section. As a result, it becomes possible to appropriately obtain the change in the value of the feature amount F for each image feature, and it is possible to perform real-time processing such as extracting the image feature while acquiring the latest captured image Pa by capturing it. Become. Therefore, it becomes possible to monitor the combustion state (flow state) in real time.

上記の構成によれば、時間をずらして得られる画像特徴毎の特徴量Fの集合に対して、集合毎に平均化処理を実行する。特徴量Fの変化が激しい場合にはノイズとなりやすく、平均化処理を行うことにより、ノイズを抑え、画像特徴毎に特徴量Fの値の変化を適切に得ることができる。 According to the above configuration, the averaging process is performed for each set of feature amounts F for each image feature obtained by shifting the time. If the feature amount F changes sharply, it tends to become noise. By performing the averaging process, the noise can be suppressed and the change in the value of the feature amount F can be appropriately obtained for each image feature.

また、幾つかの実施形態では、上述した特徴量Fは、複数の対象画像Pで示される燃焼状態(流動状態)の状態量Sの推定に用いるためのものであり、画像特徴抽出方法(解析ステップ)は、平均化処理ステップ(S41)により平均化処理された複数の特徴量Fの中から状態量Sの推定に対する寄与度が高い特徴量を選択する平均化特徴量選択ステップ(S42)を、さらに備えていても良い。後述するように、本画像特徴抽出方法により抽出した複数の画像特徴の各々に対応する複数の特徴量Fと、状態量Sの計測値とを対応付けた複数のデータを学習データとして機械学習する場合には、複数の特徴量Fによる状態量Sの計測値への寄与度が異なるのが通常であり、主成分分析等を通して、その寄与度が高い1以上の特徴量Fを選択する。 Further, in some embodiments, the feature amount F described above is used for estimating the state amount S of the combustion state (flow state) indicated by a plurality of target images P, and an image feature extraction method (analysis step) includes an averaged feature quantity selection step (S42) for selecting a feature quantity having a high degree of contribution to the estimation of the state quantity S from among the plurality of feature quantities F averaged by the averaging processing step (S41). , and may be further provided. As will be described later, machine learning is performed using a plurality of data obtained by associating a plurality of feature quantities F corresponding to each of a plurality of image features extracted by this image feature extraction method with the measured value of the state quantity S as learning data. In such a case, the degree of contribution to the measured value of the state quantity S by a plurality of feature quantities F is usually different, and one or more feature quantity F with a high degree of contribution is selected through principal component analysis or the like.

上記の構成によれば、例えば主成分分析などにより、状態量の推定への寄与度(状態量の計測値への寄与度)が高い1以上の特徴量Fを選択する。例えば、このようにして得られた1以上の特徴量Fと、その特徴量Fの抽出元の複数の対象画像に表れる流動状態の状態量(測定値など)との関係を学習すれば、複数の対象画像Pに表れる流動状態の状態量Sとの関連が特に深い画像特徴と状態量Sとの関係が得られる。よって、その関係に基づいて所望の対象画像Pにおける状態量Sを、選択された画像特徴から確度良く推定することが可能となる。 According to the above configuration, one or more feature quantities F having a high degree of contribution to the estimation of the state quantity (the degree of contribution to the measured value of the state quantity) are selected by, for example, principal component analysis. For example, by learning the relationship between one or more feature values F obtained in this manner and state quantities (measured values, etc.) of the flow state appearing in a plurality of target images from which the feature values F are extracted, a plurality of The relationship between the image feature and the state quantity S, which is particularly closely related to the state quantity S of the fluid state appearing in the target image P, can be obtained. Therefore, based on the relationship, it is possible to accurately estimate the state quantity S in the desired target image P from the selected image feature.

なお、上述した画像特徴抽出方法によって抽出された1以上の特徴量Fは、上述した状態量Sを推定するのに用いるなどされる(図5参照)。具体的には状態量Sを推定しようとする複数の対象画像Pから抽出される1以上の特徴量Fから、その複数の対象画像Pに表れている燃焼状態での所望の状態量Sを推定するための推定モデルMを用いて、任意の複数の対象画像Pから対応する状態量Sを推定する。推定モデルMは、予め作成されているものを取得して、用いれば良い。 One or more feature quantities F extracted by the image feature extraction method described above are used for estimating the state quantity S described above (see FIG. 5). Specifically, from one or more feature quantities F extracted from a plurality of target images P for which the state quantity S is to be estimated, the desired state quantity S in the combustion state appearing in the plurality of target images P is estimated. Using the estimation model M for doing, the corresponding state quantity S is estimated from a plurality of arbitrary target images P. The presumed model M may be obtained and used after being created in advance.

図5は、本発明の一実施形態に係る状態量推定方法を示す図である。図5に示す実施形態では、ステップS51において、上述した画像特徴抽出方法により、複数の対象画像Pから抽出された特徴量Fを取得する。本ステップでは、画像特徴抽出方法による抽出を行うことで特徴量Fを取得しても良いし、既に抽出された特徴量Fを単に取得しても良い。次に、ステップS52において推定モデルMを取得する。推定モデルMを作成することにより取得しても良いし、予め作成された記憶されている推定モデルMを取得しても良い。そして、ステップS53において、ステップS52において取得した推定モデルMを用いて、ステップS51において取得した特徴量Fから状態量Sを推定(算出)するようになっている。換言すれば、特徴量Fを入力情報として推定モデルMに従って演算し、その結果として状態量Sを得る。なお、ステップS51とステップS52の順番は逆であっても良い。 FIG. 5 is a diagram showing a state quantity estimation method according to one embodiment of the present invention. In the embodiment shown in FIG. 5, in step S51, the feature amount F extracted from a plurality of target images P is acquired by the image feature extraction method described above. In this step, the feature amount F may be obtained by performing extraction using an image feature extraction method, or the already extracted feature amount F may simply be obtained. Next, the estimated model M is acquired in step S52. It may be acquired by creating an estimated model M, or may be acquired from an estimated model M that has been created and stored in advance. Then, in step S53, using the estimation model M obtained in step S52, the state quantity S is estimated (calculated) from the feature quantity F obtained in step S51. In other words, the feature quantity F is used as input information and calculated according to the estimation model M, and the state quantity S is obtained as a result. Note that the order of steps S51 and S52 may be reversed.

上記の状態量推定方法は、図6に示すように、専用の装置(状態量推定装置5)を用いて実行しても良い。図6は、本発明の一実施形態に係る状態量推定装置5の機能を示すブロック図である。図6に示すように、状態量推定装置5は、上述した各ステップをそれぞれ実行する機能部(特徴量取得部51、推定モデル取得部52、状態量推定部53)を有している。図6に示す実施形態では、後述する画像特徴抽出装置1に接続されることにより、画像特徴抽出装置1(後述)によって抽出された特徴量Fが入力されるように構成されている。また、状態量推定装置5(状態量推定部53)は、ディスプレイなどの表示装置55に接続されることにより、状態量Sの推定結果を表示装置55に出力するように構成されている。なお、記憶装置5mは、状態量推定装置5が備える記憶装置であっても良いし、不図示の通信ネットワークを介して接続される他の装置などの記憶装置であっても良い。また、状態量推定装置5および画像特徴抽出装置1(後述)は、同一のOS(Operating system)などの同一のプラットフォームで動作する1つの装置で構成されていても良い。 The state quantity estimating method described above may be executed using a dedicated device (state quantity estimating device 5) as shown in FIG. FIG. 6 is a block diagram showing functions of the state quantity estimation device 5 according to one embodiment of the present invention. As shown in FIG. 6, the state quantity estimating device 5 has functional units (feature quantity acquiring unit 51, estimation model acquiring unit 52, state quantity estimating unit 53) that execute the respective steps described above. The embodiment shown in FIG. 6 is configured to be connected to an image feature extraction device 1 (to be described later) so that a feature amount F extracted by the image feature extraction device 1 (to be described later) is input. The state quantity estimating device 5 (state quantity estimating unit 53 ) is configured to output the estimation result of the state quantity S to the display device 55 by being connected to the display device 55 such as a display. The storage device 5m may be a storage device included in the state quantity estimation device 5, or may be a storage device such as another device connected via a communication network (not shown). Also, the state quantity estimation device 5 and the image feature extraction device 1 (described later) may be composed of one device that operates on the same platform such as the same OS (Operating System).

また、上記の推定モデルMは、過去に撮像された複数の画像(燃焼画像)である、推定モデルMの作成に用いる複数の参照画像(過去画像)から上述した画像特徴抽出方法により抽出された1以上の特徴量Fと、この複数の参照画像で示される燃料の燃焼状態に応じた状態量Sである参照状態量とを対応付けた学習データを機械学習することにより作成すると良い。参照状態量は、複数の過去画像の撮像タイミングと同期をとってサンプリングした試料から灰中未燃分を計測したり、NOx濃度やCO濃度などをセンサで計測したりすることにより得られる。また、機械学習は、ニューラルネットワーク、一般化線形モデルなどの周知な機械学習の手法(アルゴリズム)のいずれかが用いられる。 In addition, the above estimation model M is extracted from a plurality of reference images (past images) used for creating the estimation model M, which are a plurality of images (burning images) taken in the past, by the image feature extraction method described above. Learning data in which one or more feature quantities F are associated with reference state quantity S corresponding to the fuel combustion state shown in the plurality of reference images may be created by machine learning. The reference state quantity is obtained by measuring the unburned content in the ash from samples sampled in synchronism with the imaging timing of a plurality of past images, or by measuring NOx concentration, CO concentration, etc. with a sensor. In addition, machine learning uses one of well-known machine learning techniques (algorithms) such as neural networks and generalized linear models.

このように、上述した画像特徴抽出方法により複数の参照画像(過去画像)から抽出される特徴量F、および参照画像の撮像時の状態量Sの計測値を用いて作成された推定モデルMと、推定しようとする複数の対象画像Pから上述した画像特徴抽出方法により抽出される1以上の特徴量Fとを用いて、状態量Sを推定することにより、精度良く状態量Sを推定することができる。 In this way, the estimated model M created using the feature quantity F extracted from a plurality of reference images (past images) by the image feature extraction method described above and the measured value of the state quantity S when the reference image was captured. , and one or more feature amounts F extracted from a plurality of target images P to be estimated by the above-described image feature extraction method, thereby estimating the state amount S with high accuracy. can be done.

次に、上述した画像特徴抽出方法を実行する画像特徴抽出装置1について、対象画像Pが燃焼画像である場合を例に、図7~図9を用いて説明する。図7は、本発明の一実施形態に係る画像特徴抽出装置1が設置された燃焼炉7の構成を概略的に示す図である。図8は、本発明の一実施形態に係る画像特徴抽出装置1の機能を示すブロック図であり、図2に対応する処理を実行する。また、図9は、本発明の一実施形態に係る画像特徴抽出装置1の機能を示すブロック図であり、図3に対応する処理を実行する。 Next, the image feature extraction device 1 that executes the image feature extraction method described above will be described with reference to FIGS. FIG. 7 is a diagram schematically showing the configuration of the combustion furnace 7 in which the image feature extraction device 1 according to one embodiment of the invention is installed. FIG. 8 is a block diagram showing functions of the image feature extraction device 1 according to one embodiment of the present invention, and executes processing corresponding to FIG. 9 is a block diagram showing the functions of the image feature extraction device 1 according to one embodiment of the present invention, which executes processing corresponding to FIG.

図7に示す実施形態の燃焼炉7は、都市ゴミ又は産業廃棄物等を燃料Fgとするストーカ式のごみ焼却炉であり、画像特徴抽出装置1はごみ焼却炉の燃焼空間8の撮像画像Paを対象に画像抽出を行う。以下、ごみを燃焼する燃焼空間8(燃焼室)を備えるごみ焼却炉を燃焼炉7の例に本実施形態を説明するが、上述したように本実施形態に本発明は限定されず、ボイラ、IGCCにおける石炭をガス化するガス化炉などの燃料Fgを燃焼させる燃焼室を備える燃焼炉7であっても良い。ごみ焼却炉や、ボイラ、ガス火炉などは後述する上部7cおよび側壁部7sを有する点で共通しており、燃焼炉7がボイラやガス火炉の場合には、以下に記載された燃焼炉7をボイラやガス化炉に適宜読み替えるものとする。 The combustion furnace 7 of the embodiment shown in FIG. 7 is a stoker-type waste incinerator that uses municipal waste or industrial waste as fuel Fg. image extraction. Hereinafter, the present embodiment will be described as an example of a waste incinerator 7 having a combustion space 8 (combustion chamber) for burning waste, but the present invention is not limited to the present embodiment as described above. It may be a combustion furnace 7 having a combustion chamber for burning fuel Fg, such as a gasification furnace for gasifying coal in IGCC. A waste incinerator, a boiler, a gas furnace, etc. are common in that they have an upper portion 7c and a side wall portion 7s, which will be described later. Boiler and gasification furnace shall be read as appropriate.

図7に示すごみ焼却炉について説明すると、燃焼炉7において、燃料Fgは燃料供給口71から燃料押込装置72により炉内に押し込まれた後、燃焼空間8にある火格子73(ストーカ)上で乾燥、燃焼、おき燃焼され灰(燃焼灰)となり、灰は灰排出口74より炉外に排出される。また、燃焼炉7は、その炉内において、火格子73上において燃料Fgが火炎を上げて盛んに燃える主燃焼空間81a及びおき燃焼するおき燃焼空間81bからなる一次燃焼空間81と、火格子73の上方における未燃分の燃料を燃焼させる二次燃焼空間82とで構成される燃焼空間8を有する。燃料Fgの燃焼用気体Aは気体供給管77を通って炉内に供給されるが、ブロワーなどの気体供給装置76から第1気体流量調節弁77aを介して火格子73の下部から一次燃焼空間81に供給されるか、又は気体供給装置76から第2気体流量調節弁77bを介して燃焼炉7の側部から二次燃焼空間82に供給される。燃焼用気体Aの代表例は空気であるが可燃性気体であれば良いし、例えば一次燃焼空間81より排出されるEGRガス(燃焼排ガス)と所定の混合比で混合することにより燃焼用気体Aを生成しても良い。一方、燃料Fgが燃焼して生成される排ガスEは、排ガス通路91を通って排ガス処理装置92を経て煙突93から排出される。 Referring to the refuse incinerator shown in FIG. 7, in the combustion furnace 7, fuel Fg is pushed into the furnace from a fuel supply port 71 by a fuel push-in device 72, and then on a fire grate 73 (stoker) in the combustion space 8. Drying, combustion, and pre-combustion result in ash (combustion ash), which is discharged from the furnace through an ash discharge port 74 . In addition, the combustion furnace 7 includes a primary combustion space 81 consisting of a main combustion space 81a in which the fuel Fg flames and burns vigorously on a grate 73 and a secondary combustion space 81b in which the fuel Fg burns, and a grate 73. and a secondary combustion space 82 for burning unburned fuel above. Combustion gas A for fuel Fg is supplied into the furnace through a gas supply pipe 77, and is supplied from a gas supply device 76 such as a blower through a first gas flow control valve 77a to the primary combustion space from the lower part of the grate 73. 81, or supplied from the side of the combustion furnace 7 to the secondary combustion space 82 from the gas supply device 76 via the second gas flow control valve 77b. A typical example of the combustion gas A is air, but any combustible gas may be used. may be generated. On the other hand, the exhaust gas E generated by burning the fuel Fg is discharged from the stack 93 through the exhaust gas passage 91 and the exhaust gas treatment device 92 .

また、図7に示すように、燃焼炉7には、炉内を撮像するための撮像装置6が設置される。撮像装置6は、例えば動画像または静止画像の少なくとも一方が撮像可能な炉内カメラである。より具体的には、撮像装置6は、例えば、デジタルカメラ、ビデオカメラ、特定の波長を検知可能な赤外線カメラなどのカメラであっても良い。図7に示す実施形態では、撮像装置6は、一次燃焼空間81の上方(図7では直上部)に位置する燃焼炉7の上部7cに設置されており、燃焼状態を真上から撮像するように構成されている。ただし、本実施形態に本発明は限定されず、他の幾つかの実施形態では、撮像装置6は燃焼炉7の側壁部7sなど、燃焼炉7の上部7c以外の位置に設置されても良い。例えば、側壁部7sにおける二次燃焼空間82を形成する部分や、そのさらに上の部分(上部7cにより近い部分)に撮像装置6を設置すると共に、一次燃焼空間81が位置する下方を撮像するように斜め下に向けて設置されても良い。 Further, as shown in FIG. 7, the combustion furnace 7 is provided with an imaging device 6 for imaging the inside of the furnace. The imaging device 6 is, for example, an in-core camera capable of capturing at least one of a moving image and a still image. More specifically, the imaging device 6 may be, for example, a camera such as a digital camera, a video camera, or an infrared camera capable of detecting specific wavelengths. In the embodiment shown in FIG. 7, the imaging device 6 is installed in the upper part 7c of the combustion furnace 7 located above the primary combustion space 81 (right above in FIG. 7), so as to image the combustion state from directly above. is configured to However, the present invention is not limited to this embodiment, and in some other embodiments, the imaging device 6 may be installed at a position other than the upper portion 7c of the combustion furnace 7, such as the side wall portion 7s of the combustion furnace 7. . For example, the imaging device 6 is installed in the portion forming the secondary combustion space 82 in the side wall portion 7s and the portion further above it (the portion closer to the upper portion 7c) so as to image the lower side where the primary combustion space 81 is located. may be installed obliquely downward.

こうして撮像装置6によって撮像された燃料Fgの燃焼時の炉内の対象画像P(燃焼画像)は、撮像装置6に接続される記憶装置に記憶(蓄積)される。図7に示す実施形態では、画像特徴抽出装置1の記憶装置1mに記憶されるように構成されているが、他の幾つかの実施形態では、例えば、画像特徴抽出装置1とは別体の記憶装置に記憶されても良い。 The target image P (combustion image) in the furnace during combustion of the fuel Fg captured by the imaging device 6 is stored (accumulated) in a storage device connected to the imaging device 6 . In the embodiment shown in FIG. 7, it is configured to be stored in the storage device 1m of the image feature extraction device 1, but in some other embodiments, for example, It may be stored in a storage device.

そして、図8~図9に示すように、画像特徴抽出装置1は、前処理部2と、特徴量算出部3と、を備える。上記の機能部について、それぞれ説明する。
なお、画像特徴抽出装置1(後述する状態量推定装置5も同様)は、コンピュータで構成されており、図示しないCPU(プロセッサ)や、ROMやRAMといったメモリや外部記憶装置などとなる記憶装置1mを備えている。そして、メモリ(主記憶装置)にロードされたプログラム(燃焼画像処理プログラム)の命令に従ってCPUが動作(データの演算など)することで、画像特徴抽出装置1が備える上記の各機能部を実現する。換言すれば、上記のプログラムは、コンピュータに後述する各機能部を実現させるためのソフトウェアであり、コンピュータによる読み込みが可能な記憶媒体に記憶されても良い。
As shown in FIGS. 8 and 9, the image feature extraction device 1 includes a preprocessing section 2 and a feature amount calculation section 3. FIG. Each of the above functional units will be described.
The image feature extraction device 1 (similar to the state quantity estimation device 5 described later) is composed of a computer, and includes a CPU (processor) (not shown), a memory such as ROM and RAM, and a storage device 1m such as an external storage device. It has Then, the CPU operates (calculates data, etc.) in accordance with the instructions of the program (combustion image processing program) loaded in the memory (main storage device), thereby realizing each of the functional units provided in the image feature extraction device 1. . In other words, the above program is software for causing a computer to implement each functional unit described later, and may be stored in a computer-readable storage medium.

前処理部2は、上述した複数の対象画像Pの各々毎に、対象画像Pが有する輝度分布Hに基づいて、この輝度分布Hにおける輝度値の高低の差を増幅することによるコントラストの強調(明暗の差の強調)を通して、少なくとも1つの前処理後画像G(前述)を得る機能部である。前処理部2が実行する処理内容は、既に説明した前処理ステップ(S2)で行う内容と同様であるため、詳細は省略するが、前処理部2は、既に説明した各ステップである、輝度分布取得ステップ(S21)、閾値設定ステップ(S22)、およびコントラスト強調ステップ(S23)の各々で行う内容と同様の内容を実行する機能部である輝度分布取得部21、閾値設定部22、コントラスト強調部23を有していても良い。なお、前処理部2は、図8に示すように(図9では省略しているが同様に)、これらの機能部(21~23)に加えて、既に説明した差分画像生成ステップ(S24)で行う内容と同様の内容を実行する機能部である差分画像生成部24を、さらに備えていても良い。 Based on the luminance distribution H of each of the plurality of target images P described above, the preprocessing unit 2 enhances the contrast by amplifying the difference between the luminance values in the luminance distribution H ( A function that obtains at least one preprocessed image G (described above) through light-dark difference enhancement). The details of the processing performed by the preprocessing unit 2 are the same as those performed in the already described preprocessing step (S2), so the details will be omitted. Luminance distribution acquisition unit 21, threshold value setting unit 22, and contrast enhancement, which are functional units that execute the same contents as those performed in each of the distribution acquisition step (S21), threshold setting step (S22), and contrast enhancement step (S23). A portion 23 may be provided. In addition to these functional units (21 to 23), the preprocessing unit 2, as shown in FIG. 8 (not shown in FIG. 9, but similar), has the differential image generation step (S24) described above. A differential image generation unit 24, which is a functional unit that executes the same content as the content performed in 1, may be further provided.

特徴量算出部3は、少なくとも1つの前処理後画像Gから、流動場の時間的・空間的な変化の画像特徴を数値化した少なくとも1つの特徴量Fを算出する機能部である。特徴量算出部3が実行する処理内容は、既に説明した特徴量算出ステップ(S3)で行う内容と同様であるため、詳細は省略する。 The feature amount calculation unit 3 is a functional unit that calculates, from at least one preprocessed image G, at least one feature amount F obtained by quantifying image features of temporal and spatial changes in the flow field. The details of the processing performed by the feature quantity calculation unit 3 are the same as those performed in the feature quantity calculation step (S3) already described, and thus the details thereof are omitted.

図8~図9に示す実施形態では、画像特徴抽出装置1は、既に説明した対象画像取得ステップ(S1)が実行する内容と同様の内容を実行する機能部である対象画像取得部12をさらに備えており、対象画像取得部12によって取得された複数の対象画像Pが前処理部2に入力されるように構成されている。また、前処理部2は、特徴量算出部3に接続されており、前処理部2によって得られた前処理後画像Gが特徴量算出部3に入力されるように構成されている。 In the embodiment shown in FIGS. 8 and 9, the image feature extraction device 1 further includes a target image acquisition unit 12, which is a functional unit that executes the same content as the target image acquisition step (S1) already described. A plurality of target images P acquired by the target image acquisition unit 12 are input to the preprocessing unit 2 . The preprocessing unit 2 is also connected to the feature amount calculation unit 3 , and is configured such that the preprocessed image G obtained by the preprocessing unit 2 is input to the feature amount calculation unit 3 .

なお、幾つかの実施形態では、図8~図9に示すように、画像特徴抽出装置1は、入力された画像をグレースケール化するグレースケール化部14を、さらに備えていても良い。図8~図9に示す実施形態では、対象画像取得部12と前処理部2とは、グレースケール化部14を介して接続されており、対象画像取得部12によって取得された複数の対象画像Pがグレースケール化部14によってグレースケール化された後、前処理部2に入力されるように構成されている。よって、対象画像取得部12がカラー画像の複数の対象画像Pを取得した場合には、前処理部2には、グレースケール化部14による処理によってグレースケール化された複数の対象画像P(白黒画像)が入力されるようになる。他の幾つかの実施形態では、グレースケール化部14が撮像画像Paを取得してグレースケール化し、グレースケール化した撮像画像Paが対象画像取得部12に入力されるように構成しても良い。つまり、グレースケール化部14、対象画像取得部12、前処理部2が一列に並ぶように接続される。 Note that, in some embodiments, as shown in FIGS. 8 and 9, the image feature extraction device 1 may further include a grayscaling unit 14 that grayscales the input image. In the embodiment shown in FIGS. 8 and 9, the target image acquisition unit 12 and the preprocessing unit 2 are connected via the grayscaling unit 14, and multiple target images acquired by the target image acquisition unit 12 are After P is grayscaled by the grayscaling unit 14 , it is configured to be input to the preprocessing unit 2 . Therefore, when the target image acquisition unit 12 acquires a plurality of target images P of color images, the preprocessing unit 2 supplies a plurality of target images P (black and white images) converted to grayscale by the processing by the grayscaling unit 14 . image) will be input. In some other embodiments, the grayscaling unit 14 may acquire the captured image Pa and convert it into a grayscale, and the grayscaled captured image Pa may be input to the target image acquiring unit 12. . That is, the grayscaling unit 14, the target image acquiring unit 12, and the preprocessing unit 2 are connected in a row.

また、幾つかの実施形態では、図8に示すように、画像特徴抽出装置1は、既に説明した特徴量選択ステップ(S40)で行う内容と同様の内容を実行する機能部である特徴量選択部40を有していても良い。 Further, in some embodiments, as shown in FIG. 8, the image feature extraction apparatus 1 includes a feature amount selection function which is a functional unit that executes the same content as the feature amount selection step (S40) described above. You may have the part 40. FIG.

また、幾つかの実施形態では、図9に示すように、画像特徴抽出装置1は、既に説明した解析ステップ(S4)が実行する内容と同様の内容を実行する機能部である解析部4をさらに備えていても良い。なお、解析部4は、既に説明した平均化処理ステップ(S41)で行う内容と同様の内容を実行する機能部である平均化処理部41を有していても良い。あるいは、解析部4は、この平均化処理部41に加えて、既に説明した平均化特徴量選択ステップ(S42)で行う内容と同様の内容を実行する機能部である平均化特徴量選択部42を、さらに有していても良い。 Further, in some embodiments, as shown in FIG. 9, the image feature extraction device 1 includes an analysis unit 4, which is a functional unit that executes the same content as the analysis step (S4) already described. You may have more. Note that the analysis unit 4 may have an averaging processing unit 41 that is a functional unit that executes the same content as that performed in the averaging processing step (S41) already described. Alternatively, in addition to the averaging processing unit 41, the analysis unit 4 includes an averaged feature value selection unit 42 which is a functional unit that executes the same content as that performed in the averaged feature value selection step (S42) already described. may further have

本発明は上述した実施形態に限定されることはなく、上述した実施形態に変形を加えた形態や、これらの形態を適宜組み合わせた形態も含む。 The present invention is not limited to the above-described embodiments, and includes modifications of the above-described embodiments and modes in which these modes are combined as appropriate.

1 画像特徴抽出装置
1m 記憶装置
12 対象画像取得部
14 グレースケール化部
2 前処理部
21 輝度分布取得部
22 閾値設定部
23 コントラスト強調部
24 差分画像生成部
3 特徴量算出部
40 特徴量選択部
4 解析部
41 平均化処理部
42 平均化特徴量選択部
5 状態量推定装置
5m 記憶装置
51 特徴量取得部
52 推定モデル取得部
53 状態量推定部
55 表示装置
6 撮像装置
7 燃焼炉
7c 上部
7s 側壁部
71 燃料供給口
72 燃料押込装置
73 火格子
74 灰排出口
76 気体供給装置
77 気体供給管
77a 第1気体流量調節弁
77b 第2気体流量調節弁
8 燃焼空間
81 一次燃焼空間
81a 主燃焼空間
81b おき燃焼空間
82 二次燃焼空間
91 排ガス通路
92 排ガス処理装置
93 煙突
H 輝度分布
L 閾値
G 前処理後画像
F 特徴量
P 対象画像
R 単位領域
Rh 高輝度領域
Rl 暗部領域
M 推定モデル
S 状態量
A 燃焼用気体
E 排ガス
Fg 燃料
1 image feature extraction device 1m storage device 12 target image acquisition unit 14 grayscaling unit 2 preprocessing unit 21 luminance distribution acquisition unit 22 threshold setting unit 23 contrast enhancement unit 24 difference image generation unit 3 feature amount calculation unit 40 feature amount selection unit 4 analysis unit 41 averaging processing unit 42 average feature amount selection unit 5 state quantity estimation device 5m storage device 51 feature quantity acquisition unit 52 estimation model acquisition unit 53 state quantity estimation unit 55 display device 6 imaging device 7 combustion furnace 7c upper part 7s Side wall 71 Fuel supply port 72 Fuel pushing device 73 Fire grate 74 Ash discharge port 76 Gas supply device 77 Gas supply pipe 77a First gas flow control valve 77b Second gas flow control valve 8 Combustion space 81 Primary combustion space 81a Main combustion space 81b Separate combustion space 82 Secondary combustion space 91 Exhaust gas passage 92 Exhaust gas treatment device 93 Chimney H Luminance distribution L Threshold G Preprocessed image F Feature quantity P Target image R Unit region Rh High luminance region Rl Dark region M Estimation model S State quantity A Combustion gas E Exhaust gas Fg Fuel

Claims (11)

プロセッサによって実行される画像特徴抽出方法であって、
流動場を撮像することにより得られた処理対象となる複数の対象画像の各々毎に、前記対象画像が有する輝度分布に基づいて、前記輝度分布における輝度値の高低の差を増幅することによるコントラストの強調を通して、少なくとも1つの前処理後画像を得る前処理ステップと、
前記少なくとも1つの前処理後画像から、前記流動場の時間的・空間的な変化の画像特徴を数値化した少なくとも1つの特徴量を算出する特徴量算出ステップと、を備え、
前記画像特徴は複数種類の前記画像特徴を含み、
互いに異なる前記対象画像を含む、前記複数の対象画像の複数のセットを準備し、前記複数のセットに対して、それぞれ、前記前処理ステップおよび前記特徴量算出ステップを行うことによって得られる前記画像特徴の種類毎の前記特徴量の集合に対して、前記集合毎に平均化処理を実行する平均化処理ステップを備え
前記前処理ステップは、
前記複数の対象画像の各々の前記輝度分布に基づいて、前記複数の対象画像の各々に応じた前記輝度値の閾値を設定する閾値設定ステップと、
前記複数の対象画像の各々毎に、前記複数の対象画像の各々に応じた前記輝度値の閾値を用いて、前記コントラストの強調を実行するコントラスト強調ステップと、を有し、
前記コントラスト強調ステップは、
前記複数の対象画像の各々毎に、前記輝度分布を構成する複数の輝度値のうちの前記閾値よりも小さい輝度値を有する輝度値を、前記閾値よりも小さい所定値に変更し、且つ、前記複数の輝度値のうちの前記閾値以上の輝度値を有する輝度値を変更しないことを特徴とする画像特徴抽出方法。
A method for image feature extraction performed by a processor, comprising:
For each of a plurality of target images to be processed obtained by imaging a flow field, based on the brightness distribution of the target image, the contrast is obtained by amplifying the difference between the brightness values in the brightness distribution. a preprocessing step of obtaining at least one preprocessed image through enhancement of
a feature amount calculation step of calculating at least one feature amount obtained by quantifying image features of temporal and spatial changes in the flow field from the at least one preprocessed image;
The image features include multiple types of the image features,
The image features obtained by preparing a plurality of sets of the plurality of target images including the target images different from each other, and performing the preprocessing step and the feature amount calculation step on each of the plurality of sets. An averaging processing step of performing averaging processing for each set on the set of feature amounts for each type of
The pretreatment step includes
a threshold setting step of setting a threshold of the luminance value corresponding to each of the plurality of target images based on the luminance distribution of each of the plurality of target images;
a contrast enhancement step of performing the contrast enhancement using the brightness value threshold corresponding to each of the plurality of target images, for each of the plurality of target images;
The contrast enhancement step includes:
changing, for each of the plurality of target images, a luminance value having a luminance value smaller than the threshold among the plurality of luminance values forming the luminance distribution to a predetermined value smaller than the threshold; An image feature extraction method, characterized in that, among a plurality of luminance values, luminance values having a luminance value equal to or greater than the threshold value are not changed .
前記対象画像は、前記流動場を撮像した画像である撮像画像の一部の領域を構成する画像であることを特徴とする請求項1に記載の画像特徴抽出方法。 2. The image feature extraction method according to claim 1, wherein the target image is an image that constitutes a partial area of a captured image that is an image of the flow field. 前記撮像画像の一部の領域は前記撮像画像の中心に位置する領域を含むことを特徴とする請求項2に記載の画像特徴抽出方法。 3. The image feature extraction method according to claim 2, wherein the partial area of the captured image includes an area positioned at the center of the captured image. 前記輝度分布は、グレースケールの前記対象画像の前記輝度値の分布であることを特徴とする請求項1~3のいずれか1項に記載の画像特徴抽出方法。 The image feature extraction method according to any one of claims 1 to 3, wherein the luminance distribution is a distribution of the luminance values of the target image in grayscale. 前記前処理ステップは、
前記コントラスト強調ステップの後に、前記コントラストの強調が実行された2つの前記対象画像の差分画像を生成する差分画像生成ステップを、さらに有し、
前記差分画像生成ステップで生成される前記差分画像を前記前処理後画像として得ることを特徴とする請求項に記載の画像特徴抽出方法。
The pretreatment step includes
further comprising, after the contrast enhancement step, a differential image generating step of generating a differential image of the two target images on which the contrast enhancement has been performed;
2. The image feature extraction method according to claim 1 , wherein the differential image generated in the differential image generating step is obtained as the preprocessed image.
前記特徴量算出ステップは、
立体高次局所自己相関特徴法による処理を行うことによって、前記少なくとも1つの前処理後画像から前記少なくとも1つの特徴量を算出することを特徴とする請求項1~のいずれか1項に記載の画像特徴抽出方法。
The feature amount calculation step includes:
6. The method according to any one of claims 1 to 5 , wherein the at least one feature amount is calculated from the at least one preprocessed image by performing processing by a stereoscopic high-order local autocorrelation feature method. image feature extraction method.
前記特徴量算出ステップにより得られる複数の前記特徴量の中から前記少なくとも1つの特徴量を選択する特徴量選択ステップを、さらに備えることを特徴とする請求項1~のいずれか1項に記載の画像特徴抽出方法。 7. The method according to any one of claims 1 to 6 , further comprising a feature amount selection step of selecting said at least one feature amount from said plurality of feature amounts obtained by said feature amount calculation step. image feature extraction method. 前記平均化処理は、前記集合毎の移動平均を算出する処理、または前記集合毎の区間平均を算出する処理であることを特徴とする請求項1に記載の画像特徴抽出方法。 2. The image feature extraction method according to claim 1, wherein the averaging process is a process of calculating a moving average for each group or a process of calculating a section average for each group. 前記特徴量は、前記複数の対象画像で示される流動状態の状態量の推定に用いるためのものであり、
前記平均化処理された複数の前記特徴量の中から前記状態量の推定に対する寄与度が高い特徴量を選択する平均化特徴量選択ステップを、さらに備えることを特徴とする請求項1またはに記載の画像特徴抽出方法。
The feature quantity is for use in estimating the state quantity of the flow state indicated by the plurality of target images,
9. The method according to claim 1 or 8 , further comprising an averaged feature amount selection step of selecting a feature amount having a high degree of contribution to the estimation of the state amount from among the plurality of averaged feature amounts. The image feature extraction method described.
前記複数の対象画像は、焼却炉の炉内の同一の範囲を燃料の燃焼時に時間をずらして撮像した撮像画像の少なくとも一部を構成することを特徴とする請求項1~のいずれか1項に記載の画像特徴抽出方法。 10. The plurality of target images constitute at least part of captured images obtained by capturing the same range in the incinerator at different times during fuel combustion. The image feature extraction method according to the paragraph. 画像特徴抽出のための画像特徴抽出装置であって、
流動場を撮像することにより得られた処理対象となる複数の対象画像の各々毎に、前記対象画像が有する輝度分布に基づいて、前記輝度分布における輝度値の高低の差を増幅することによるコントラストの強調を通して、少なくとも1つの前処理後画像を得る前処理部と、
前記少なくとも1つの前処理後画像から、前記流動場の時間的・空間的な変化の画像特徴を数値化した少なくとも1つの特徴量を算出する特徴量算出部と、を備え、
前記画像特徴は複数種類の前記画像特徴を含み、
互いに異なる前記対象画像を含む、前記複数の対象画像の複数のセットを準備し、前記複数のセットに対して、それぞれ、前記前処理部および前記特徴量算出部によって得られる前記画像特徴の種類毎の前記特徴量の集合に対して、前記集合毎に平均化処理を実行する平均化処理部を備え
前記前処理部は、
前記複数の対象画像の各々の前記輝度分布に基づいて、前記複数の対象画像の各々に応じた前記輝度値の閾値を設定する閾値設定部と、
前記複数の対象画像の各々毎に、前記複数の対象画像の各々に応じた前記輝度値の閾値を用いて、前記コントラストの強調を実行するコントラスト強調部と、を有し、
前記コントラスト強調部は、
前記複数の対象画像の各々毎に、前記輝度分布を構成する複数の輝度値のうちの前記閾値よりも小さい輝度値を有する輝度値を、前記閾値よりも小さい所定値に変更し、且つ、前記複数の輝度値のうちの前記閾値以上の輝度値を有する輝度値を変更しないことを特徴とする画像特徴抽出装置。
An image feature extraction device for image feature extraction,
For each of a plurality of target images to be processed obtained by imaging a flow field, based on the brightness distribution of the target image, the contrast is obtained by amplifying the difference between the brightness values in the brightness distribution. a preprocessing unit that obtains at least one preprocessed image through enhancement of
a feature amount calculation unit that calculates at least one feature amount obtained by quantifying image features of temporal and spatial changes in the flow field from the at least one preprocessed image;
The image features include multiple types of the image features,
preparing a plurality of sets of the plurality of target images including the target images different from each other, and for each of the plurality of sets, each type of the image feature obtained by the preprocessing unit and the feature amount calculation unit; An averaging processing unit that performs an averaging process for each set of the feature amounts of
The pretreatment unit is
a threshold value setting unit that sets a threshold value of the luminance value corresponding to each of the plurality of target images based on the luminance distribution of each of the plurality of target images;
a contrast enhancement unit that performs the contrast enhancement using the brightness value threshold corresponding to each of the plurality of target images, for each of the plurality of target images;
The contrast enhancement unit
changing, for each of the plurality of target images, a luminance value having a luminance value smaller than the threshold among the plurality of luminance values forming the luminance distribution to a predetermined value smaller than the threshold; An image feature extracting apparatus characterized in that, among a plurality of luminance values, a luminance value having a luminance value equal to or greater than the threshold value is not changed .
JP2018168459A 2018-09-10 2018-09-10 Image feature extraction method and image feature extraction device Active JP7154537B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018168459A JP7154537B2 (en) 2018-09-10 2018-09-10 Image feature extraction method and image feature extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018168459A JP7154537B2 (en) 2018-09-10 2018-09-10 Image feature extraction method and image feature extraction device

Publications (2)

Publication Number Publication Date
JP2020042468A JP2020042468A (en) 2020-03-19
JP7154537B2 true JP7154537B2 (en) 2022-10-18

Family

ID=69798349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018168459A Active JP7154537B2 (en) 2018-09-10 2018-09-10 Image feature extraction method and image feature extraction device

Country Status (1)

Country Link
JP (1) JP7154537B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102430963B1 (en) * 2020-06-19 2022-08-09 인천대학교 산학협력단 Method of classification of sequential high-speed flame images based on deep learning of artificial neural networks
CN114018982B (en) * 2021-10-14 2023-11-07 国网江西省电力有限公司电力科学研究院 Visual monitoring method for dust deposit of air preheater

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000274675A (en) 1999-03-29 2000-10-03 Mitsubishi Heavy Ind Ltd Combustion method and combustor for combustion furnace
JP2004192555A (en) 2002-12-13 2004-07-08 Fuji Xerox Co Ltd Information management method, device and program
JP2005092346A (en) 2003-09-12 2005-04-07 National Institute Of Advanced Industrial & Technology Characteristic extraction method from three-dimensional data and device
WO2013100069A1 (en) 2011-12-27 2013-07-04 旭硝子株式会社 Method of picking up image inside furnace, system for picking up image inside furnace, and method of manufacturing glass goods
US20150298292A1 (en) 2012-11-05 2015-10-22 Element Six Abrasives S.A. A polycrystalline super hard construction and a method for making same
JP2017187228A (en) 2016-04-06 2017-10-12 日立造船株式会社 Stoker type incinerator

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2547190B2 (en) * 1993-10-25 1996-10-23 川崎重工業株式会社 Method and apparatus for monitoring slag flow in partial combustion furnace of coal
JPH08138058A (en) * 1994-11-15 1996-05-31 Kobe Steel Ltd Analysis moving image data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000274675A (en) 1999-03-29 2000-10-03 Mitsubishi Heavy Ind Ltd Combustion method and combustor for combustion furnace
JP2004192555A (en) 2002-12-13 2004-07-08 Fuji Xerox Co Ltd Information management method, device and program
JP2005092346A (en) 2003-09-12 2005-04-07 National Institute Of Advanced Industrial & Technology Characteristic extraction method from three-dimensional data and device
WO2013100069A1 (en) 2011-12-27 2013-07-04 旭硝子株式会社 Method of picking up image inside furnace, system for picking up image inside furnace, and method of manufacturing glass goods
US20150298292A1 (en) 2012-11-05 2015-10-22 Element Six Abrasives S.A. A polycrystalline super hard construction and a method for making same
JP2017187228A (en) 2016-04-06 2017-10-12 日立造船株式会社 Stoker type incinerator

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Qi Wang et al.,"Local entropy based pre-processing for flame images of alumina rotary kiln",2014 9th IEEE Conference on Industrial Electronics and Applications,米国,IEEE,2014年06月09日,pp.1476-1480
柳 漢呉、外2名,"画像処理法を用いた火花点火機関における火災伝播の解析",可視化情報学会誌,日本,(社)可視化情報学会,1992年01月15日,Vol.12, No.44,pp.36-44

Also Published As

Publication number Publication date
JP2020042468A (en) 2020-03-19

Similar Documents

Publication Publication Date Title
JP6824859B2 (en) In-core state quantity estimation device, estimation model creation device, their programs and methods
TWI421721B (en) A method for combustion flames diagnosis
JP7154537B2 (en) Image feature extraction method and image feature extraction device
JP4707605B2 (en) Image inspection method and image inspection apparatus using the method
CN109754019B (en) Method for continuously monitoring combustion condition of boiler
KR100862409B1 (en) The fire detection method using video image
CN104240429A (en) Method for monitoring forest fire by means of combination of infrared and multi-spectral wave bands
JP7403942B2 (en) Combustion field observation method, observation device, and observation program
Garami et al. Reaction zone monitoring in biomass combustion
CN113506285A (en) Boiler furnace three-dimensional temperature field detection method and device and computer equipment
JP7361649B2 (en) Dust measuring device and dust measuring method
JP7383531B2 (en) Monitoring device, monitoring system and monitoring method
TW201118317A (en) Vision-based method for combustion process monitoring, diagnosis, and computer-readable medium using the same
Gross et al. Infrared Borescopic Analysis of Ignition and Combustion Variability in a Heavy-Duty Natural-Gas Engine
JP2021038871A (en) Method of observing combustion field, observation device, and observation program
Wytrykus et al. Improving combustion process by using a high speed UV-sensitive camera
KR100370348B1 (en) Method and device for extracting flame image characteristics of burning diagnosis
JP7243491B2 (en) In-core monitoring device and in-core monitoring method
JP5203763B2 (en) Coal-fired boiler type identification device and coal-fired boiler type identification method
KR100711364B1 (en) An Exhaust Smoke Recognition and Auto-alarm Device and Method using Picture Image Analysis
JP2024041461A (en) Combustion diagnosis device, combustion diagnosis system and combustion diagnosis device program
CN115861636A (en) Burner flame stability quantitative detection method based on digital image processing
Rodrigues et al. Application of digital imaging techniques to flare monitoring
Liukkonen et al. Low-cost online system for detecting unburned fuel in a large industrial biomass-fired boiler
CN117455828A (en) Combustion quality detection method based on MLP neural network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220722

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220726

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220817

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220927

R150 Certificate of patent or registration of utility model

Ref document number: 7154537

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150