JP5956935B2 - Image processing method and image processing apparatus - Google Patents
Image processing method and image processing apparatus Download PDFInfo
- Publication number
- JP5956935B2 JP5956935B2 JP2013007301A JP2013007301A JP5956935B2 JP 5956935 B2 JP5956935 B2 JP 5956935B2 JP 2013007301 A JP2013007301 A JP 2013007301A JP 2013007301 A JP2013007301 A JP 2013007301A JP 5956935 B2 JP5956935 B2 JP 5956935B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- separated
- pixel
- color
- composite
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Waste-Gas Treatment And Other Accessory Devices For Furnaces (AREA)
- Image Processing (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Furnace Housings, Linings, Walls, And Ceilings (AREA)
Description
本発明は、概ね1000K以上の赤熱した高温部を含む対象物を観察するための画像処理方法及び画像処理装置に関する。 The present invention relates to an image processing method and an image processing apparatus for observing an object including a red hot part of approximately 1000K or more.
各種製鋼炉や溶鋼鍋等に採用される耐火煉瓦や不定形耐火物は、操業に伴って徐々に損傷する。このため、耐火煉瓦や不定形耐火物(以下、総称して「耐火物」という。)の損傷状態を観察し、損傷箇所があった場合には補修を行う必要がある。 Refractory bricks and irregular refractories used in various steelmaking furnaces and molten steel pans are gradually damaged with operation. For this reason, it is necessary to observe the damaged state of the refractory brick and the irregular refractory (hereinafter collectively referred to as “refractory”) and repair the damaged portion.
耐火物の損傷状態を観察するためには、高温部からの強い熱放射光を除去することが必要である。熱放射光を除去する技術としては、黒体輻射密度の比較的低い波長532nmの拡散レーザー光を炉内壁面に照射し、炉内壁面からの反射光をCCDカメラにより撮影する技術が知られている(例えば、特許文献1参照)。 In order to observe the damaged state of the refractory, it is necessary to remove intense heat radiation from the high temperature part. As a technique for removing heat radiation light, a technique is known in which a diffused laser beam having a wavelength of 532 nm, which has a relatively low black body radiation density, is irradiated on the inner wall surface of the furnace, and reflected light from the inner wall surface of the furnace is photographed with a CCD camera. (For example, refer to Patent Document 1).
また、被検体に放射線を照射し、被検体を透過した放射線をイメージインテンシファイヤで検出し、検出信号にRGB分離処理やバックグラウンドのリファレンス画像を引き算する処理等を施すことで、画像の視認性を高める技術が知られている(例えば、特許文献2参照)。 In addition, the image is visually recognized by irradiating the subject with radiation, detecting the radiation transmitted through the subject with an image intensifier, and subjecting the detection signal to RGB separation processing and subtraction of the background reference image. A technique for improving the property is known (see, for example, Patent Document 2).
しかしながら、特許文献1の技術はレーザー光源を必要とする。このため、特許文献1のような装置構成を実現するには、コストと手間を要する。 However, the technique of Patent Document 1 requires a laser light source. For this reason, in order to implement | achieve an apparatus structure like patent document 1, cost and an effort are required.
また、特許文献2の技術は、X(γ)線を用いて物質の破損等を把握する技術であって、測定対象物は人体等である。このため、赤熱した高温部を含む物を測定対象物としていない。また、特許文献2に記載のバックグラウンド除去技術は、バックグラウンドノイズ除去のために事前又は事後に撮影したリファレンス画像を引き算する処理であり、撮影した画像から得られたバックグランド信号を除去する処理ではない。 Moreover, the technique of patent document 2 is a technique of grasping | ascertaining the breakage | damage of a substance, etc. using a X ((gamma)) ray, Comprising: A measuring object is a human body etc. For this reason, the thing containing the red hot part is not made into the measuring object. Further, the background removal technique described in Patent Document 2 is a process of subtracting a reference image taken in advance or after the background noise removal, and a process of removing a background signal obtained from the taken image. is not.
更に特許文献2に記載のRGB分離処理は、X線透過の割合に応じてRGBの信号が同時に異なった状態で出力されるカラーイメージインテンシファイヤと組み合わせて利用した場合に、ダイナミックレンジを向上させる効果が得られるものであり、この装置構成以外において同様の効果を発揮するものではない。 Furthermore, the RGB separation process described in Patent Document 2 improves the dynamic range when used in combination with a color image intensifier that outputs RGB signals in different states at the same time according to the ratio of X-ray transmission. The effect is obtained, and the same effect is not exhibited except in the device configuration.
本発明が解決しようとする課題は、赤熱した高温部を含む対象物を容易かつ確実に観察することができる画像処理技術を提供することにある。 The problem to be solved by the present invention is to provide an image processing technique capable of easily and reliably observing an object including a red hot part.
本発明の一観点によれば、赤熱した高温部を含む対象物をカラー撮影する撮影工程と、前記撮影工程により撮影されたカラー撮影画像をRGBの3成分に分離して分離画像を生成する分離画像生成工程と、前記分離画像生成工程により分離された分離画像のそれぞれにおいて、分離画像内の各画素について当該画素を含む所定範囲内の画素群の平均輝度値を演算し、演算した平均輝度値を当該画素の輝度値から差し引くバックグラウンド信号除去処理工程と、前記バックグランド信号除去処理工程により処理された分離画像を合成して合成画像を生成する合成画像生成工程と、を含み、前記合成画像生成工程は、前記カラー撮影画像内の各画素について当該画素を含む所定範囲内の画素群の平均輝度値である分離前平均輝度値を演算し、演算した前記各画素の分離前平均輝度値の最大値及び最小値を算出し、前記各画素において、その画素の分離前平均輝度値が最大値に近いほど、B成分の分離画像の合成比率がR成分の分離画像の合成比率よりも多くなるように合成して前記合成画像を生成する画像処理方法が提供される。 According to an aspect of the present invention, a photographing process for color photographing an object including a red hot part, and a separation for generating a separated image by separating a color photographed image photographed by the photographing process into RGB three components In each of the image generation step and the separated image separated by the separated image generation step, the average luminance value of the pixel group within a predetermined range including the pixel is calculated for each pixel in the separated image, and the calculated average luminance value only contains the background signal removal processing steps subtracted from the luminance value of the pixel, and a combined image generation step of generating a synthesized and the synthesized image separation image processed by the background signal removal processing steps, the synthetic The image generation step calculates an average luminance value before separation, which is an average luminance value of a pixel group within a predetermined range including the pixel, for each pixel in the color photographed image. In addition, the maximum value and the minimum value of the average luminance value before separation of each pixel are calculated. In each pixel, as the average luminance value before separation of the pixel is closer to the maximum value, the composition ratio of the B component separated image becomes R There is provided an image processing method for generating the synthesized image by synthesizing it so as to be larger than the synthesis ratio of the separated images of components .
本発明の他の観点によれば、赤熱した高温部を含む対象物をカラー撮影する撮影手段と、前記撮影手段により撮影されたカラー撮影画像をRGBの3成分に分離して分離画像を生成する分離画像生成手段と、前記分離画像生成手段により分離された分離画像のそれぞれにおいて、分離画像内の各画素について当該画素を含む所定範囲内の画素群の平均輝度値を演算し、演算した平均輝度値を当該画素の輝度値から差し引くバックグラウンド信号除去処理手段と、前記バックグランド信号除去処理手段により処理された分離画像を組み合わせて合成画像を生成する合成画像生成手段と、を備え、前記合成画像生成手段は、前記カラー撮影画像内の各画素について当該画素を含む所定範囲内の画素群の平均輝度値である分離前平均輝度値を演算し、演算した前記各画素の分離前平均輝度値の最大値及び最小値を算出し、前記各画素において、その画素の分離前平均輝度値が最大値に近いほど、B成分の分離画像の合成比率がR成分の分離画像の合成比率よりも多くなるように合成して前記合成画像を生成する画像処理装置が提供される。 According to another aspect of the present invention, a photographing unit that performs color photographing of an object including a red hot part and a color photographing image photographed by the photographing unit are separated into RGB three components to generate a separated image. In each of the separated image generating unit and the separated image separated by the separated image generating unit, the average luminance value of the pixel group within the predetermined range including the pixel is calculated for each pixel in the separated image, and the calculated average luminance is calculated. It includes a background signal removal processing means for subtracting a value from the luminance value of the pixel, and a synthesized image generating means for generating a composite image by combining the separate image processed by the background signal elimination processing unit, the composite image The generation means calculates an average luminance value before separation, which is an average luminance value of a pixel group within a predetermined range including the pixel, for each pixel in the color photographed image. The maximum value and the minimum value of the calculated average luminance value before separation of each pixel are calculated. In each pixel, as the average luminance value before separation of the pixel is closer to the maximum value, the composition ratio of the B component separated image is higher. There is provided an image processing apparatus that generates the composite image by combining the R component separation images so as to be larger than the composite ratio .
本発明によれば、カラー撮影画像をRGBの3成分に分離して分離画像を生成後、その分離画像から平均輝度値に基づくバックグラウンド信号を除去することで、赤熱した高温部を含む対象物であっても、その表面状態を容易かつ確実に観察することができる。例えば、B成分の分離画像からバックグラウンド信号を除去した画像を参照することにより、高温部の亀裂剥離等を明瞭に確認することができる。また、例えば、R成分の分離画像からバックグランド信号を除去した画像を参照することにより、低温部の亀裂剥離等を明瞭に確認することができる。更に本発明の画像処理には特別な機器は不要であるので、過大なコストと手間を要することもない。 According to the present invention, after a color image is separated into three RGB components and a separated image is generated, a background signal based on the average luminance value is removed from the separated image, so that an object including a red hot part Even so, the surface state can be observed easily and reliably. For example, by referring to an image obtained by removing the background signal from the separated image of the B component, it is possible to clearly confirm the crack peeling at the high temperature portion. Further, for example, by referring to an image obtained by removing the background signal from the separated image of the R component, it is possible to clearly confirm the crack peeling at the low temperature portion. Furthermore, since no special equipment is required for the image processing of the present invention, excessive cost and labor are not required.
図1は、本発明の画像処理方法を実施する画像処理装置の構成例を示すブロック図である。 FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus that implements the image processing method of the present invention.
図1の画像処理装置は、対象物をカラー撮影する撮影手段と、その撮影手段により撮影されたカラー撮影画像を処理する画像処理部とからなる。 The image processing apparatus shown in FIG. 1 includes an imaging unit that performs color imaging of an object, and an image processing unit that processes a color image captured by the imaging unit.
撮影手段としてはデジタルカメラを用いることができ、そのデジタルカメラには、所定の波長域を透過する1種又は2種以上のフィルタを選択的に付加することができる。 A digital camera can be used as the photographing means, and one or more filters that transmit a predetermined wavelength range can be selectively added to the digital camera.
画像処理部は、メモリ手段と、分離画像生成手段、バックグラウンド信号除去処理手段、合成画像生成手段及びカラー画像生成手段からなる画像処理手段とを備えてなる。メモリ手段は、撮影手段により撮影されたカラー撮影画像のデータを保存し、そのカラー撮影画像のデータを画像処理手段に提供し、また、画像処理手段による画像処理後のデータを保存する機能を有する。また、画像処理手段である分離画像生成手段、バックグラウンド信号除去処理手段、合成画像生成手段及びカラー画像生成手段は、それぞれ後述する分離画像生成工程、バックグラウンド信号除去処理工程、合成画像生成工程及びカラー画像生成工程を実行する。これらの画像処理手段はCPUにて実現することができ、上述のメモリ手段と合わせて画像処理部は1台のコンピュータで実現することができる。 The image processing unit includes a memory unit and an image processing unit including a separated image generation unit, a background signal removal processing unit, a composite image generation unit, and a color image generation unit. The memory means stores color photographed image data photographed by the photographing means, provides the color photographed image data to the image processing means, and has a function of saving data after image processing by the image processing means. . Further, the separated image generating means, the background signal removing processing means, the synthesized image generating means, and the color image generating means, which are image processing means, are respectively a separated image generating process, a background signal removing process process, a synthesized image generating process, and A color image generation process is executed. These image processing means can be realized by a CPU, and the image processing unit can be realized by a single computer together with the memory means described above.
図2Aは図1の画像処理装置による画像処理方法の各工程を示すフロー図である。以下、図1及び図2Aを参照して各工程を説明する。 FIG. 2A is a flowchart showing each step of the image processing method by the image processing apparatus of FIG. Hereinafter, each process is demonstrated with reference to FIG.1 and FIG.2A.
(A)撮影工程(図2Aの(A1))
撮影手段(デジタルカメラ)により、赤熱した高温部を含む対象物をカラー撮影し、そのカラー撮影画像のデータをメモリ手段に保存する。撮影手段には、必要に応じて、所定の波長域を透過する光学フィルタを付加することができる。
(A) Shooting process ((A1) in FIG. 2A)
The photographing means (digital camera) takes a color photograph of an object including a hot red part, and the data of the color photographed image is stored in the memory means. If necessary, an optical filter that transmits a predetermined wavelength range can be added to the imaging means.
光学フィルタとしては、例えば赤熱時に放射光が強く発生する500nm以上の波長域を遮断するものを使用することができる。このような光学フィルタを有する撮影手段により撮影されたカラー撮影画像を使用することにより、光学フィルタを使用しない場合と比較して赤熱部の観察を容易にする効果が得られる。 As the optical filter, for example, an optical filter that cuts off a wavelength range of 500 nm or more where emitted light is strongly generated at the time of red heat can be used. By using a color photographed image photographed by the photographing means having such an optical filter, an effect of facilitating observation of the red hot part can be obtained as compared with the case where the optical filter is not used.
(B)分離画像生成工程(図2Aの(B1))
分離画像生成手段により、上述の撮影工程により撮影されたカラー撮影画像を、RGBの3成分に分離して分離画像を生成する。
(B) Separation image generation process ((B1) in FIG. 2A)
The separated image generating means generates a separated image by separating the color photographed image photographed in the above photographing process into RGB three components.
本発明においてカラー撮影画像をRGBの3成分に分離する技術的意義は以下のとおりである。 The technical significance of separating a color photographed image into three RGB components in the present invention is as follows.
赤熱した対象物から発せられる放射光の強度はプランクの式により計算することができる。図3は、計算により求めた各温度における波長と放射光の強度(分光放射発散度)との関係を示している。同じ温度でも波長によって放射光の強度が異なることが確認できる。 The intensity of synchrotron radiation emitted from a red-hot object can be calculated by the Planck equation. FIG. 3 shows the relationship between the wavelength at each temperature obtained by calculation and the intensity of the emitted light (spectral radiation divergence). It can be confirmed that the intensity of the emitted light varies depending on the wavelength even at the same temperature.
カラーのデジタルカメラでは、イメージセンサに設けられたカラーフィルタやプリズム等により入射光を赤(R)、緑(G)、青(B)に分離して処理するが、赤熱した対象物から発せられる放射光をRGBに分離すると、700K〜3000Kの温度域においては、必ず赤、緑、青の順に強度が大きいことが図3から確認できる。このため、カラー撮影画像において、赤画像は青画像と比較して放射光が強い信号で処理される。 In a color digital camera, incident light is separated into red (R), green (G), and blue (B) by a color filter, a prism, or the like provided in the image sensor, and emitted from a red-hot object. When the radiated light is separated into RGB, it can be confirmed from FIG. 3 that the intensity increases in the order of red, green, and blue in the temperature range of 700K to 3000K. For this reason, in a color photographed image, the red image is processed with a signal that emits more intense light than the blue image.
赤熱した高温部(赤熱領域)を含むカラー撮影画像において赤熱領域が観察しにくくなっている場合、赤画像では赤熱領域内の輝度値は輝度範囲の最大値付近を取っており、赤熱領域内には輝度変化がほとんどない場合が多い。同じカラー撮影画像において、青画像では青色の放射光の強度が赤色よりも弱いために、赤熱領域内にも対象物の表面状態の違いによる輝度変化が得られることが多い。なお、緑画像では一般に赤画像と青画像の中間的な特性が得られるが、これは緑色の放射光の強度が赤色と青色の中間に位置するためである。 When it is difficult to observe a red-hot area in a color image that includes a hot red-hot part (red-hot area), the luminance value in the red-hot area is close to the maximum value of the luminance range in the red image. In many cases, there is almost no change in luminance. In the same color photographed image, since the intensity of blue radiated light is weaker than that of red in a blue image, a luminance change due to a difference in the surface state of the object is often obtained in the red heat region. In general, an intermediate characteristic between a red image and a blue image can be obtained with a green image, because the intensity of the emitted green light is located between red and blue.
赤熱領域を含むカラー撮影画像における低温領域は、逆に赤画像で観察すると表面状態を把握しやすい場合が多い。低温領域が観察しにくいのは、赤熱領域の輝度が高いために、低温領域は一般に輝度が不足気味となることが理由である。対象物からの光は放射光と反射光であり、それらを合わせた光の強度がセンサで感知されて画像として記録されるが、放射光は青よりも赤が強いために、青画像よりも赤画像のほうが低温領域の輝度が高くなる。このため、低温領域は赤画像で観察すると表面状態を把握しやすい。 On the contrary, the low temperature region in the color photographed image including the red heat region is often easy to grasp the surface state when observed with the red image. The reason why it is difficult to observe the low temperature region is that the luminance in the low temperature region is generally insufficient because the luminance in the red region is high. The light from the object is radiated light and reflected light, and the intensity of the combined light is sensed by the sensor and recorded as an image. The red image has higher brightness in the low temperature region. For this reason, it is easy to grasp the surface state when the low temperature region is observed with a red image.
このように、カラー撮影画像をRGBの3成分に分離することで、B成分の分離画像を参照することにより赤熱領域の表面状態を明瞭に確認することができ、R成分の分離画像を参照することにより低温領域の表面状態を明瞭に確認することができる。 In this way, by separating the color photographed image into three RGB components, the surface state of the red-hot region can be clearly confirmed by referring to the B component separated image, and the R component separated image is referred to. Thus, the surface state of the low temperature region can be clearly confirmed.
(C)バックグラウンド信号除去工程(図2Aの(C1)及び(C2))
バックグラウンド信号除去手段により、上述の分離画像生成工程により分離された分離画像のそれぞれにおいて、分離画像内の各画素について当該画素を含む所定範囲内の画素群の平均輝度値を演算してメモリ手段に保存し(図2Aの(C1))、演算した平均輝度値を当該画素の輝度値(初期輝度値)から差し引く(図2Aの(C2)。すなわち、各分離画像内の全ての画素について当該初期輝度値から当該平均輝度値を差し引くバックグラウンド信号除去処理を行う。なお、平均輝度値を演算する際の「所定範囲」については、例えば当該画素を中心とする半径(画素数)として予め設定しておく。
(C) Background signal removal step ((C1) and (C2) in FIG. 2A)
Memory means for calculating an average luminance value of a pixel group within a predetermined range including the pixel for each pixel in the separated image in each of the separated images separated by the above-described separated image generation step by the background signal removing means (C1 in FIG. 2A), and the calculated average luminance value is subtracted from the luminance value (initial luminance value) of the pixel ((C2) in FIG. 2A. That is, for all the pixels in each separated image, A background signal removal process for subtracting the average luminance value from the initial luminance value is performed, and the “predetermined range” for calculating the average luminance value is set in advance as a radius (number of pixels) centered on the pixel, for example. Keep it.
なお、多くの画像で利用されている8bit又は16bitの符号なし表現を出力画像としてバックグラウンド信号除去処理を行うと、値が負になり情報が欠落する場合がある。この場合、バックグラウンド信号除去処理と同時に全ての画素に同一のオフセット量を加算して情報の欠落が起こらないようにする。オフセット量は、画像の状態から判断して任意に決めてよいが、多くの場合は処理対象の画像が表示可能な最大輝度の半分程度、すなわち8bit符号なしの場合には128,16bit符号なしの場合には32768程度にすればよい。 When background signal removal processing is performed using an 8-bit or 16-bit unsigned expression used in many images as an output image, the value may be negative and information may be lost. In this case, the same offset amount is added to all the pixels simultaneously with the background signal removal process so that no information is lost. The offset amount may be arbitrarily determined by judging from the state of the image, but in many cases, it is about half of the maximum brightness that the image to be processed can be displayed. In that case, it may be about 32768.
このバックグラウンド信号除去処理の効果は次のとおりである。カラー撮影画像(元画像)では、平均輝度が高い領域と低い領域の違いを表現するために広い輝度幅が使われている。この平均輝度の違いは対象物の温度差が反映されたものであり、高温及び低温の各領域内の表面状態を把握するには不用な信号である。バックグラウンド信号除去処理を行うことで、上述の表面状態の把握には不用な信号が除去され、その結果、高温及び低温の各領域内の輝度の違いを拡大して表現することが可能となり、各領域内のコントラストを大幅に向上することが可能となる。 The effect of this background signal removal process is as follows. In a color photographed image (original image), a wide luminance width is used to express a difference between a region with a high average luminance and a region with a low average luminance. This difference in average luminance reflects the temperature difference of the object, and is an unnecessary signal for grasping the surface state in each region of high temperature and low temperature. By performing background signal removal processing, signals unnecessary for grasping the above-described surface state are removed, and as a result, it is possible to expand and express the difference in brightness in each region of high temperature and low temperature, The contrast in each region can be greatly improved.
なお、図2Aのフローでは、バックグラウンド信号除去工程後の分離画像について、高温及び低温の各領域内での輝度の違いを確認しやすくするために、コントラストを調整する処理を行う。コントラスト(増幅割合)は予め設定しておく。ただし、コントラストを調整する処理は省略可能である。 In the flow of FIG. 2A, a process for adjusting the contrast is performed on the separated image after the background signal removal step in order to make it easy to confirm the difference in luminance between the high temperature region and the low temperature region. The contrast (amplification ratio) is set in advance. However, the process of adjusting the contrast can be omitted.
(D)合成画像生成工程(図2Aの(D1)又は(D2))
合成画像生成手段により、上述のバックグランド信号除去処理工程により処理された分離画像を合成して合成画像を生成する。この合成画像の生成において、RGBそれぞれの分離画像の合成比率(ブレンド比(RGB比))の決定方法は、固定型(図2Aの(D1))と、輝度値依存型(図2Aの(D2))とがある。
(D) Composite image generation step ((D1) or (D2) in FIG. 2A)
The synthesized image generation unit generates a synthesized image by synthesizing the separated images processed in the background signal removal process described above. In the generation of the composite image, the determination method of the composite ratio (blend ratio (RGB ratio)) of each of the RGB separated images is determined according to a fixed type ((D1) in FIG. 2A) and a luminance value dependent type ((D2 in FIG. 2A). )).
固定型では、予め設定された特定(固定)のRGB比でRGBの分離画像を合成して合成画像を生成する。 In the fixed type, a combined image is generated by combining RGB separated images with a predetermined (fixed) RGB ratio.
一方、輝度値依存型では、各画素の輝度値に応じて画素毎にRGB比を変動させる。その具体的な手順は以下のとおりである。 On the other hand, in the luminance value dependent type, the RGB ratio is changed for each pixel according to the luminance value of each pixel. The specific procedure is as follows.
まず、メモリ手段に保存されたRGB分離前のカラー撮影画像内の各画素(x,y)について当該画素(x,y)を含む所定範囲内の画素群の平均輝度値である分離前平均輝度値(va(x,y))を演算し、この演算した各画素の分離前平均輝度値(va(x,y))の最大値(vamax)及び最小値(vamin)を算出する(ここで、(x,y)は画素の位置を特定するカラー撮影画像内のx,y座標値である。)。そして、各画素(x,y)において、その画素の分離前平均輝度値(va(x,y))が最大値(vamax)に近いほど、B成分の分離画像の合成比率(cB(x,y))がR成分の分離画像の合成比率(cR(x,y))よりも多くなるように合成して合成画像を生成する。言い換えれば、各画素(x,y)において、その画素の分離前平均輝度値(va(x,y))が最小値(vamin)に近いほど、R成分の分離画像の合成比率(cR(x,y))がB成分の分離画像の合成比率(cB(x,y))よりも多くなるように合成して合成画像を生成する。G成分の分離画像の合成比率(cG(x,y))については予め設定された一定値とする。 First, for each pixel (x, y) in the color-captured image before RGB separation stored in the memory means, the average luminance value before separation, which is an average luminance value of a pixel group within a predetermined range including the pixel (x, y) The value (va (x, y)) is calculated, and the maximum value (vamax) and the minimum value (vamin) of the calculated average luminance value (va (x, y)) before separation of each pixel are calculated (here (X, y) are x, y coordinate values in the color photographed image that specify the position of the pixel.) Then, in each pixel (x, y), as the average luminance value (va (x, y)) before separation of the pixel is closer to the maximum value (vamax), the B component separated image composition ratio (cB (x, y, The composite image is generated by combining so that y)) is larger than the composite ratio (cR (x, y)) of the R component separated image. In other words, in each pixel (x, y), the composite ratio (cR (x) of the R component separated image becomes larger as the pre-separation average luminance value (va (x, y)) of the pixel is closer to the minimum value (vamin). , y)) are combined so as to be larger than the combined ratio (cB (x, y)) of the B component separated images to generate a combined image. The composition ratio (cG (x, y)) of the G component separated images is set to a predetermined constant value.
より具体的には、B成分の分離画像の合成比率(cB(x,y))及びR成分の分離画像の合成比率(cR(x,y))は、例えば以下の関係式により決定する。
cB(x,y)=(va(x,y)-vamin)/(vamax-vamin)
cR(x,y) = 1-cB
More specifically, the composition ratio (cB (x, y)) of the B component separated image and the composition ratio (cR (x, y)) of the R component separated image are determined by the following relational expression, for example.
cB (x, y) = (va (x, y) -vamin) / (vamax-vamin)
cR (x, y) = 1-cB
この関係式に基づくB成分及びR成分の合成比率は図4のようになる。図4の横軸は各画素の分離前平均輝度値(va(x,y))を最大値(vamax)を100として正規化した後の分離前平均輝度値を示し、縦軸はB成分及びR成分の合成比率を示す。 The combination ratio of the B component and the R component based on this relational expression is as shown in FIG. The horizontal axis of FIG. 4 shows the average luminance value before separation after normalizing the average luminance value (va (x, y)) of each pixel as the maximum value (vamax) as 100, and the vertical axis shows the B component and The synthesis ratio of R component is shown.
なお、上記関係式では図4に示すようにB成分及びR成分の合成比率を線形的に変化させているが、その画素の分離前平均輝度値(va(x,y))が最大値(vamax)に近いほど、B成分の分離画像の合成比率(cB(x,y))がR成分の分離画像の合成比率(cR(x,y))よりも多くなるように合成するという条件を満たせば線形的に変化させる必要はなく、例えば指数関数的に変化させてもよい。ただし、演算処理の単純化の点では、図4のように線形的に変化させることが好ましい。 In the above relational expression, as shown in FIG. 4, the combination ratio of the B component and the R component is linearly changed, but the average luminance value (va (x, y)) before the separation of the pixel is the maximum value ( The condition that the composition ratio (cB (x, y)) of the B component separated image is larger than the composition ratio (cR (x, y)) of the R component separated image is closer to vamax). If it satisfies, it is not necessary to change linearly, for example, it may be changed exponentially. However, in terms of simplification of arithmetic processing, it is preferable to change linearly as shown in FIG.
このように、合成画像生成工程により、上述のバックグランド信号除去処理工程により処理された分離画像を合成して合成画像を生成することで、B成分の分離画像による高温部(赤熱領域)の表面状態と低温領域の表面状態とを一枚の画像で容易に確認することができる。特に、上述の輝度値依存型により合成する場合は、領域(画素)毎に適したバランスでR成分とB成分を合成することが可能となり、合成比率を一定とするよりも、より一層表面状態を把握しやすい画像を得ることができる。 As described above, the synthesized image is generated by synthesizing the separated images processed by the background signal removal process described above by the synthesized image generating process, thereby generating the surface of the high temperature part (red hot region) by the separated image of the B component. The state and the surface state of the low temperature region can be easily confirmed with a single image. In particular, when combining by the above-described luminance value dependent type, it becomes possible to combine the R component and the B component with a balance suitable for each region (pixel), and the surface state is much more than when the combining ratio is constant. Can be obtained.
(E)カラー画像生成工程(図2Aの(E1))
カラー画像生成手段により、上述の合成画像生成工程により生成された合成画像に、撮影手段で撮影したカラー撮影画像(元画像)を所定の組み込み比率で組み合わせてカラー画像を生成する。元画像の組み込み比率は予め設定しておく。
(E) Color image generation process ((E1) in FIG. 2A)
The color image generation unit generates a color image by combining the composite image generated by the above-described composite image generation step with the color captured image (original image) captured by the capturing unit at a predetermined incorporation ratio. The incorporation ratio of the original image is set in advance.
このように合成画像に元画像を組み合わせて得られたカラー画像を参照することで、ユーザは対象物の構成や位置関係を容易に把握することができる。すなわち、合成画像には元画像のカラー情報や高温部と低温部との相対的な輝度変化が含まれないので、ユーザは対象物の構成や位置関係を把握することが難しい。合成画像に元画像を所定の組み込み比率で組み合わせることで、元画像のカラー情報や高温部と低温部との相対的な輝度変化が組み込まれるので、ユーザは対象物の構成や位置関係を容易に把握することができる。 Thus, by referring to the color image obtained by combining the original image with the composite image, the user can easily grasp the configuration and positional relationship of the target object. That is, since the synthesized image does not include color information of the original image and a relative luminance change between the high temperature portion and the low temperature portion, it is difficult for the user to grasp the configuration and positional relationship of the target object. By combining the original image with the composite image at a predetermined incorporation ratio, the color information of the original image and the relative luminance change between the high temperature part and the low temperature part are incorporated, so the user can easily configure the configuration and positional relationship of the target object. I can grasp it.
以上説明した図2Aのフローでは、撮影工程において得た単一のカラー撮影画像を処理するようにしたが、本発明では、撮影工程において撮影条件を変更して複数のカラー撮影画像を得、これらのカラー撮影画像を処理するようにすることもできる。そのときのフローを図2Bに示す。 In the flow of FIG. 2A described above, a single color photographed image obtained in the photographing process is processed. However, in the present invention, a plurality of color photographed images are obtained by changing photographing conditions in the photographing process. It is also possible to process color photographed images. The flow at that time is shown in FIG. 2B.
まず、撮影工程では第1ループにより複数のカラー撮影画像をメモリ手段に保存する。具体的には、同一の撮影手段(デジタルカメラ)を用いて同じ視野でシャッター速度、絞り、感度、光学フィルタ条件等の撮影条件を変更して撮影した複数のカラー撮影画像を得、これを処理対象とするためにメモリ手段に保存する。なお、上記の「光学フィルタ条件」の変更とは、光学フィルタの使用の有無及び光学フィルタの種類の変更による光学フィルタ条件の変更のことをいう。 First, in the photographing process, a plurality of color photographed images are stored in the memory means by the first loop. Specifically, using the same shooting means (digital camera), obtain multiple color images taken with the same field of view and changing the shooting conditions such as shutter speed, aperture, sensitivity, and optical filter conditions. Save to memory means for targeting. The change in the “optical filter condition” means a change in the optical filter condition due to the use of the optical filter and the change in the type of the optical filter.
次に、第2ループにより、撮影工程で得られた複数のカラー撮影画像のそれぞれについて、図2Aで説明した「(B)分離画像生成工程」、「(C)バックグラウンド信号除去工程」及び「(D)合成画像生成工程」を実行し、複数の合成画像を生成する。そして、生成された複数の合成画像を、予め設定された比率(ブレンド比)で合成して第2合成画像を生成する(第2合成画像生成工程)。このブレンド比はユーザにより任意に設定できるが、カラー撮影画像を目視確認した場合に、例えば高温領域など観察したい領域内のコントラストが大きい画像について比率を大きくするとよい結果が得られやすい。 Next, for each of a plurality of color photographed images obtained in the photographing process by the second loop, the “(B) separated image generating step”, “(C) background signal removing step” and “ (D) A composite image generation step ”is executed to generate a plurality of composite images. Then, a plurality of generated composite images are combined at a preset ratio (blend ratio) to generate a second composite image (second composite image generation step). This blend ratio can be arbitrarily set by the user. However, when a color photographed image is visually confirmed, it is easy to obtain a good result by increasing the ratio for an image having a large contrast in a region to be observed such as a high temperature region.
最後に、図2Aで説明した「(E)カラー画像生成工程」により、上述の第2合成画像に、撮影工程で撮影したカラー撮影画像(元画像)を所定の組み込み比率で組み合わせてカラー画像を生成する。このとき、カラー撮影画像は複数あるので、それらのカラー撮影画像から任意の1つ又は複数のカラー撮影画像を任意の割合で合成した画像を元画像として使用することができる。 Finally, by the “(E) color image generation step” described in FIG. 2A, a color image is obtained by combining the above-described second composite image with the color photographed image (original image) photographed in the photographing step at a predetermined incorporation ratio. Generate. At this time, since there are a plurality of color photographed images, an image obtained by combining any one or a plurality of color photographed images from these color photographed images at an arbitrary ratio can be used as the original image.
このように、撮影条件を変更した複数のカラー撮影画像を使用可能とすることで、例えば撮影条件の変更により平均輝度が低くなるように調整すると高温領域が観察しやすいカラー撮影画像が得られ、逆に平均輝度が低くなるように調整すると低温領域が観察しやすいカラー撮影画像が得られ、これらの平均輝度の異なる複数の画像をカラー撮影画像として処理することにより、広い温度域について観察に適した処理を行うことができる。 In this way, by making it possible to use a plurality of color photographed images whose photographing conditions are changed, for example, a color photographed image in which a high-temperature region can be easily observed can be obtained by adjusting the average luminance to be low by changing the photographing conditions. Conversely, if the average brightness is adjusted to be low, a color photographed image that allows easy observation of the low-temperature region is obtained. By processing multiple images with different average brightness as a color photographed image, it is suitable for observation over a wide temperature range. Can be processed.
図1の画像処理装置を使用して図2Aのフローに従って、対象物としてコークス炉の炉壁を観察した。 The furnace wall of the coke oven was observed as an object according to the flow of FIG. 2A using the image processing apparatus of FIG.
図5は、撮影工程で撮影されたカラー撮影画像の一例を示す。ただし、図5は実際のカラー撮影画像をグレースケールに変換したものである。このカラー撮影画像は、図6に示す位置関係で配置されたデジタルカメラによりカラー撮影されたもので、図5及び図6にはそれぞれ対応する部位を記載している。なお、この撮影工程ではデジタルカメラに内蔵された赤外線カットフィルタを用いている。 FIG. 5 shows an example of a color photographed image photographed in the photographing process. However, FIG. 5 shows an actual color photograph image converted to gray scale. This color photographed image is color photographed by a digital camera arranged in the positional relationship shown in FIG. 6, and corresponding portions are shown in FIGS. 5 and 6, respectively. In this photographing process, an infrared cut filter built in the digital camera is used.
図7は、分離画像生成工程により図5のカラー撮影画像(元画像)をRGBの3成分に分離した分離画像を示し、(a)はR成分の分離画像(R画像)、(b)はG成分の分離画像(G画像)、(c)はB成分の分離画像(B画像)を示す。 FIG. 7 shows a separated image obtained by separating the color photographed image (original image) of FIG. 5 into three RGB components in the separated image generation step, where (a) is an R component separated image (R image), and (b) is a separated image. G component separated images (G images) and (c) show B component separated images (B images).
図8は、バックグラウンド信号除去処理工程により、図7の各分離画像においてバックグラウンド信号除去処理を実行した後の分離画像を示し、(a)はR成分の分離画像(R画像)、(b)はG成分の分離画像(G画像)、(c)はB成分の分離画像(B画像)を示す。このバックグラウンド信号除去処理工程において各分離画像内の各画素の平均輝度値を演算する際の「所定範囲」は当該画素を中心として半径30画素の円の範囲とした。 FIG. 8 shows a separated image after the background signal removal process is performed on each separated image of FIG. 7 by the background signal removal processing step, and (a) shows an R component separated image (R image), (b) ) Shows a separated image (G image) of the G component, and (c) shows a separated image (B image) of the B component. In this background signal removal processing step, the “predetermined range” when calculating the average luminance value of each pixel in each separated image is a circle range with a radius of 30 pixels centering on the pixel.
図8(c)のB画像を参照すると、図5の元画像では確認できない損傷部が確認できる。なお、このB画像のみからは損傷部であることは判断が難しい場合もあるが、定期的に同箇所を撮影し経時変化を観察することでより確実に判断できる。いずれにしても、図8(c)のB画像を参照すると、図5の元画像では確認できない炉壁高温部(赤熱領域)の表面状態を確認できる。同様に図8(a)のR画像を参照すると、図5の元画像では確認できない炉壁低温部の表面状態を確認できる。 Referring to the B image in FIG. 8C, a damaged portion that cannot be confirmed in the original image in FIG. 5 can be confirmed. Although it may be difficult to determine from the B image alone that it is a damaged part, it can be determined more reliably by periodically photographing the same part and observing changes over time. In any case, referring to the B image in FIG. 8C, the surface state of the furnace wall high temperature portion (red hot region) that cannot be confirmed in the original image in FIG. 5 can be confirmed. Similarly, referring to the R image of FIG. 8A, the surface state of the furnace wall low temperature portion that cannot be confirmed in the original image of FIG. 5 can be confirmed.
図9は、合成画像生成工程により図8の各分離画像を合成して得られた合成画像を示す。この合成画像生成工程では、各分離画像の合成比率(RGB比)をR画像:0.3、G画像:0.1、B画像:0.6とした上述の固定型により各分離画像を合成した。図9を参照すると、図8(c)のB画像による炉壁高温部の表面状態と図8(a)のR画像による炉壁低温部の表面状態とを一枚の画像で容易に確認することができる。 FIG. 9 shows a combined image obtained by combining the separated images of FIG. 8 in the combined image generation process. In this composite image generation step, each separated image is synthesized by the above-described fixed type in which the synthesis ratio (RGB ratio) of each separated image is R image: 0.3, G image: 0.1, and B image: 0.6. did. Referring to FIG. 9, the surface state of the furnace wall high temperature portion based on the B image in FIG. 8C and the surface state of the furnace wall low temperature portion based on the R image in FIG. be able to.
図10は、カラー画像生成工程により図9の合成画像に図5の元画像を組み合わせて得られたカラー画像を示す。ただし、図10は実際のカラー画像をグレースケールに変換したものである。このカラー画像生成工程において元画像の組み込み比率は0.05(5%)とした。図10を参照すると、図9に比べ対象物(コークス炉)の構成や位置関係を容易に把握することができる。 FIG. 10 shows a color image obtained by combining the original image of FIG. 5 with the composite image of FIG. 9 in the color image generation process. However, FIG. 10 shows an actual color image converted to a gray scale. In this color image generation step, the incorporation ratio of the original image was set to 0.05 (5%). Referring to FIG. 10, the configuration and positional relationship of the object (coke oven) can be easily grasped as compared with FIG. 9.
Claims (6)
前記撮影工程により撮影されたカラー撮影画像をRGBの3成分に分離して分離画像を生成する分離画像生成工程と、
前記分離画像生成工程により分離された分離画像のそれぞれにおいて、分離画像内の各画素について当該画素を含む所定範囲内の画素群の平均輝度値を演算し、演算した平均輝度値を当該画素の輝度値から差し引くバックグラウンド信号除去処理工程と、
前記バックグランド信号除去処理工程により処理された分離画像を合成して合成画像を生成する合成画像生成工程と、
を含み、
前記合成画像生成工程は、
前記カラー撮影画像内の各画素について当該画素を含む所定範囲内の画素群の平均輝度値である分離前平均輝度値を演算し、演算した前記各画素の分離前平均輝度値の最大値及び最小値を算出し、前記各画素において、その画素の分離前平均輝度値が最大値に近いほど、B成分の分離画像の合成比率がR成分の分離画像の合成比率よりも多くなるように合成して前記合成画像を生成する画像処理方法。 A shooting process for color shooting of an object including a high-temperature part that is red hot,
A separated image generating step of generating a separated image by separating the color photographed image photographed in the photographing step into three components of RGB;
In each of the separated images separated by the separated image generation step, an average luminance value of a pixel group within a predetermined range including the pixel is calculated for each pixel in the separated image, and the calculated average luminance value is calculated as the luminance of the pixel. A background signal removal process to be subtracted from the value;
A combined image generating step of generating a combined image by combining the separated images processed by the background signal removal processing step;
Only including,
The composite image generation step includes
For each pixel in the color photographed image, an average luminance value before separation, which is an average luminance value of a pixel group within a predetermined range including the pixel, is calculated, and the maximum and minimum average luminance values before separation of the calculated pixels are calculated. A value is calculated and combined in each pixel so that the composite ratio of the B component separated image is larger than the composite ratio of the R component separated image as the average luminance value before separation of the pixel is closer to the maximum value. An image processing method for generating the composite image .
撮影手段のシャッター速度、絞り、感度及び光学フィルタ条件の少なくとも1つを変更して撮影した複数の画像を前記カラー撮影画像とし、
前記合成画像生成工程は、
前記撮影工程により撮影された複数のカラー撮影画像のそれぞれに対して合成画像を生成し、
前記合成画像生成工程により生成された複数の合成画像を、予め設定された比率で合成して第2合成画像を生成する第2合成画像生成工程を含む請求項1に記載の画像処理方法。 The photographing process includes
A plurality of images taken by changing at least one of the shutter speed, aperture, sensitivity, and optical filter conditions of the photographing means are the color photographed images,
The composite image generation step includes
Generating a composite image for each of a plurality of color photographed images photographed in the photographing step;
The image processing method according to claim 1 , further comprising a second composite image generation step of generating a second composite image by combining the plurality of composite images generated by the composite image generation step at a preset ratio.
前記撮影手段により撮影されたカラー撮影画像をRGBの3成分に分離して分離画像を生成する分離画像生成手段と、
前記分離画像生成手段により分離された分離画像のそれぞれにおいて、分離画像内の各画素について当該画素を含む所定範囲内の画素群の平均輝度値を演算し、演算した平均輝度値を当該画素の輝度値から差し引くバックグラウンド信号除去処理手段と、
前記バックグランド信号除去処理手段により処理された分離画像を組み合わせて合成画像を生成する合成画像生成手段と、
を備え、
前記合成画像生成手段は、
前記カラー撮影画像内の各画素について当該画素を含む所定範囲内の画素群の平均輝度値である分離前平均輝度値を演算し、演算した前記各画素の分離前平均輝度値の最大値及び最小値を算出し、前記各画素において、その画素の分離前平均輝度値が最大値に近いほど、B成分の分離画像の合成比率がR成分の分離画像の合成比率よりも多くなるように合成して前記合成画像を生成する画像処理装置。 Photographing means for color-taking an object including a red hot part,
A separated image generating means for generating a separated image by separating a color photographed image photographed by the photographing means into three components of RGB;
In each of the separated images separated by the separated image generating means, an average luminance value of a pixel group within a predetermined range including the pixel is calculated for each pixel in the separated image, and the calculated average luminance value is calculated as the luminance of the pixel. Background signal removal processing means to subtract from the value;
Combined image generation means for generating a combined image by combining the separated images processed by the background signal removal processing means;
Equipped with a,
The composite image generation means includes
For each pixel in the color photographed image, an average luminance value before separation, which is an average luminance value of a pixel group within a predetermined range including the pixel, is calculated, and the maximum and minimum average luminance values before separation of the calculated pixels are calculated. A value is calculated and combined in each pixel so that the composite ratio of the B component separated image is larger than the composite ratio of the R component separated image as the average luminance value before separation of the pixel is closer to the maximum value. An image processing device that generates the composite image .
シャッター速度、絞り、感度及び光学フィルタ条件の少なくとも1つを変更して撮影した複数の画像を前記カラー撮影画像とし、
前記合成画像生成手段は、
前記撮影手段により撮影された複数のカラー撮影画像のそれぞれに対して合成画像を生成し、
前記合成画像生成手段により生成された複数の合成画像を、予め設定された比率で合成して第2合成画像を生成する第2合成画像生成手段を備える請求項4に記載の画像処理装置。 The photographing means includes
A plurality of images captured by changing at least one of shutter speed, aperture, sensitivity, and optical filter conditions are referred to as the color image,
The composite image generation means includes
Generating a composite image for each of a plurality of color photographed images photographed by the photographing means;
5. The image processing apparatus according to claim 4 , further comprising: a second composite image generation unit configured to generate a second composite image by combining a plurality of composite images generated by the composite image generation unit at a preset ratio.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013007301A JP5956935B2 (en) | 2013-01-18 | 2013-01-18 | Image processing method and image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013007301A JP5956935B2 (en) | 2013-01-18 | 2013-01-18 | Image processing method and image processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014137780A JP2014137780A (en) | 2014-07-28 |
JP5956935B2 true JP5956935B2 (en) | 2016-07-27 |
Family
ID=51415226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013007301A Active JP5956935B2 (en) | 2013-01-18 | 2013-01-18 | Image processing method and image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5956935B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111434494A (en) * | 2019-01-11 | 2020-07-21 | 海德堡印刷机械股份公司 | Missing nozzle detection in printed images |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6120270B2 (en) * | 2013-02-07 | 2017-04-26 | シャープ株式会社 | Image analysis apparatus, image analysis method, and program |
JP7403942B2 (en) | 2018-05-07 | 2023-12-25 | 一般財団法人電力中央研究所 | Combustion field observation method, observation device, and observation program |
WO2024128181A1 (en) * | 2022-12-12 | 2024-06-20 | Jfeスチール株式会社 | Oven-wall temperature distribution measurement system, oven-wall abnormality diagnosis system, coke-oven operating method, and coke-oven repairing method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6471384A (en) * | 1987-09-11 | 1989-03-16 | Sumitomo Metal Ind | High-temperature furnace wall surface observing device |
JP4137015B2 (en) * | 2004-06-30 | 2008-08-20 | キヤノン株式会社 | Image processing apparatus and method |
JP2006287623A (en) * | 2005-03-31 | 2006-10-19 | Sharp Corp | Input image correction device, method, and program, image processor, image formation apparatus, and recording medium |
JP5828663B2 (en) * | 2011-04-21 | 2015-12-09 | キヤノン株式会社 | Image processing apparatus and image processing apparatus control method |
-
2013
- 2013-01-18 JP JP2013007301A patent/JP5956935B2/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111434494A (en) * | 2019-01-11 | 2020-07-21 | 海德堡印刷机械股份公司 | Missing nozzle detection in printed images |
CN111434494B (en) * | 2019-01-11 | 2021-12-17 | 海德堡印刷机械股份公司 | Missing nozzle detection in printed images |
US11752775B2 (en) | 2019-01-11 | 2023-09-12 | Heidelberger Druckmaschinen Ag | Method for determining print defects in a printing operation carried out on an inkjet printing machine for processing a print job |
Also Published As
Publication number | Publication date |
---|---|
JP2014137780A (en) | 2014-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10521901B2 (en) | Image processing apparatus | |
US10231600B2 (en) | Image processing apparatus | |
US9468356B2 (en) | Lesion evaluation information generator, and method and computer readable medium therefor | |
EP3263011A1 (en) | Image processing device | |
JP5956935B2 (en) | Image processing method and image processing apparatus | |
JP2009104547A (en) | Image processing apparatus, image processing system and image processing program | |
JP2020501158A (en) | Blast furnace taphole temperature measurement device | |
TWI465702B (en) | Non-contact temperature measurung method | |
JP2019196845A (en) | Method for observing combustion field, observing device and observing program | |
JP2012008058A (en) | Temperature measurement device | |
WO2017090366A1 (en) | Endoscope system and photographing method | |
KR102576496B1 (en) | 3-Dimensional Modeling Method and Apparatus using thereof | |
JP2012143464A (en) | White balance adjustment system and endoscope processor | |
JP4873788B2 (en) | Detection method of furnace conditions | |
CN106716991B (en) | Infrared pick-up device, image processing method and recording medium | |
JP2021038871A (en) | Method of observing combustion field, observation device, and observation program | |
JP2017179598A (en) | Furnace bottom tuyere safety evaluation method for bottom blowing converter, furnace bottom tuyere service life extension method and operation method of bottom blowing converter | |
JP2857701B2 (en) | Method and apparatus for measuring firing state | |
JP2011095110A (en) | Apparatus and method for estimation of light source | |
JP2010179023A (en) | Image processing method and apparatus | |
JP4289973B2 (en) | Color correction device for quantifying cataract symptoms based on color image data of cataract eye obtained from slit lamp microscope | |
JP2021039065A (en) | Temperature distribution measurement method and measuring device | |
JP2016067779A (en) | Endoscope system, processor device, method for operating endoscope system, and method for operating processor device | |
JP2007240164A (en) | Infrared two-wavelength processing method | |
JP4016113B2 (en) | Two-wavelength infrared image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150327 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160315 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160524 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160617 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5956935 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |