JPH08138169A - Device and method for detecting flame - Google Patents

Device and method for detecting flame

Info

Publication number
JPH08138169A
JPH08138169A JP30155694A JP30155694A JPH08138169A JP H08138169 A JPH08138169 A JP H08138169A JP 30155694 A JP30155694 A JP 30155694A JP 30155694 A JP30155694 A JP 30155694A JP H08138169 A JPH08138169 A JP H08138169A
Authority
JP
Japan
Prior art keywords
flame
image data
image
flame detection
installation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP30155694A
Other languages
Japanese (ja)
Other versions
JP3053159B2 (en
Inventor
Shintaro Nomura
慎太郎 野村
Satoshi Tsuchiya
悟志 土屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nittan Co Ltd
Original Assignee
Nittan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nittan Co Ltd filed Critical Nittan Co Ltd
Priority to JP6301556A priority Critical patent/JP3053159B2/en
Publication of JPH08138169A publication Critical patent/JPH08138169A/en
Application granted granted Critical
Publication of JP3053159B2 publication Critical patent/JP3053159B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Fire-Detection Mechanisms (AREA)

Abstract

PURPOSE: To surely and correctly detect information such as the scale and location, etc., of flame by using the visual field angle and arrangement condition of an image pick-up means in an image processing calculation at the time of executing the image processing calculation concerning flame detection. CONSTITUTION: The device is provided with an image pick-up part 1 picking-up an image within the range of visual field angle, an arrangement condition input part 2 inputting the arrangement condition of the image pick-up part 1, an arithmetic part 3 executing the image processing calculation concerning flame detection based on picked-up image data, an output part 4 outputting flame detection result and a power source part 5 supplying a power source. In this case, the arrangement condition input part 2 any be constituted as a distance meter which automatically measures the height (h) of the image pick-up part 1 or/and an inclination meter which automatically measures the inclination angle θ (θx , θy ) of the image pick-up part 1 to the vertical direction. Then, these measure instruments are previously fixed to the image pick-up part 1 and the output from the measure instruments are inputted to the arithmetic part 3, so that the arrangement condition are automatically inputted.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、炎を検出する炎検出装
置および炎検出方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a flame detecting device and a flame detecting method for detecting a flame.

【0002】[0002]

【従来の技術】従来、火災を検知する装置として、例え
ば特開平1−251297号に示されているような火災
検知装置が知られている。この火災検知装置は、図15
に示すように、炎40からの光を検出する受光素子列
(CCD)10と、上記炎40と上記受光素子列10との
間に設けられたスリットマスク50とを有しており、各
受光素子からの各データのうち所定レベル以上のものが
あるか否かを判断し、所定レベル以上のデータがあれ
ば、そのデータに基づくパターンが火災パターン認識の
対象であるか否かを判断し(通常の炎は、8Hz程度の
ちらつきを有しているので、この周波数に基づいて火災
パターン認識の対象か否かを判断し)、炎と判断したと
きには、上記スリットマスク50と上記受光素子列10
との間の距離と、上記受光素子列10上の上記炎40の
端部位置Q7〜P7,Q8〜P8とに応じて、上記炎4
0までの距離を求め、また、このようにして求めた上記
炎40の端部a,bまでの距離に基づいて、さらに、上
記炎40の幅Wを求め、この炎の幅Wが所定量WC以上
である状態が所定時間持続するとき、警報を出力するよ
うになっている。なお、図15において、符号51はス
リットであり、符号52は赤外線フィルタである。
2. Description of the Related Art Conventionally, as a device for detecting a fire, for example, a fire detecting device as disclosed in JP-A-1-251297 has been known. This fire detection device is shown in FIG.
As shown in, a light receiving element array for detecting light from the flame 40
It has a (CCD) 10 and a slit mask 50 provided between the flame 40 and the light receiving element array 10, and whether or not each data from each light receiving element has a predetermined level or more. If there is data of a predetermined level or more, it is determined whether or not the pattern based on the data is the target of fire pattern recognition (because normal flame has a flicker of about 8 Hz, Based on this frequency, it is judged whether or not it is a target of fire pattern recognition), and when it is judged as a flame, the slit mask 50 and the light receiving element array 10
The flame 4 according to the distance between the flame 40 and the end positions Q7 to P7 and Q8 to P8 of the flame 40 on the light receiving element array 10.
The distance W to 0 is obtained, and the width W of the flame 40 is further calculated based on the distance to the ends a and b of the flame 40 thus obtained. When the state of being WC or higher continues for a predetermined time, an alarm is output. In FIG. 15, reference numeral 51 is a slit, and reference numeral 52 is an infrared filter.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上述し
た従来の火災検知装置では、受光素子列(CCD)10の
前面にスリットマスク50を設ける必要があり、炎40
からの距離および炎の幅Wを検出するのにスリットマス
ク50と受光素子列10との間の距離を用いなければな
らないので、炎を確実に検出するためには、スリットマ
スク50,すなわちスリット51に相当の加工精度が要
求され、また、スリットマスク50の受光素子列10に
対する位置および距離の設定等が僅かにずれただけでも
炎に関する情報を正確に検出することができなくなるな
どの問題があった。
However, in the above-described conventional fire detection device, it is necessary to provide the slit mask 50 on the front surface of the light receiving element array (CCD) 10 and the flame 40
Since it is necessary to use the distance between the slit mask 50 and the light receiving element array 10 to detect the distance from the flame and the width W of the flame, in order to reliably detect the flame, the slit mask 50, that is, the slit 51. However, there is a problem in that it is not possible to accurately detect the information regarding the flame even if the setting of the position and distance of the slit mask 50 with respect to the light receiving element array 10 is slightly deviated. It was

【0004】本発明は、炎を撮像して炎に関する情報を
検知する場合に、スリットマスクなどを設置したりせず
とも、炎に関する情報を常に安定して確実かつ正確に検
出することの可能な炎検出装置および炎検出方法を提供
することを目的としている。
According to the present invention, when a flame is imaged to detect information about the flame, the information about the flame can always be detected stably, reliably and accurately without installing a slit mask or the like. An object is to provide a flame detection device and a flame detection method.

【0005】[0005]

【課題を解決するための手段および作用】上記目的を達
成するために、本発明は、所定の視野角の範囲の画像を
所定の撮像手段により撮像した画像データに基づき、炎
の検出に関する画像処理演算を行なう際、この画像処理
演算において、撮像手段の視野角と撮像手段の設置条件
とを用いるようになっている。これにより、スリットマ
スクなどを設置したりせずとも、撮像手段の視野角と設
置条件だけにより、炎に関する情報,具体的には炎の規
模や位置などの情報を確実かつ正確に検出することがで
きる。
In order to achieve the above object, the present invention provides an image processing relating to flame detection based on image data obtained by capturing an image in a range of a predetermined viewing angle by a predetermined image pickup means. When performing the calculation, the viewing angle of the image pickup means and the installation condition of the image pickup means are used in this image processing calculation. As a result, it is possible to reliably and accurately detect information about the flame, specifically, information such as the scale and position of the flame, only by the viewing angle of the imaging means and the installation conditions without installing a slit mask or the like. it can.

【0006】[0006]

【実施例】以下、本発明の実施例を図面に基づいて説明
する。図1は本発明に係る炎検出装置の一実施例の構成
図である。図1を参照すると、本実施例の炎検出装置
は、所定の視野角を有し、該視野角の範囲の画像を撮像
する撮像部1と、該撮像部1の設置条件を入力する設置
条件入力部2と、撮像部1により撮像された画像データ
に基づき炎の検出に関する画像処理演算を行なう演算部
3と、炎の検出結果を出力する出力部4と、電源を供給
する電源部5とを有している。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of an embodiment of a flame detection device according to the present invention. Referring to FIG. 1, the flame detection device according to the present exemplary embodiment has an imaging unit 1 that has a predetermined viewing angle and that captures an image in the viewing angle range, and an installation condition that inputs installation conditions of the imaging unit 1. An input unit 2, an arithmetic unit 3 that performs image processing arithmetic relating to flame detection based on image data captured by the image capturing unit 1, an output unit 4 that outputs a flame detection result, and a power supply unit 5 that supplies power. have.

【0007】図1の例では、撮像部1は、撮像素子(例
えばCCDセンサなど)11と、所定の視野角(画角)を
有する光学手段(例えば光学レンズ)12とを有してい
る。図2には、撮像素子11としてのCCDセンサに光
学レンズ12が組み込まれた撮像部1の具体例(平面図)
が示されている。なお、図2において、光学レンズ12
とCCDセンサ11とは重なり合った状態で示されてい
る。また、図2において、符号13は動作灯であり、C
CDセンサ11に電源部5から電源が供給され、CCD
センサ11が作動しているときに、作動灯13が点灯す
るようになっている。
In the example of FIG. 1, the image pickup section 1 has an image pickup element (for example, CCD sensor) 11 and an optical means (for example, optical lens) 12 having a predetermined viewing angle (angle of view). FIG. 2 shows a specific example (plan view) of the image pickup unit 1 in which the optical lens 12 is incorporated in the CCD sensor as the image pickup element 11.
It is shown. In FIG. 2, the optical lens 12
And the CCD sensor 11 are shown as overlapping. Further, in FIG. 2, reference numeral 13 is an operating light, and
Power is supplied to the CD sensor 11 from the power supply unit 5, and the CCD
When the sensor 11 is operating, the operating light 13 is turned on.

【0008】また、太陽光などによる影響を抑え、炎の
みを確実に撮像するため、撮像部1には、例えば図3に
示すような赤外透過特性をもつフィルタ(例えばシャー
プカットフィルタ;フィルタ番号IR−82,IR−8
4,IR−86,IR−88,またはIR−90)がさ
らに設けられているのが良い。図4は主に紫外,可視領
域の炎(ガス炎)と太陽光の分光特性を示す図であり、図
4からわかるように、紫外,可視領域では、炎(ガス炎)
は、太陽光に比べて相対感度(相対強度)が低い。また、
図5は赤外領域の炎の分光特性を示す図であり、図5か
ら、炎(炎から放射される光)は、4.3μmの波長のと
ころに最大の相対強度をもつことがわかる。従って、図
4,図5の分光特性から、例えば800〜1000nm
よりも短かい波長の光をカットし、800〜1000n
mよりも長い波長の光を透過する図3に示すようなフィ
ルタが設けられていることで、太陽光等の影響を抑えて
炎の画像を得ることができる。このようなフィルタは、
例えば光学手段(光学レンズ)12と撮像素子(CCDセ
ンサ)11との間に設けられても良いし、あるいは、光
学手段(光学レンズ)12上にコーティングされて設けら
れていても良い。
Further, in order to suppress the influence of sunlight or the like and reliably capture only the flame, the image pickup unit 1 has a filter (for example, a sharp cut filter; a filter number) having an infrared transmission characteristic as shown in FIG. IR-82, IR-8
4, IR-86, IR-88, or IR-90) may be further provided. FIG. 4 is a diagram mainly showing a flame (gas flame) in the ultraviolet and visible regions and a spectral characteristic of sunlight, and as can be seen from FIG. 4, a flame (gas flame) in the ultraviolet and visible regions.
Has a lower relative sensitivity (relative intensity) than sunlight. Also,
FIG. 5 is a diagram showing the spectral characteristics of the flame in the infrared region. From FIG. 5, it can be seen that the flame (light emitted from the flame) has the maximum relative intensity at a wavelength of 4.3 μm. Therefore, from the spectral characteristics of FIGS. 4 and 5, for example, 800 to 1000 nm
800-1000n by cutting light of shorter wavelength than
By providing the filter as shown in FIG. 3 that transmits light having a wavelength longer than m, it is possible to suppress the influence of sunlight or the like and obtain a flame image. Such filters are
For example, it may be provided between the optical means (optical lens) 12 and the image pickup element (CCD sensor) 11, or may be provided by coating on the optical means (optical lens) 12.

【0009】図6は建物内の部屋の一例を示す透視図で
あって、撮像部1は、図6に示すように、例えば、建物
内の所定の部屋101の天井102あるいは壁面103
の高い位置などに設置されるようになっており、撮像素
子11によって撮像される画面は、光学レンズ12の視
野角(画角)と撮像部1の設置条件(部屋101の床10
4からの撮像部1の高さh,および撮像部1の設置角度
(傾き角度)θ)とによって定められる。従って、部屋1
01内の所望の監視区域を監視しようとする場合、光学
レンズ12に所定の視野角のものを用い、また、部屋1
01内の所定の位置に所定の角度θで撮像部1を予め設
置する必要がある。
FIG. 6 is a perspective view showing an example of a room in a building. As shown in FIG. 6, the image pickup unit 1 is, for example, a ceiling 102 or a wall surface 103 of a predetermined room 101 in the building.
The image picked up by the image pickup device 11 is installed at a high position, and the viewing angle (angle of view) of the optical lens 12 and the installation condition of the image pickup unit 1 (the floor 10 of the room 101).
4, the height h of the image pickup unit 1 from 4 and the installation angle of the image pickup unit 1
(Tilt angle) θ). Therefore, room 1
When a desired surveillance area in 01 is to be monitored, an optical lens 12 having a predetermined viewing angle is used, and the room 1
It is necessary to previously install the image pickup unit 1 at a predetermined position in 01 at a predetermined angle θ.

【0010】図7(a),(b)はそれぞれ図6のx軸方
向,y軸方向の断面図であり、図7(a),(b)には、部
屋101内の所望の監視区域105を監視するように、
所定の視野角θ0x0,θy0)をもつ撮像部1が所定の
位置に所定の傾き角度(鉛直線zからの傾き角度)θ
x,θy)で設置された状態が示されている。なお、θ
x,θyはそれぞれ傾き角度θのx軸方向成分,y軸方向
成分であり、θx0,θy0はそれぞれ視野角θ0のx軸方
向成分,y軸方向成分である。
7 (a) and 7 (b) are cross-sectional views in the x-axis direction and the y-axis direction of FIG. 6, respectively. FIGS. 7 (a) and 7 (b) show the desired monitoring area in the room 101. To monitor 105,
The imaging unit 1 having a predetermined viewing angle θ 0x0 , θ y0 ) has a predetermined tilt angle (a tilt angle from the vertical line z) θ at a predetermined position.
The installation state is shown at (θ x , θ y ). Note that θ
x and θ y are the x-axis direction component and the y-axis direction component of the tilt angle θ, and θ x0 and θ y0 are the x-axis direction component and the y-axis direction component of the viewing angle θ 0 , respectively.

【0011】また、図8には、撮像部1が図7(a),
(b)に示すように設置されたときに、CCDセンサ11
によって撮像された画面の一例が示されている。図8の
例では、この画面は、例えば、CCDセンサの画素数
(素子数)N×Mに対応させて、x軸方向,y軸方向にそ
れぞれN個,M個(例えば60個,60個)の画素に分け
られている。すなわち、撮像された画面の1画素がCC
Dセンサの1画素に対応したものとなっている。
Further, in FIG. 8, the image pickup unit 1 is shown in FIG.
When installed as shown in (b), the CCD sensor 11
An example of a screen imaged by is shown. In the example of FIG. 8, this screen is, for example, the number of pixels of the CCD sensor.
Corresponding to (number of elements) N × M, the pixel is divided into N and M (for example, 60 and 60) pixels in the x-axis direction and the y-axis direction, respectively. That is, one pixel of the imaged screen is CC
It corresponds to one pixel of the D sensor.

【0012】なお、CCDセンサには、数10万画素程
度の高解像度のものから、数10画素程度の低解像度の
ものがあり、これらのいずれのものをも用いることがで
きる。この場合、低解像度のCCDセンサを用いるとき
には、このCCDセンサの各画素の出力をそのまま処理
対象である画像データとすることができ、この場合、画
面の各画素は、上述のように、CCDセンサの各画素と
一対一対応となる。また、高解像度のCCDセンサを用
いるときには、このCCDセンサの各画素出力をそのま
ま処理対象である画像データとすることもできるが、以
後の画像処理を簡単なものとするため、撮像部1におい
てあるいは演算部3において、CCDセンサの複数の画
素出力をまとめて(例えばこれら複数の画素出力の平均
をとって)、1画素としたものを画像データとすること
もできる。例えば、CCDセンサが64×64画素,す
なわち4096画素のものである場合、4画素を1画素
に圧縮することで(例えば4画素のレベルの平均値をと
って、これを1画素のレベルにすることで)、16×1
6画素,すなわち256画素の画像データとなり、画像
処理に要する時間を短縮することができる。但し、その
分、解像度は低下する。
CCD sensors include those with a high resolution of several hundreds of thousands of pixels to those with a low resolution of several tens of pixels, and any of these can be used. In this case, when a low-resolution CCD sensor is used, the output of each pixel of this CCD sensor can be directly used as the image data to be processed, and in this case, each pixel of the screen is as described above. Each pixel has a one-to-one correspondence. Further, when a high-resolution CCD sensor is used, each pixel output of this CCD sensor can be directly used as image data to be processed, but in order to simplify the subsequent image processing, in the image pickup unit 1 or In the arithmetic unit 3, a plurality of pixel outputs of the CCD sensor may be collected (for example, by taking the average of the plurality of pixel outputs) to form one pixel as image data. For example, when the CCD sensor has 64 × 64 pixels, that is, 4096 pixels, by compressing 4 pixels into 1 pixel (for example, taking the average value of the levels of 4 pixels and setting this as the level of 1 pixel) 16 × 1)
Since the image data has 6 pixels, that is, 256 pixels, the time required for image processing can be shortened. However, the resolution decreases accordingly.

【0013】演算部3は、このように撮像された画面を
例えば定期的に(一定の時間間隔Tで)監視し、基本的に
は、現時点の画面の画像データと前時点の画面の画像デ
ータとを比較し、現時点の画面の画像データと前時点の
画面の画像データとの間に変化した部分があるときに、
この変化した部分が炎であるか否か(例えば火災による
炎であるか否か)の判断処理等を行なうようになってい
る。
The arithmetic unit 3 monitors the screen imaged in this manner, for example, periodically (at a constant time interval T), and basically, the image data of the current screen and the image data of the previous screen. , And when there is a changed part between the image data of the current screen and the image data of the previous screen,
A determination process is performed to determine whether or not the changed portion is a flame (for example, a flame caused by a fire).

【0014】図1の例では、演算部3は、撮像部1から
のアナログ画像データ(すなわち例えばCCDセンサ1
1の各画素出力)に対し、アナログ−デジタル変換を行
なうA/D変換器20と、デジタル変換された画像デー
タに基づき上記監視処理,判断処理等を行なうプロセッ
サ(CPU)21と、プロセッサ21の処理プログラム等
が記憶されているROM22と、プロセッサ21のワー
クエリアとして機能するRAM23とを有し、上記処理
に用いられる現時点の画面の画像データ,前時点の画面
の画像データなどはRAM23に格納されるようになっ
ている。
In the example shown in FIG. 1, the arithmetic unit 3 has analog image data (that is, for example, the CCD sensor 1) from the image pickup unit 1.
A / D converter 20 that performs analog-to-digital conversion for each pixel output (1), a processor (CPU) 21 that performs the above-described monitoring processing, determination processing, and the like based on digitally converted image data, and a processor 21. It has a ROM 22 in which a processing program and the like are stored and a RAM 23 which functions as a work area of the processor 21, and the image data of the current screen used in the above processing, the image data of the screen at the previous time, etc. are stored in the RAM 23. It has become so.

【0015】なお、上記A/D変換器20は、プロセッ
サ21の処理能力等に応じ、アナログ画像データを所定
の閾値により2値のデジタル画像データに変換する機能
を有しているものであっても良いし、アナログ画像デー
タを例えば焦点座標位置の輝度(階調レベル)を閾値とし
て多値のデジタル画像データに変換する機能を有するも
のであっても良い。すなわち、プロセッサ21が多値の
デジタル画像データに対する処理能力を有している場合
には、多値のデジタル画像データに変換する機能を有す
るA/D変換器が用いられることで、より精度良く炎に
関する検知を行なうことができるが、プロセッサ21が
2値のデジタル画像データに対する処理能力しか有して
いない場合には、2値のデジタル画像データに変換する
機能を有するA/D変換器が用いられるか、あるいは、
多値のデジタル画像データに変換する機能を有するA/
D変換器が用いられる場合、さらに多値のデジタル画像
データを2値のデジタル画像データに変換する必要があ
る。
The A / D converter 20 has a function of converting analog image data into binary digital image data by a predetermined threshold value according to the processing capability of the processor 21 and the like. Alternatively, it may have a function of converting the analog image data into multi-valued digital image data using, for example, the brightness (gradation level) at the focal coordinate position as a threshold value. That is, when the processor 21 has a processing capability for multi-valued digital image data, an A / D converter having a function of converting the multi-valued digital image data is used, so that the flame can be more accurately recorded. However, if the processor 21 has only processing capability for binary digital image data, an A / D converter having a function of converting into binary digital image data is used. Or
A / having a function of converting into multi-value digital image data
When the D converter is used, it is necessary to further convert multi-valued digital image data into binary digital image data.

【0016】以下の説明では、便宜上、撮像部1からの
アナログ画像データは、最終的に2値の画像データに変
換され、プロセッサ21は、2値の画像データに対して
所定の画像処理演算を行なうものとする。また、画像デ
ータが変化したか否かを判断するための現時点の画像デ
ータと前時点の画像データとの比較は、これらの差をと
って、差分画像データとすることによってなされるもの
とする。なお、この場合に、画像データが2値化されて
いることによって、この差分画像データは、変化がない
ときには全ての画素の値が“0”であり、変化がある部
分についてのみ“0”以外の値となることから、これに
より、変化した部分があるか否かを即座に判断すること
ができる。
In the following description, for convenience, the analog image data from the image pickup unit 1 is finally converted into binary image data, and the processor 21 performs a predetermined image processing operation on the binary image data. Shall be done. Further, the comparison between the image data at the present time and the image data at the previous time for determining whether or not the image data has changed is made by taking the difference between them and making the difference image data. In this case, since the image data is binarized, the difference image data has all pixel values of “0” when there is no change, and only the changed part has a value other than “0”. Therefore, it is possible to immediately determine whether or not there is a changed portion.

【0017】ところで、演算部3において、画面の変化
した部分が炎によるものであるか否かの判断等を確実に
行なうために、演算部3では、撮像部1の設置条件(撮
像部1の高さhおよび撮像部1の傾き角度θ(θx
θy))が必要であり、このため、本実施例では、撮像部
1の設置条件を入力する設置条件入力部2が設けられて
いる。
By the way, in order to surely determine in the arithmetic unit 3 whether or not the changed portion of the screen is due to the flame, the arithmetic unit 3 sets the installation condition of the image pickup unit 1 (of the image pickup unit 1). The height h and the tilt angle θ (θ x ,
θ y )) is required. Therefore, in this embodiment, the installation condition input unit 2 for inputting the installation condition of the image pickup unit 1 is provided.

【0018】設置条件入力部2は、例えば、撮像部1の
高さ(すなわち床104からの距離)hを自動測定する距
離計、および/または、撮像部1の鉛直方向zからの傾
き角度θ(θx,θy)を自動測定する傾斜計として構成す
ることができる。この場合、これらの測定器を撮像部1
に予め取り付け、これらの測定器からの出力を演算部3
に入力させることで、設置条件を自動入力することがで
きる。なお、この場合、上記高さ(距離)hを測定する装
置すなわち距離計としては、超音波あるいはレーザ光を
床104に向けて出射した時点から、床104により反
射された超音波あるいはレーザ光を受信する時点までの
時間を計測することによって床104までの距離を測定
する装置などを用いることができる。また、傾斜計とし
ては、例えば米国ルーカス社製の低価格・高性能小型化
傾斜角センサなどを用いることができる。
The installation condition input unit 2 is, for example, a distance meter that automatically measures the height h of the image pickup unit 1 (that is, the distance from the floor 104), and / or the tilt angle θ of the image pickup unit 1 from the vertical direction z. It can be configured as an inclinometer that automatically measures (θ x , θ y ). In this case, these measuring devices are attached to the imaging unit 1.
Installed in advance and outputs the output from these measuring devices to the computing unit 3
Installation conditions can be automatically entered by inputting to. In this case, as a device for measuring the height (distance) h, that is, a distance meter, the ultrasonic wave or the laser light reflected by the floor 104 is emitted from the time when the ultrasonic wave or the laser light is emitted toward the floor 104. A device or the like that measures the distance to the floor 104 by measuring the time up to the point of reception can be used. Further, as the inclinometer, for example, a low-priced, high-performance miniaturized tilt angle sensor manufactured by Lucas Inc. in the United States can be used.

【0019】また、このような距離計,傾斜計のかわり
に、設置条件入力部2を、撮像部1の高さhおよび設置
角度θ(θx,θy)をアナログ電圧として入力させるため
のアナログ電圧調整器として構成することもできる。こ
の場合、オペレータがアナログ電圧調整器を操作して
(例えばボリュームを操作して)、撮像部1の高さhおよ
び設置角度θ(θx,θy)にそれぞれ対応したアナログ電
圧に調整することで、高さhおよび設置角度θ(θx,θ
y)をアナログ電圧として演算部3に入力させることがで
きる。
Further, instead of such a rangefinder and an inclinometer, the installation condition input section 2 is used to input the height h of the image pickup section 1 and the installation angle θ (θ x , θ y ) as an analog voltage. It can also be configured as an analog voltage regulator. In this case, the operator operates the analog voltage regulator
By adjusting the analog voltages corresponding to the height h and the installation angle θ (θ x , θ y ) of the imaging unit 1 (for example, by operating the volume), the height h and the installation angle θ (θ x , θ
y ) can be input to the calculation unit 3 as an analog voltage.

【0020】あるいは、設置条件入力部2を、撮像部1
の高さhおよび設置角度θ(θx,θy)をデジタル情報と
して入力させるための例えば8ビットのディップスイッ
チとして構成することもできる。この場合、オペレータ
がディップスイッチを操作して高さhおよび角度θ
x,θy)を設定することで、高さhおよび角度θ
x,θy)をデジタル情報として、演算部3に入力させ
ることができる。
Alternatively, the installation condition input section 2 is replaced by the image pickup section 1
The height h and the installation angle θ (θ x , θ y ) can be configured as, for example, an 8-bit dip switch for inputting as digital information. In this case, the operator operates the DIP switch to operate the height h and the angle θ.
By setting (θ x , θ y ), the height h and the angle θ
x , θ y ) can be input to the calculation unit 3 as digital information.

【0021】演算部3は、設置条件入力部2から入力さ
れた設置条件に基づき、先ず、図8に示すような画面上
において、撮像部1の直下の位置(xC,yC)がどこにあ
るかを算出し、次いで、撮像部1の設置位置から画像デ
ータの変化した部分CHに対応する対象物OBJ(図1
参照)の位置までの角度ψに関する情報と、撮像部1の
設置位置から画像データの変化した部分に対応する対象
物OBJまでの距離LXYと、画像データの変化した部分
に対応する対象物OBJの大きさとを算出し、これらの
算出情報等に基づいて、画像データの変化した部分に対
応する対象物OBJの規模(大きさ)や位置等を割り出し
て、対象物OBJが炎であるか否かを判断するようにな
っている。
Based on the installation condition input from the installation condition input unit 2, the calculation unit 3 first finds where the position (x C , y C ) immediately below the imaging unit 1 is on the screen as shown in FIG. Then, the object OBJ (FIG. 1) corresponding to the portion CH where the image data has changed from the installation position of the image pickup unit 1 is calculated.
Information), the distance L XY from the installation position of the imaging unit 1 to the object OBJ corresponding to the changed portion of the image data, and the object OBJ corresponding to the changed portion of the image data. Is calculated, and the scale (size) or position of the object OBJ corresponding to the changed portion of the image data is calculated based on the calculated information or the like to determine whether the object OBJ is a flame. It is designed to judge whether.

【0022】ここで、画面上における撮像部1の直下の
位置(xC,yC)の算出は、次のようになされる。すなわ
ち、いま例えば図7(a),(b)に示すように、撮像部1
がx軸方向,y軸方向にそれぞれ視野角θx0,θy0を有
し、x軸方向に傾き角θx,y軸方向に傾き角θyで傾い
て設置されているとするとき、図8に示すような画面の
x軸,y軸上での1画素(1区画)の角度dθx,dθ
yは、それぞれ次式で計算される。
Here, the position (x C , y C ) immediately below the image pickup unit 1 on the screen is calculated as follows. That is, for example, as shown in FIGS.
Has viewing angles θ x0 and θ y0 in the x-axis direction and the y-axis direction, respectively, and is installed with an inclination angle θ x in the x-axis direction and an inclination angle θ y in the y-axis direction. The angles dθ x and dθ of one pixel (one section) on the x-axis and y-axis of the screen as shown in FIG.
Each y is calculated by the following equation.

【0023】[0023]

【数1】dθx=θx0/N dθy=θy0/M## EQU1 ## dθ x = θ x0 / N dθ y = θ y0 / M

【0024】なお、N,Mはそれぞれx軸方向,y軸方
向の画素数(区画数)である。x軸,y軸上での1画素
(1区画)の角度dθx,dθyが数1により計算される
と、画面上における撮像部1直下の位置(xC,yC)は次
式により求められる。
N and M are the numbers of pixels (the number of sections) in the x-axis direction and the y-axis direction, respectively. 1 pixel on x-axis and y-axis
When the angles dθ x and dθ y of (one section) are calculated by Equation 1, the position (x C , y C ) immediately below the image pickup unit 1 on the screen is obtained by the following equation.

【0025】[0025]

【数2】xC=N/2−θx/dθxC=M/2−θy/dθy [Number 2] x C = N / 2-θ x / dθ x y C = M / 2-θ y / dθ y

【0026】図8には、このように求められた画面上で
の撮像部1直下の位置(xC,yC)が示されている。な
お、図8からもわかるように、傾き角θx,θyが0のと
き、すなわち、撮像部1が傾いていないときには、その
直下の位置(xC,yC)は画面の中央になり、傾き角θx
あるいはθyが大きい程、(xC,yC)は画面の縁に近く
なる。
FIG. 8 shows the position (x C , y C ) immediately below the image pickup unit 1 on the screen thus obtained. As can be seen from FIG. 8, when the tilt angles θ x and θ y are 0, that is, when the image pickup unit 1 is not tilted, the position (x C , y C ) immediately below the position is the center of the screen. , Tilt angle θ x
Alternatively, the larger θ y , the closer (x C , y C ) is to the edge of the screen.

【0027】このようにして、画面上における撮像部1
直下の位置(xC,yC)が算出されると、これを基準にし
て、撮像部1の設置位置から画像データの変化した部分
に対応する対象物OBJの位置までの角度ψ(鉛直線z
に対する角度)に関する情報を求めることができる。よ
り詳細には、いま例えば、前時点では対象物OBJが存
在せず前時点での画面が図9(a)に示すようなものであ
り、現時点において図1のように対象物OBJが出現し
現時点での画面が図9(b)に示すようなものとなって、
画面上で画像データの変化した部分が符号CHの部分で
あると検出されたとき、すなわち、例えば図9(b)の画
像データと図9(a)の画像データとの差をとって図9
(c)に示すような差分画像データが得られ、この差分画
像データにおいて“0”以外の画素値をもつ部分(図9
(c)の例では黒画素の部分)CHが画像データの変化し
た部分として検出されたとき、この変化した部分CHに
対応する実際の対象物OBJまでの角度ψに関する情報
を次のように求めることができる。
In this way, the image pickup unit 1 on the screen
When the position (x C , y C ) immediately below is calculated, the angle ψ (vertical line from the installation position of the image pickup unit 1 to the position of the object OBJ corresponding to the changed portion of the image data is used as a reference. z
Can be obtained. More specifically, for example, the object OBJ does not exist at the previous time, and the screen at the previous time is as shown in FIG. 9A. At this point, the object OBJ appears as shown in FIG. The screen at this point is as shown in Fig. 9 (b),
When it is detected that the changed portion of the image data is the portion of the code CH on the screen, that is, the difference between the image data of FIG. 9B and the image data of FIG.
Difference image data as shown in (c) is obtained, and a portion having a pixel value other than “0” in this difference image data (see FIG. 9).
In the example of (c), when a black pixel portion) CH is detected as a changed portion of the image data, information regarding the angle ψ to the actual object OBJ corresponding to this changed portion CH is obtained as follows. be able to.

【0028】すなわち、画面上において画像データの変
化した部分CHが、図9(c)に示すように、(x1,y1)
〜(x2,y2)の範囲である場合、撮像部1の設置位置か
ら画像データの変化した部分CHに対応する実際の対象
物OBJまでのx軸方向の角度範囲ψx1〜ψx2,y軸方
向の角度範囲ψy1〜ψy2は、それぞれ次式のようにして
求まる。
That is, the changed portion CH of the image data on the screen is (x 1 , y 1 ) as shown in FIG. 9C.
In the range of to (x 2 , y 2 ), the angular range ψ x1 to ψ x2 in the x-axis direction from the installation position of the imaging unit 1 to the actual object OBJ corresponding to the portion CH where the image data has changed, The angular ranges ψ y1 to ψ y2 in the y-axis direction are obtained by the following equations, respectively.

【0029】[0029]

【数3】ψx1=dθx×(x1−xC) ψx2=dθx×(x2−xC) ψy1=dθy×(y1−yC) ψy2=dθy×(y2−yC)Equation 3] ψ x1 = dθ x × (x 1 -x C) ψ x2 = dθ x × (x 2 -x C) ψ y1 = dθ y × (y 1 -y C) ψ y2 = dθ y × ( y 2 -y C)

【0030】これにより、撮像部1の設置位置から対象
物OBJまでの距離LXY(対象物OBJの最も遠い部分
までの距離)を次式のようにして求めることができる。
As a result, the distance L XY from the installation position of the image pickup unit 1 to the object OBJ (the distance to the farthest portion of the object OBJ) can be calculated by the following equation.

【0031】[0031]

【数4】 LXY=(h/cosψx2)×(1/cosψy2)L XY = (h / cos ψ x2 ) × (1 / cos ψ y2 ).

【0032】また、これにより、対象物OBJのx軸方
向,y軸方向の実際の大きさ|X|,|Y|と、対象物
OBJの実際の大きさSとを、次式のように算出するこ
とができる。
Further, as a result, the actual size | X |, | Y | of the object OBJ in the x-axis direction and the y-axis direction and the actual size S of the object OBJ are expressed by the following equation. It can be calculated.

【0033】[0033]

【数5】|X|=LXY×(ψx2−ψx1) |Y|=LXY×(ψy2−ψy1) S=|X|×|Y|[Expression 5] | X | = L XY × (ψ x2 −ψ x1 ) | Y | = L XY × (ψ y2 −ψ y1 ) S = | X | × | Y |

【0034】このように、対象物OBJの大きさに関す
る情報として、S,|X|,|Y|を得ることができ、
対象物OBJの位置に関する情報として、LXY,ψを得
ることができる。
In this way, S, | X |, | Y | can be obtained as information concerning the size of the object OBJ,
As information on the position of the object OBJ, L XY , ψ can be obtained.

【0035】なお、上述したような対象物OBJの各情
報は、部屋101の監視区域105となるべき床104
部分が平らな平面であり、対象物OBJが床104の平
らな平面に沿ったものであるとの前提の下で得られ、監
視区域105となるべき床104の部分に階段等の凹凸
がある場合には、これに応じた補正を対象物OBJの各
情報に施す必要がある。なお、以下では、説明の便宜
上、監視区域105となるべき床104部分は、平らな
平面であるとする。
Each piece of information about the object OBJ as described above is stored in the floor 104 which should be the monitoring area 105 of the room 101.
The portion is a flat plane, and it is obtained on the assumption that the object OBJ is along the flat plane of the floor 104, and the portion of the floor 104 to be the monitoring area 105 has irregularities such as stairs. In this case, it is necessary to make a corresponding correction on each piece of information of the object OBJ. In the following description, for convenience of explanation, it is assumed that the portion of the floor 104 to be the monitoring area 105 is a flat plane.

【0036】また、上述の例では、撮像部1は、任意の
傾き角度θ(θx,θy)で取り付けることができるとした
が、必要に応じ、この傾き角度θ(θx,θy)に制約をも
たせることもできる。すなわち、撮像素子11にCCD
素子が用いられる場合、CCD素子は一般に長方形状の
ものであり、x軸方向あるいはy軸方向のいずれか一方
が他方に比べて長く、画素数の多いものとなっている。
いま例えばx軸方向の長さが長くなっている場合、x軸
方向の傾き角度θxが“0゜”でないとき(すなわち、こ
のCCD素子のx軸が床104と平行でないとき)に
は、x軸方向の実際の監視エリアに不足が生じたり、あ
るいは、対象物OBJの特徴パラメータ(大きさ等)の算
出が複雑となって、特徴パラメータに誤差が生じたりす
る恐れがあり、また、対象物OBJをモニタ表示した場
合、これを見ずらいなどの問題が生じることがある。従
って、撮像素子11にCCD素子が用いられる場合、上
記例ではCCD素子のx軸を床と平行になるよう(すな
わち、傾き角度θxが“0゜”となるよう)、撮像部1を
取り付けるのが良い。換言すれば、上記のような例の場
合、撮像素子1の鉛直線zからの傾き角度θのx軸方向
成分θx,y軸方向成分θyの少なくともいずれか一方を
“0゜”とするのが良い。このときには、xCの位置,
あるいはyCの位置は、撮像画面x軸上の中心,あるい
はy軸上の中心となる。
Further, in the above-mentioned example, the image pickup section 1 can be attached at an arbitrary inclination angle θ (θ x , θ y ), but if necessary, this inclination angle θ (θ x , θ y). ) Can be restricted. That is, the image pickup device 11 has a CCD
When an element is used, the CCD element is generally rectangular, and one of the x-axis direction and the y-axis direction is longer than the other and the number of pixels is large.
Now, for example, when the length in the x-axis direction is long, when the tilt angle θ x in the x-axis direction is not “0 °” (that is, when the x-axis of this CCD element is not parallel to the floor 104), There may be a shortage in the actual monitoring area in the x-axis direction, or the calculation of the characteristic parameters (size, etc.) of the object OBJ may become complicated, resulting in an error in the characteristic parameters. When the object OBJ is displayed on the monitor, it may be difficult to see the object. Therefore, when a CCD device is used as the image pickup device 11, in the above example, the image pickup unit 1 is attached so that the x axis of the CCD device is parallel to the floor (that is, the tilt angle θ x is “0 °”). Is good. In other words, in the case of the above example, at least one of the x-axis direction component θ x and the y-axis direction component θ y of the tilt angle θ of the image sensor 1 from the vertical line z is set to “0 °”. Is good. At this time, the position of x C ,
Alternatively, the position of y C becomes the center on the x-axis of the imaging screen or the center on the y-axis.

【0037】演算部3は、このように、画面の画像デー
タを定期的に(例えば一定の時間間隔で)収集する毎に、
画像データの変化をその都度監視し、画像データに変化
があったとき、この変化した場合に対応する対象物につ
いて上記のような情報を求め、さらにこの対象物の変化
の様子を調べてこの対象物が炎(例えば火災による炎)か
否かを判断するようにしている。
In this way, the calculation section 3 collects the image data of the screen periodically (for example, at regular time intervals),
The change in the image data is monitored each time, and when there is a change in the image data, the above information is obtained for the object corresponding to this change, and the state of change of the object is checked to determine the object. I try to judge whether an object is a flame (for example, a flame from a fire).

【0038】この判断処理は、対象物が火災による炎で
ある場合には、その規模(大きさ,面積)が、タバコなど
の炎の規模よりもかなり大きな規模(大きさ,面積)のも
のであり、また、所定の揺らぎ(例えば8Hz程度のち
らつき)を有していること、また、対象物の位置が時間
的に急激には変化しないこと(例えば、その移動速度
が、撮像部1との距離LXYに応じて例えば0cm/秒〜
50cm/秒程度の範囲内にあること)、などの特徴に
基づいてなされる。
When the object is a flame due to a fire, this determination processing is performed on a scale (size, area) whose scale (size, area) is considerably larger than that of a flame such as tobacco. Yes, it has a predetermined fluctuation (for example, flicker of about 8 Hz), and the position of the object does not change rapidly with time (for example, its moving speed is different from that of the imaging unit 1). Depending on the distance L XY , for example, 0 cm / sec.
It should be in the range of about 50 cm / sec.).

【0039】すなわち、演算部3は、例えば、画像デー
タの変化した部分に対応した対象物OBJの全体の大き
さ(面積)Sから、この部分の大きさ(面積)が火災による
炎として妥当な規模のものであるか否か、また、対象物
OBJの時間的変化をさらに監視し、対象物OBJが所
定の揺らぎを有しているか否か、また、対象物の位置の
時間的変化が所定の速度以内であるか否か、などを判断
するようになっている。
That is, the calculation unit 3 determines that the size (area) of this portion is appropriate as a flame due to a fire, for example, from the overall size (area) S of the object OBJ corresponding to the changed portion of the image data. Whether or not the object OBJ has a predetermined fluctuation, and whether or not the object OBJ has a predetermined fluctuation, and whether or not the position of the object is temporally changed is predetermined. It is designed to judge whether or not the speed is within the range.

【0040】なお、上述の例では、画像データの変化し
た部分が1つの画素連結領域CHだけであり、従って、
1つの対象物OBJだけが検出される場合について述べ
たが、画像データの変化した部分が図10に示すように
複数の画素連結領域CH1〜CHnであって、複数の対象
物OBJ1〜OBJnが検出される場合には、各画素連結
領域CH1〜CHn,各対象物OBJ1〜OBJnのそれぞ
れについて上述のような演算処理がなされ、各対象物O
BJ1〜OBJnについて大きさ,揺らぎ,位置の時間的
変化などの情報が求められる。
In the above example, the changed portion of the image data is only one pixel connected region CH, and therefore,
Although only one object OBJ has dealt with the case where the detected changed portion of the image data is a plurality of pixel connected region CH 1 to CH n as shown in FIG. 10, a plurality of objects OBJ 1 ~ If the OBJ n is detected, the pixel connected regions CH 1 to CH n, the arithmetic processing described above for each of the object OBJ 1 ~OBJ n is performed, the object O
Information about BJ 1 to OBJ n such as size, fluctuation, and temporal change in position is required.

【0041】なお、画像データの変化した部分に対応す
る対象物の大きさは、Sによって得ることもできるし、
x軸方向,y軸方向の大きさ|X|,|Y|により、x
軸方向,y軸方向各々について得ることもできる。ま
た、x軸方向,y軸方向の大きさ|X|,|Y|の比|
Y|/|X|などによって、対象物の形状に関する情報
を得ることもでき、大きさSに関する情報にさらに形状
に関する情報を加味して、炎の判断を行うこともでき
る。
The size of the object corresponding to the changed portion of the image data can be obtained by S,
Based on the sizes | X | and | Y | in the x-axis direction and the y-axis direction, x
It can also be obtained in each of the axial direction and the y-axis direction. In addition, the ratio of the size | X | and | Y | in the x-axis direction and the y-axis direction |
Information about the shape of the object can be obtained by Y | / | X | and the like, and the flame can be determined by adding the information about the shape to the information about the size S.

【0042】次にこのような構成の炎検出装置の処理動
作例を図11のフローチャートを用いて説明する。図1
1を参照すると、プロセッサ21は、先ず、初期化処理
を行なう。例えばワークエリアとして機能するRAM2
3等の初期化を行なう(ステップS1)。しかる後、画像
監視処理,および炎の検出処理を開始する(ステップS
2乃至S8)。
Next, an example of the processing operation of the flame detecting device having such a configuration will be described with reference to the flowchart of FIG. FIG.
Referring to 1, the processor 21 first performs initialization processing. For example, RAM2 that functions as a work area
Initialization of 3 etc. is performed (step S1). Then, the image monitoring process and the flame detection process are started (step S
2 to S8).

【0043】すなわち、プロセッサ21は、撮像部1か
らの画像データ(より詳しくはA/D変換器20からの
デジタル画像データ)を例えば所定の時間間隔Tごとに
取り込む(ステップS2)。例えば図12に示すように、
画像処理の開始時刻がt1であり、時刻t1,t2,t3
…の画像データがDij(t1),Dij(t2),Dij(t3),
…であるとき、プロセッサ21は、各時刻t1,t2,t
3,…に画像データDij(t1),Dij(t2),Dij(t3),
…を取り込み、RAM23に格納する。
That is, the processor 21 takes in image data from the image pickup section 1 (more specifically, digital image data from the A / D converter 20) at predetermined time intervals T (step S2). For example, as shown in FIG.
The start time of the image processing is t 1 , and the times t 1 , t 2 , t 3 ,
Image data of D ij (t 1 ), D ij (t 2 ), D ij (t 3 ),
, The processor 21 determines that each time t 1 , t 2 , t
3 , image data D ij (t 1 ), D ij (t 2 ), D ij (t 3 ),
Is taken in and stored in the RAM 23.

【0044】このとき、RAM23の容量を節約するな
どのために、基本的には、時間的に隣接する2つの時刻
k,tk+1の画像データDij(tk),Dij(tk+1)がRA
M23に保持されるようにする。具体的に、プロセッサ
21は、時刻t1に画像データDij(t1)を取り込むと、
これをRAM23のエリアWK1に図13(a)に示すよ
うに格納し、次いで、時刻t2に画像データDij(t2)を
取り込むと、これをRAM23のエリアWK2に図13
(b)に示すように格納する。この時点で、RAM23に
は、2つの時刻t1,t2の画像データDij(t1),D
ij(t2)が保持される。次いで、時刻t3に画像データD
ij(t3)を取り込むと、RAM23のエリアWK1に保持
されている時刻t1の画像データDij(t1)を消去して、
これのかわりに時刻t3の画像データDij(t3)を図13
(c)に示すように格納する。このように、奇数番目の時
刻の画像データをRAM23のエリアWK1に格納し、
偶数番目の時刻の画像データをRAM23のエリアWK
2に格納する。
At this time, basically, in order to save the capacity of the RAM 23, basically, image data D ij (t k ), D ij (at two time points t k and t k + 1 which are temporally adjacent to each other are set. t k + 1 ) is RA
To be held in M23. Specifically, when the processor 21 takes in the image data D ij (t 1 ) at time t 1 ,
This is stored in the area WK 1 of the RAM 23 as shown in FIG. 13A. Then, when the image data D ij (t 2 ) is fetched at time t 2 , this is stored in the area WK 2 of the RAM 23 as shown in FIG.
Store as shown in (b). At this point, the RAM 23 stores the image data D ij (t 1 ) and D 2 at the two times t 1 and t 2.
ij (t 2 ) is held. Next, at time t 3 , the image data D
When ij (t 3 ) is fetched, the image data D ij (t 1 ) at time t 1 held in the area WK 1 of the RAM 23 is deleted,
Instead of this, the image data D ij (t 3 ) at time t 3 is shown in FIG.
Store as shown in (c). In this way, the image data of the odd-numbered time is stored in the area WK 1 of the RAM 23,
Area WK of RAM 23 for image data at even time
Store in 2 .

【0045】このようにして、2つの時刻tk,tk+1
画像データDij(tk),Dij(tk+1)を取得すると、プロ
セッサ21は、これら2つの画像データDij(tk),D
ij(tk+1)を比較し、画像データDij(tk+1)が画像デー
タDij(tk)に対し変化したか否かを判断する(ステップ
S3)。例えば、2つの2値化画像データDij(tk+1),
ij(tk)の差をとり、その差分画像データ(D
ij(tk+1)−Dij(tk))の全ての画素値が“0”のとき
は変化がないと判断し、“0”以外の画素値をもつ部分
があるときは変化したと判断する。
When the image data D ij (t k ) and D ij (t k + 1 ) at the two times t k and t k + 1 are acquired in this way, the processor 21 determines that these two image data D ij (t k ), D
ij (t k + 1 ) is compared to determine whether the image data D ij (t k + 1 ) has changed with respect to the image data D ij (t k ) (step S3). For example, two binary image data D ij (t k + 1 ),
The difference of D ij (t k ) is calculated, and the difference image data (D
It is judged that there is no change when all the pixel values of ij (t k + 1 ) −D ij (t k )) are “0”, and changed when there is a part having a pixel value other than “0”. To judge.

【0046】このような判断の結果、変化していない場
合には、再びステップS3に戻り、次の時刻について同
様の処理を行なう。具体的に、いま、図12の例におい
て、時刻t1,t2の画像データDij(t1),Dij(t2)間
に変化がないときには、時刻t2,t3の画像データDij
(t2),Dij(t3)を比較し、画像データDij(t2),D
ij(t3)にも変化がないときには、時刻t3,t4の画像
データDij(t3),Dij(t4)を比較するというように、
2つの時刻tk,tk+1の画像データDij(tk),Dij(t
k+1)の比較を繰り返し行なう(ステップS2,S3)。
If the result of such determination is that there is no change, the process returns to step S3 again, and the same processing is performed for the next time. Specifically, in the example of FIG. 12, when there is no change between the image data D ij (t 1 ) and D ij (t 2 ) at the times t 1 and t 2 , the image data at the times t 2 and t 3 D ij
(t 2 ), D ij (t 3 ) are compared, and image data D ij (t 2 ), D ij
When there is no change in ij (t 3 ), the image data D ij (t 3 ) and D ij (t 4 ) at the times t 3 and t 4 are compared.
Image data D ij (t k ) and D ij (t at two times t k and t k + 1
k + 1 ) is repeatedly compared (steps S2 and S3).

【0047】このような繰り返し処理において、いま例
えば、時刻t4,t5の画像データDij(t4),Dij(t5)
を比較した結果、変化が認められると、プロセッサ21
は、さらに、この画像データの変化が炎によるものであ
るか否かの判断を行なう。すなわち、前述のように、こ
の変化した部分に対応する対象物OBJの大きさ(およ
び/または形状)が炎の大きさ(あるいは形状)として妥
当であるか否かを判断し、また、この対象物OBJが所
定の揺らぎを有しているか否かを判断し、さらには、こ
の対象物OBJの位置の時間的変化が炎の時間的変化と
して妥当であるか否かを判断する。
In such repetitive processing, for example, image data D ij (t 4 ) and D ij (t 5 ) at times t 4 and t 5
If a change is found as a result of comparison between
Determines whether or not the change in the image data is due to the flame. That is, as described above, it is determined whether or not the size (and / or shape) of the object OBJ corresponding to this changed portion is appropriate as the size (or shape) of the flame, and It is determined whether or not the object OBJ has a predetermined fluctuation, and further it is determined whether or not the temporal change of the position of the object OBJ is appropriate as the temporal change of the flame.

【0048】この判断を行なうため、プロセッサ21
は、変化が認められたときは、単に2つの時刻t4,t5
の画像データDij(t4),Dij(t5)のみならず、それ以
後の時刻t6,…,tmの画像データDij(t6),…,D
ij(tm)を用いて処理を行なう。
In order to make this determination, the processor 21
Is only two times t 4 , t 5 when a change is observed.
Image data D ij (t 4 ), D ij (t 5 ), and image data D ij (t 6 ), ..., D at times t 6 , ..., T m thereafter.
ij performs processing using a (t m).

【0049】すなわち、炎によるものであるか否かの判
断処理を行なうのに、変化が認められた時点での2つの
時刻t4,t5の画像データDij(t4),Dij(t5)だけを
用いて(1つの差分画像データだけによって)、変化した
部分に対応する対象物の大きさ(および/または形状)を
求め(大きさについてはSあるいは|X|,|Y|とし
て求め、また、形状については、例えば比|Y|/|X
|として求め)、これが炎として妥当であるか否かを判
断し、炎であるか否かを判断することもできる。しかし
ながら、単に2つの画像データDij(t4),Dij(t5)の
比較結果だけでは(すなわち、一時点での比較結果だけ
では)、対象物OBJの大きさ(および/または形状)の
情報しか得られず、対象物OBJが炎であるとの正確な
判断を行なうことはできない。さらには、1つの差分画
像データだけでは、一瞬のライトなどの光の作用等によ
り誤報が生じたりする場合がある。従って、より正確な
判断を行なうため、ステップS3において変化有りの判
断がなされたときは、時刻t4,t5の画像データD
ij(t4),Dij(t5)の比較結果のみならず、さらに、以
後の時刻t6,…,tmの画像データをも取得し、時刻t
5の画像データDij(t5)をも含めた複数の時刻の画像デ
ータに基づいて判断を行なうのが良い。例えば、時刻t
4,t5の画像データDij(t4),Dij(t5)の比較結果の
みならず、以後の時刻t5,t6の画像データD
ij(t5),Dij(t6)の比較結果,…,時刻tm-1,tm
画像データDij(tm-1),Dij(tm)の比較結果をも用い
て、対象物の時間的変化を監視することで、対象物が炎
であるか否かの判断を行なうのが良い。
[0049] That is, to perform the determination process of the whether by fire, the image data D ij of the two times t 4, t 5 at the time the change was observed (t 4), D ij ( The size (and / or shape) of the object corresponding to the changed portion is obtained by using only t 5 ) (by only one difference image data) (S or | X |, | Y | And regarding the shape, for example, the ratio | Y | / | X
It is also possible to judge whether or not this is a flame, and to judge whether or not it is a flame. However, the size (and / or the shape) of the object OBJ is determined only by the comparison result of the two image data D ij (t 4 ) and D ij (t 5 ) (that is, only the comparison result at the temporary point). However, it is impossible to accurately judge that the object OBJ is a flame. Further, with only one piece of difference image data, a false alarm may occur due to the action of light such as a momentary light. Therefore, in order to make a more accurate judgment, when it is judged that there is a change in step S3, the image data D at the times t 4 and t 5
ij (t 4), not only the comparison result of D ij (t 5), further, the subsequent time t 6, ..., also acquires the image data of t m, the time t
It is preferable to make the determination based on the image data at a plurality of times including the image data D ij (t 5 ) of 5 . For example, time t
Not only the comparison result of the image data D ij (t 4 ) and D ij (t 5 ) of 4 and t 5 , but also the image data D of the subsequent time t 5 and t 6.
The comparison result of ij (t 5 ), D ij (t 6 ), ..., The comparison result of the image data D ij (t m-1 ), D ij (t m ) at the times t m-1 , t m is also used. Then, it is preferable to judge whether or not the object is a flame by monitoring the temporal change of the object.

【0050】このため、図11の例では、ステップS4
において変化有りの判断がなされたときには、プロセッ
サ21は、さらに、以後の時刻の画像データを取得する
(ステップS4)。そして、プロセッサ21は、例えば上
記のようにして対象物の時間的変化を監視し、対象物の
時間的変化の少なくともある1つの時点においてその大
きさ(および/または形状)が炎として妥当なものである
か否かを判断し(ステップS5)、また、対象物の時間的
変化から対象物が所定の揺らぎを有しているか否かを判
断し(ステップS6)、さらには、対象物の位置の時間的
変化が炎の時間的変化として不自然なものでないか否か
を判断する(ステップS7)。例えば、対象物の大きさS
あるいは|X|,|Y|の時間的変化を監視すること
で、所定の揺らぎを有しているか否かを判断することが
できる。また、対象物の位置の時間的変化は、対象物ま
での距離LXY,角度ψの時間的変化を監視することで検
出でき、対象物OBJが画面から突然消えたり、あるい
は、画面内で急に位置が変わったり、あるいは画面内で
行ったり来たりしたり、あるいは、全く動かなかったり
する場合には、対象物の位置の時間的変化が炎の時間的
変化として不自然であると判断し、上記以外の場合に
は、対象物の位置の時間的変化が炎として自然であると
判断する。
Therefore, in the example of FIG. 11, step S4
When it is determined that there is a change in, the processor 21 further acquires the image data at the subsequent time.
(Step S4). Then, the processor 21, for example, monitors the temporal change of the object as described above, and the size (and / or shape) of which is appropriate as a flame at at least one time point of the temporal change of the object. Or not (step S5), and whether or not the object has a predetermined fluctuation from the temporal change of the object (step S6), and further, the position of the object. It is determined whether or not the temporal change of is unnatural as the temporal change of the flame (step S7). For example, the size S of the object
Alternatively, it is possible to determine whether or not it has a predetermined fluctuation by monitoring the time change of | X | and | Y |. Further, the temporal change of the position of the object can be detected by monitoring the temporal change of the distance L XY and the angle ψ to the object, and the object OBJ suddenly disappears from the screen or suddenly appears on the screen. If the position of the object changes, moves back and forth on the screen, or does not move at all, it is judged that the temporal change of the position of the object is unnatural as the temporal change of the flame. In other cases than the above, it is determined that the temporal change in the position of the object is natural as a flame.

【0051】これらの判断の結果、炎の形状および大き
さとして妥当であり、かつ、炎として妥当な揺らぎを有
し、かつ、炎の時間的変化として妥当であるときには、
出力部4から火災警報を出力させる(ステップS8)。例
えば、警告ランプを点灯したり、警報音を発生させたり
する。また、炎の形状および大きさとして妥当でない
か、炎として妥当な揺らぎを有しないか、あるいは、炎
の時間的変化として妥当でないときには、炎と判断せず
に、再びステップS2に戻る。
As a result of these judgments, when it is appropriate as the shape and size of the flame, has the appropriate fluctuation as the flame, and is appropriate as the temporal change of the flame,
A fire alarm is output from the output unit 4 (step S8). For example, a warning lamp is turned on or an alarm sound is generated. If it is not appropriate as the shape and size of the flame, it does not have a proper fluctuation as the flame, or if it is not appropriate as the temporal change of the flame, it is not judged as the flame and the process returns to step S2 again.

【0052】なお、画像データに変化が確認された以後
の処理,すなわち、画像データDij(t4),Dij(t5)の
比較処理,…,画像データDij(tm-1),Dij(tm)の比
較処理では、2つの画像データ,例えばDij(tm-1),
ij(tm)間の単純な差をとって、変化した部分の大き
さ(および/または形状),揺らぎ,動き(位置)を監視す
ることもできるが、画像データに変化が確認された以後
は、前時点の画像データに対象物が存在するため、単純
な差をとると、その差分画像データには、図14に示す
ように、現時点での対象物の部分CH(tk)の他に、前
時点での対象物の部分CH(tk-1)が現われてしまい、
処理が煩雑になる恐れがある。
The process after the change in the image data is confirmed, that is, the process of comparing the image data D ij (t 4 ), D ij (t 5 ), ..., The image data D ij (t m-1 ). , D ij (t m ), two image data, for example, D ij (t m−1 ),
It is also possible to monitor the size (and / or shape), fluctuation, and movement (position) of the changed part by taking a simple difference between D ij (t m ), but a change was confirmed in the image data. After that, since the object exists in the image data at the previous time point, if a simple difference is taken, the difference image data shows the portion CH (t k ) of the object at the current time as shown in FIG. In addition, the part CH (t k-1 ) of the object at the previous time appears,
Processing may be complicated.

【0053】この問題を回避するため、例えば、変化が
認められる直前(時刻t4)の画像データDij(t4)を標準
画像データとし、時刻t5以後の画像データDij(t5),
ij(t6),…,Dij(tm)が順次に得られたときに、各
画像データDij(t5),Dij(t6)…,Dij(tm)と標準
画像データDij(t4)との差をとり、各差分画像データ
(Dij(t5)−Dij(t4)),(Dij(t6)−Dij(t4)),
…,(Dij(tm)−Dij(t4))において、それぞれ、変化
している部分の大きさ(および/または形状),揺らぎ,
位置等を算出し、その時間的経過からこの部分に対応す
る対象物が炎であるか否かを判断するようなこともでき
る。
To avoid this problem, for example, the image data D ij (t 4 ) immediately before the change is recognized (time t 4 ) is used as the standard image data, and the image data D ij (t 5 ) after the time t 5 is used.
When D ij (t 6 ), ..., D ij (t m ) are sequentially obtained, each image data D ij (t 5 ), D ij (t 6 ), ..., D ij (t m ) and the standard The difference with the image data D ij (t 4 ) is calculated, and each difference image data
(D ij (t 5 ) −D ij (t 4 )), (D ij (t 6 ) −D ij (t 4 )),
, (D ij (t m ) −D ij (t 4 )), the size (and / or shape) of the changing part, the fluctuation,
It is also possible to calculate the position and the like and judge whether the object corresponding to this portion is a flame or not from the lapse of time.

【0054】あるいは、上述したような画像処理以外の
任意所望の画像処理によって、炎であるか否かの判断を
行なうこともできる。
Alternatively, it is possible to determine whether or not the flame is present by any desired image processing other than the above-described image processing.

【0055】また、上述の例では、画像データに変化が
認められたとき、画像データの変化した部分に対応する
対象物が、炎の大きさ(および/または形状)として妥当
であり、かつ、炎としての揺らぎを有し、かつ、炎の時
間的変化として妥当であるとき、火災警報を出力すると
したが、その前段階として、画像データに変化が認めら
れた時点以後の各時刻の画像データをディスプレイ等に
表示することもできる。すなわち、画像データの変化し
た部分を動画像としてディスプレイ等に可視表示するこ
ともできる。
Further, in the above example, when a change is recognized in the image data, the object corresponding to the changed portion of the image data is appropriate as the size (and / or shape) of the flame, and A fire alarm is output when there is fluctuation as a flame and it is appropriate as a temporal change in the flame, but as a preceding step, image data at each time after the time when the change was recognized in the image data Can also be displayed on a display or the like. That is, the changed portion of the image data can be visually displayed as a moving image on a display or the like.

【0056】さらに、炎の判断を行なうために得られた
対象物の大きさの情報S,|X|,|Y|や位置に関す
る情報LXY,ψなどをも出力して、オペレータに知らせ
ることも可能である。
Further, the operator is also notified by outputting information S, | X |, | Y | of the size of the object obtained for judging the flame and information L XY , ψ about the position. Is also possible.

【0057】以上のように、本実施例によれば、炎を撮
像して炎に関する情報を検知する場合に、スリットマス
クなど設置したりせずとも、撮像部1の設置条件だけに
より、炎に関する情報を常に安定して確実かつ正確に検
出することができる。
As described above, according to the present embodiment, when a flame is imaged to detect information about the flame, the flame can be detected only by the installation condition of the image pickup unit 1 without installing a slit mask or the like. Information can always be detected stably, reliably and accurately.

【0058】[0058]

【発明の効果】以上に説明したように、本発明によれ
ば、所定の視野角の範囲の画像を所定の撮像手段により
撮像した画像データに基づき、炎の検出に関する画像処
理演算を行なう際、この画像処理演算において、撮像手
段の視野角と撮像手段の設置条件とを用いるようになっ
ているので、スリットマスクなどを設置したりせずと
も、撮像手段の視野角と設置条件だけにより、炎に関す
る情報を常に安定して確実かつ正確に検出することがで
きる。
As described above, according to the present invention, when performing image processing calculation relating to flame detection based on image data obtained by capturing an image in a range of a predetermined viewing angle by a predetermined image pickup means, In this image processing calculation, the viewing angle of the image pickup means and the installation condition of the image pickup means are used. Therefore, even if a slit mask or the like is not installed, only the viewing angle of the image pickup means and the installation condition are used. It is possible to always stably, reliably and accurately detect the information regarding.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る炎検出装置の一実施例の構成図で
ある。
FIG. 1 is a configuration diagram of an embodiment of a flame detection device according to the present invention.

【図2】撮像部の具体例を示す図である。FIG. 2 is a diagram showing a specific example of an imaging unit.

【図3】赤外透過フィルタの透過特性を示す図である。FIG. 3 is a diagram showing a transmission characteristic of an infrared transmission filter.

【図4】紫外,可視領域の炎の分光特性を示す図であ
る。
FIG. 4 is a diagram showing spectral characteristics of flames in the ultraviolet and visible regions.

【図5】赤外領域の炎の分光特性を示す図である。FIG. 5 is a diagram showing a spectral characteristic of a flame in an infrared region.

【図6】建物内の部屋の一例を示す透視図である。FIG. 6 is a perspective view showing an example of a room in a building.

【図7】(a),(b)はそれぞれ図6のx軸方向,y軸方
向の断面図である。
7A and 7B are cross-sectional views in the x-axis direction and the y-axis direction of FIG. 6, respectively.

【図8】撮像された画面の一例を示す図である。FIG. 8 is a diagram showing an example of an imaged screen.

【図9】(a)乃至(c)は画像データの変化した部分を検
出する仕方を説明するための図である。
9A to 9C are diagrams for explaining a method of detecting a changed portion of image data.

【図10】画像データの変化した部分が複数の画素連結
領域からなる場合を示す図である。
FIG. 10 is a diagram showing a case where a changed portion of image data includes a plurality of pixel connection areas.

【図11】図1の炎検出装置の処理動作例を示すフロー
チャートである。
FIG. 11 is a flowchart showing an example of processing operation of the flame detection device of FIG.

【図12】画像データの取り込みタイミングを示すタイ
ムチャートである。
FIG. 12 is a time chart showing the timing of capturing image data.

【図13】(a)乃至(c)は画像データのRAMへの格納
の仕方を説明するための図である。
13A to 13C are diagrams for explaining how to store image data in a RAM.

【図14】差分画像データの一例を示す図である。FIG. 14 is a diagram showing an example of difference image data.

【図15】従来の火災検知装置を説明するための図であ
る。
FIG. 15 is a diagram for explaining a conventional fire detection device.

【符号の説明】[Explanation of symbols]

1 撮像部 2 設置条件入力部 3 演算部 4 出力部 5 電源部 11 撮像素子 12 光学手段 20 A/D変換器 21 プロセッサ 22 ROM 23 RAM 101 部屋 102 天井 103 壁面 104 床 105 監視区域 h 撮像部の高さ θ(θx,θy) 撮像部の設置角度(傾き角度)1 image pickup unit 2 installation condition input unit 3 arithmetic unit 4 output unit 5 power supply unit 11 image pickup device 12 optical means 20 A / D converter 21 processor 22 ROM 23 RAM 101 room 102 ceiling 103 wall surface 104 floor 105 monitoring area h of image pickup unit Height θ (θ x , θ y ) Installation angle of the imaging unit (tilt angle)

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 所定の視野角を有し、該視野角の範囲の
画像を撮像する撮像手段と、該撮像手段の設置条件を入
力する設置条件入力手段と、前記撮像手段により撮像さ
れた画像データに基づき炎の検出に関する画像処理演算
を行なう演算手段とを有し、前記演算手段は、炎の検出
に関する画像処理演算において、前記撮像手段の視野角
と前記設置条件入力手段から入力された設置条件とを用
いることを特徴とする炎検出装置。
1. An image pickup means for picking up an image in a range of the viewing angle having a predetermined viewing angle, an installation condition inputting means for inputting installation conditions of the imaging means, and an image taken by the imaging means. And a calculation unit that performs image processing calculation related to flame detection based on the data, wherein the calculation unit, in the image processing calculation related to flame detection, the viewing angle of the imaging unit and the installation input from the installation condition input unit. A flame detection device characterized by using a condition.
【請求項2】 請求項1記載の炎検出装置において、前
記設置条件入力手段は、前記撮像手段の設置された高さ
と前記撮像手段の設置角度とを設置条件として入力する
ことを特徴とする炎検出装置。
2. The flame detection device according to claim 1, wherein the installation condition input means inputs a height at which the imaging means is installed and an installation angle of the imaging means as installation conditions. Detection device.
【請求項3】 請求項2記載の炎検出装置において、前
記設置条件入力手段は、前記撮像手段に取り付けられた
距離計と傾斜計とを有し、距離計により前記撮像手段の
床からの高さを測定し、傾斜計により前記撮像手段の設
置角度を測定して、演算手段に入力することを特徴とす
る炎検出装置。
3. The flame detection device according to claim 2, wherein the installation condition input means includes a range finder and an inclinometer attached to the image pickup means, and the distance meter measures the height from the floor of the image pickup means. A flame detecting device, characterized in that the angle is measured, the installation angle of the image pickup means is measured by an inclinometer, and the angle is input to the calculation means.
【請求項4】 請求項2記載の炎検出装置において、前
記設置条件入力手段は、前記撮像手段の高さおよび設置
角度をアナログ電圧として入力するための電圧調整手段
を有していることを特徴とする炎検出装置。
4. The flame detection device according to claim 2, wherein the installation condition input means has a voltage adjustment means for inputting a height and an installation angle of the imaging means as an analog voltage. And flame detector.
【請求項5】 請求項2記載の炎検出装置において、前
記設置条件入力手段は、前記撮像手段の高さおよび設置
角度を所定ビット数のコードとして入力するためのデジ
タル入力手段を有していることを特徴とする炎検出装
置。
5. The flame detection device according to claim 2, wherein the installation condition input means has a digital input means for inputting a height and an installation angle of the imaging means as a code having a predetermined number of bits. A flame detection device characterized by the above.
【請求項6】 請求項1記載の炎検出装置において、前
記画像データは、前記撮像手段の解像度に依らずに、必
要に応じて、撮像手段の1画素を1画素として処理さ
れ、あるいは、撮像手段の複数の画素をまとめて1画素
として処理されるようになっていることを特徴とする炎
検出装置。
6. The flame detection device according to claim 1, wherein the image data is processed with one pixel of the image pickup unit as one pixel as necessary, regardless of the resolution of the image pickup unit, or image pickup. A flame detection device, wherein a plurality of pixels of the means are collectively processed as one pixel.
【請求項7】 所定の視野角の範囲の画像を所定の撮像
手段により撮像した画像データに基づき、炎の検出に関
する画像処理演算を行なう炎検出方法であって、炎の検
出に関する画像処理演算において、前記撮像手段の視野
角と前記撮像手段の設置条件とを用いることを特徴とす
る炎検出方法。
7. A flame detection method for performing an image processing calculation relating to flame detection on the basis of image data obtained by capturing an image of a range of a predetermined viewing angle by a predetermined image pickup means, wherein the image processing calculation relating to flame detection is performed. A flame detection method, characterized in that a viewing angle of the imaging means and an installation condition of the imaging means are used.
JP6301556A 1994-11-10 1994-11-10 Flame detection device and flame detection method Expired - Lifetime JP3053159B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6301556A JP3053159B2 (en) 1994-11-10 1994-11-10 Flame detection device and flame detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6301556A JP3053159B2 (en) 1994-11-10 1994-11-10 Flame detection device and flame detection method

Publications (2)

Publication Number Publication Date
JPH08138169A true JPH08138169A (en) 1996-05-31
JP3053159B2 JP3053159B2 (en) 2000-06-19

Family

ID=17898367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6301556A Expired - Lifetime JP3053159B2 (en) 1994-11-10 1994-11-10 Flame detection device and flame detection method

Country Status (1)

Country Link
JP (1) JP3053159B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015114930A (en) * 2013-12-13 2015-06-22 ホーチキ株式会社 Fire detection system and fire detection method
WO2020111053A1 (en) * 2018-11-28 2020-06-04 アースアイズ株式会社 Monitoring device, monitoring system, monitoring method, and monitoring program
JP2020088840A (en) * 2019-04-11 2020-06-04 アースアイズ株式会社 Monitoring device, monitoring system, monitoring method, and monitoring program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015114930A (en) * 2013-12-13 2015-06-22 ホーチキ株式会社 Fire detection system and fire detection method
WO2020111053A1 (en) * 2018-11-28 2020-06-04 アースアイズ株式会社 Monitoring device, monitoring system, monitoring method, and monitoring program
JP2020088688A (en) * 2018-11-28 2020-06-04 アースアイズ株式会社 Monitoring device, monitoring system, monitoring method, and monitoring program
JP2020088840A (en) * 2019-04-11 2020-06-04 アースアイズ株式会社 Monitoring device, monitoring system, monitoring method, and monitoring program

Also Published As

Publication number Publication date
JP3053159B2 (en) 2000-06-19

Similar Documents

Publication Publication Date Title
JP4460782B2 (en) Intrusion monitoring device
AU2010212378B2 (en) System and method of target based smoke detection
KR20000071087A (en) Outdoor range finder
KR100939079B1 (en) System for mesurement of the snowfall and method for mesurement of the snowfall
JP4585966B2 (en) Dimmable smoke detector
US11120571B2 (en) System for measuring deformations and a method for measuring deformations
WO2016031128A1 (en) Substance detection sensor, substance detection method, and substance detection system
US11754717B2 (en) Distance measurement device having external light illuminance measurement function and external light illuminance measurement method
KR100621065B1 (en) displacement measuring system
JP3115786B2 (en) Flame detection device and flame detection method
JP3153718B2 (en) Intruder detection device and intruder detection method
JP3053159B2 (en) Flame detection device and flame detection method
JPH0850182A (en) Optical snow depth measuring device
EP1596185B1 (en) Visibility measuring system and method
JP3823965B2 (en) Laser radar equipment
JP3888528B2 (en) Liquid level recognition processing apparatus and liquid level monitoring system
RU93777U1 (en) DEVICE FOR MEASURING THE INCORPORTIVITY OF THE HELICOPTER BLADES OF A HELICOPTER
KR100627483B1 (en) An Exhaust Smoke Recognition and Alarm Device and Method using Picture Image Analysis
JP6591647B2 (en) Image processing device
JP2018166308A (en) Camera calibration device
JP3143348B2 (en) Target detection device
RU2315357C2 (en) Object detection method
JPH0520564A (en) Fire detector using image processing
KR100711364B1 (en) An Exhaust Smoke Recognition and Auto-alarm Device and Method using Picture Image Analysis
CN110068307B (en) Distance measuring system and distance measuring method

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090407

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090407

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110407

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120407

Year of fee payment: 12

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120407

Year of fee payment: 12

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120407

Year of fee payment: 12

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 13

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 13

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 13

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140407

Year of fee payment: 14

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term