KR101084719B1 - Intelligent smoke detection system using image processing and computational intelligence - Google Patents
Intelligent smoke detection system using image processing and computational intelligence Download PDFInfo
- Publication number
- KR101084719B1 KR101084719B1 KR1020100074083A KR20100074083A KR101084719B1 KR 101084719 B1 KR101084719 B1 KR 101084719B1 KR 1020100074083 A KR1020100074083 A KR 1020100074083A KR 20100074083 A KR20100074083 A KR 20100074083A KR 101084719 B1 KR101084719 B1 KR 101084719B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- intelligent
- detection system
- smoke detection
- data
- Prior art date
Links
- 239000000779 smoke Substances 0.000 title claims abstract description 88
- 238000001514 detection method Methods 0.000 title claims abstract description 42
- 238000012545 processing Methods 0.000 title claims abstract description 22
- 238000000034 method Methods 0.000 claims abstract description 35
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 238000013500 data storage Methods 0.000 claims abstract description 11
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 239000000284 extract Substances 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 30
- 238000004422 calculation algorithm Methods 0.000 claims description 25
- 238000013528 artificial neural network Methods 0.000 claims description 23
- 230000033001 locomotion Effects 0.000 claims description 18
- 230000002068 genetic effect Effects 0.000 claims description 13
- 108090000623 proteins and genes Proteins 0.000 claims description 13
- 239000002131 composite material Substances 0.000 claims description 9
- 238000005311 autocorrelation function Methods 0.000 claims description 6
- 238000009792 diffusion process Methods 0.000 claims description 3
- 230000035772 mutation Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000004083 survival effect Effects 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims 1
- 238000012544 monitoring process Methods 0.000 description 7
- 230000001186 cumulative effect Effects 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 210000000349 chromosome Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B17/00—Fire alarms; Alarms responsive to explosion
- G08B17/12—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
- G08B17/125—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 연기 검출 시스템에 관한 것으로, 비디오 영상을 기반으로 실내뿐 아니라 실외에서도 연기를 검출할 수 있는 영상 처리 및 지능 연산을 이용한 지능형 연기 검출 시스템에 관한 것이다.BACKGROUND OF THE
종래에 화재 감시를 위해서는 구조물의 천정 등에 설치된 화염센서나 연기센서 혹은 온도센서와 같은 화재 감지기를 이용하였다.Conventionally, for fire monitoring, a fire sensor such as a flame sensor, a smoke sensor, or a temperature sensor installed in a ceiling of a structure is used.
이러한 화재 감지기를 이용할 경우, 화재가 아닌 다른 원인에 의한 온도의 상승이나 연기의 발생에도 오작동할 염려가 높았다. 그리고, 이를 중앙 관제소에서 신호를 수신하여 화재 발생 상황을 파악할 경우에도 화재 감지기에 의한 신호만으로 정확한 화재 상황을 파악하기 힘들었다.If such a fire detector is used, there is a high possibility of malfunction due to a rise in temperature or smoke caused by a cause other than a fire. In addition, even when receiving a signal from the central control station to determine the fire situation it was difficult to determine the exact fire situation only by the signal from the fire detector.
게다가, 화재 감지기의 경우에는 실내 구조물에 설치하는 경우에는 용이하지만, 실외에서의 화재 발생 시에 설치가 적당하지 않을 뿐 아니라, 설치를 하더라도 화재 감지기의 성능의 제한으로 넓은 실외 영역을 커버(Cover)하기 힘든 문제가 있다.In addition, the fire detector is easy to install in an indoor structure, but it is not suitable for installation in the event of a fire in the outdoors, and even if it is installed, it covers a large outdoor area due to the limitation of the performance of the fire detector. There is a problem that is difficult to do.
또한, 움직임 벡터를 이용한 영상 처리에 기반한 화재 감시 장치에 관한 많은 연구가 진행되고는 있으나, 여전히 정확한 화재의 판단에는 어려움이 남아 있는 상황이다. In addition, although many studies on fire monitoring apparatus based on image processing using motion vectors have been conducted, it is still difficult to determine the exact fire.
본 발명은 전술한 바와 같은 기술적 과제를 해결하는 데 목적이 있는 발명으로서, 정확한 화재 상황을 파악할 수 있도록 비디오 영상을 이용한 영상 처리 및 지능 연산에 의해 화재를 감시할 수 있는 지능형 연기 검출 시스템을 제공하는 것에 그 목적이 있다.The present invention has an object to solve the above technical problem, to provide an intelligent smoke detection system that can monitor the fire by video processing and intelligent calculation using video image to determine the exact fire situation There is that purpose.
또한, 본 발명은 간단한 카메라의 설치에 의해 실내뿐만 아니라, 실외에서도 화재의 감시가 가능한 지능형 연기 검출 시스템을 제공하는 것에도 그 목적이 있다.Another object of the present invention is to provide an intelligent smoke detection system capable of monitoring a fire not only indoors but also outdoors by installing a simple camera.
본 발명의 바람직한 일실시예에 따른 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템은 영상 데이터를 입력받는 영상 입력부; 상기 입력받은 영상 데이터를 저장하는 데이터 저장부; 상기 데이터 저장부 또는 상기 영상 입력부로부터 영상 데이터를 입력받아 연기의 특징을 나타내는 하나 이상의 파라미터를 추출하는 파라미터 추출부;상기 파라미터 추출부로부터 파라미터를 입력받아 학습을 실시하고, 학습의 실시에 의해 학습 모델을 생성하는 학습부; 및 상기 학습 모델을 이용하여 상기 파라미터 추출부로부터 파라미터를 입력받아 연기 검출 여부를 판단하는 판단부;를 포함한다. An intelligent smoke detection system using image processing and intelligent operation according to an embodiment of the present invention includes an image input unit for receiving image data; A data storage unit for storing the received image data; A parameter extraction unit configured to receive image data from the data storage unit or the image input unit and extract one or more parameters representing the characteristics of the acting; Learning unit for generating a; And a determination unit that receives a parameter from the parameter extraction unit and determines whether smoke is detected using the learning model.
구체적으로 상기 파라미터 추출부가 추출하는 하나 이상의 파라미터는, 대상의 외형이 무질서하게 변화하는 정도를 측정하는 무질서도; 연기의 확산 특징을 바탕으로 대상 크기의 변화율을 의미하는 증가도; 상기 영상 데이터의 영상에서 얼마나 많은 움직임이 일어난 것인지를 산출하는 움직임 빈도; 상기 영상 데이터의 각 픽셀의 값들로부터 산출되는 연기의 지역 웨이블릿 에너지 변화도; 및 상기 영상 데이터의 영역 전체의 형태가 영역의 부분에서 반복되어 나타나는 자기 유사도;를 포함하는 파라미터의 집합으로부터 선택되는 것이 바람직하다.Specifically, the at least one parameter extracted by the parameter extractor may include a disorder measuring the degree to which the appearance of the subject changes randomly; An increase that means the rate of change of the target size based on the diffusion characteristics of the smoke; A movement frequency for calculating how much movement has occurred in the image of the image data; A local wavelet energy gradient of smoke calculated from values of each pixel of the image data; And a magnetic similarity in which the shape of the entire region of the image data is repeatedly displayed in the portion of the region.
또한, 상기 무질서도는, 상기 영상 데이터의 움직인 픽셀을 검출하여 이진화 영상으로 변환하고, 이진화 영상에 의해 움직인 픽셀의 군집을 얻고, 연기로 추정되는 픽셀을 상기 군집으로 나누어서 연기 추정 픽셀들의 비율을 구하는 것에 의해 산출되는 것을 특징으로 한다.In addition, the disorder diagram detects a moving pixel of the image data and converts it into a binarized image, obtains a cluster of pixels moved by the binarized image, and divides the pixel estimated to be smoke into the cluster, and thus the ratio of the estimated smoke pixels. It is characterized by calculating by calculating.
구체적으로 상기 움직인 픽셀을 검출하는 방법은 배경 제거 알고리즘을 사용하되, 상기배경 제거 알고리즘은 입력되는 영상에서 프레임 간 변화가 없거나 또는 그 변화가 일상적인 경우에 배경에 해당하는 픽셀로 선별하여 제거하는 것을 특징으로 한다.Specifically, the moving pixel detection method uses a background removal algorithm, and the background removal algorithm selects and removes pixels corresponding to a background when there is no change between frames in the input image or when the change is common. It is characterized by.
아울러, 상기 증가도는 다음의 수학식에 의해 산출되는 것을 특징으로 한다.In addition, the increase is characterized in that calculated by the following equation.
(상기에서 t는 시간 또는 프레임, R은 대상 프레임의 타겟 영역, Size는 면적을 각각 나타낸다.)
(Where t is time or frame, R is target area of target frame, and Size is area, respectively.)
구체적으로 상기 움직임 빈도는 상기 영상 데이터로부터 움직이는 영역만 추출하여, 그레이 영상화하고, 웨이블릿 형식으로 변환한 후, 고역통과필터와 저역통과필터를 각각 통과시켜 고주파 영상과 저주파 영상을 각각 얻고, 상기 고주파 영상과 저주파 영상을 각각 일정 프레임을 누적시켜 그 합을 구하여 고주파 누적 영상과 저주파 누적 영상을 얻으며, 상기 고주파 누적 영상을 상기 저주파 누적 영상에 의해 나누는 것에 의해 산출되는 것이 바람직하다.In detail, the motion frequency is obtained by extracting only a moving region from the image data, converting the image into a gray image, converting the image into a wavelet format, and passing a high pass filter and a low pass filter, respectively, to obtain a high frequency image and a low frequency image, respectively. It is preferable to calculate the sum of each of the and low frequency images by obtaining a predetermined frame to obtain a high frequency accumulated image and a low frequency accumulated image, and to calculate the high frequency accumulated image by dividing the high frequency accumulated image by the low frequency accumulated image.
보다 상세하게는 상기 고주파 영상과 저주파 영상을 얻은 후, 각각의 영상의 선명도를 증가시키기 위하여 상기 고주파 영상과 상기 저주파 영상을 각각 다운 샘플링하는 것을 특징으로 한다.
In more detail, after obtaining the high frequency image and the low frequency image, the high frequency image and the low frequency image are downsampled, respectively, in order to increase the sharpness of each image.
또한, 상기의 지역 웨이블릿 에너지 변화도는 (a-1) 상기 영상 데이터와 배경 데이터를 그레이 영상으로 변환하는 단계; (a-2) 상기 그레이 영상들에 대해 웨이블릿 형식으로 변환하고, 2단계 필터링에 의해 3가지 대역의 영상을 각각 획득하는 단계; (a-3) 상기 3가지 대역의 영상의 각 픽셀값을 제곱하여 합치는 것에 의해 상기 영상 데이터와 배경 데이터에 대한 새로운 합성 영상을 생성하는 단계; (a-4) 상기 새로이 합성된 영상들을 각각 n개의 블록으로 분할하는 단계; (a-5) 상기 영상 데이터의 합성 영상의 분할된 n개의 블록에 대해 n개의 에너지값 en을 구하는 단계; (a-6) 상기 배경 데이터의 합성 영상의 분할된 n개의 블록에 대해 n개의 에너지값 ebn을 구하는 단계; (a-7) 상기 ebn이 상기 en 보다 미리 설정된 일정값 보다 큰 연기 의심 영역을 설정하는 단계; 및 (a-8) 상기 연기 의심 영역에 대해 상기 n개의 블록별로 상기 배경 데이터의 에너지와 상기 영상 데이터의 에너지의 차를 구하고 이를 배경 데이터의 에너지로 나누어 에너지 변화도를 산출하는 단계;를 포함하는 단계에 의해 산출되는 것이 바람직하다.The local wavelet energy gradient may include (a-1) converting the image data and the background data into a gray image; (a-2) converting the gray images into a wavelet format and acquiring three bands of images by two-step filtering; (a-3) generating a new composite image of the image data and the background data by squaring and combining respective pixel values of the three band images; (a-4) dividing the newly synthesized images into n blocks each; (a-5) obtaining n energy values en for divided n blocks of the composite image of the image data; (a-6) obtaining n energy values ebn for the n divided blocks of the composite image of the background data; (a-7) setting a postponing region where ebn is greater than a predetermined predetermined value than en; And (a-8) obtaining a difference between the energy of the background data and the energy of the image data for each of the n blocks with respect to the suspected smoke area, and dividing the energy of the background data by the energy of the background data to calculate an energy gradient. It is preferable to calculate by step.
구체적으로 상기 (a-2) 단계는 상기 3가지 대역의 영상은 고역통과필터를 통과시킨 후 다시 고역통과필터를 통과시킨 영상, 고역통과필터를 통과시킨 후 저역통과필터를 통과시킨 영상 및 저역통과필터를 통과시킨 후 고역통과필터를 통과시킨 영상인 것을 특징으로 한다.
Specifically, in the step (a-2), the three band images pass the high pass filter and then pass the high pass filter again, the high pass filter passes the low pass filter, and the low pass image. After passing the filter is characterized in that the image passed the high pass filter.
또한, 자기 유사도는 상기 영상 데이터의 급수를 미리 설정된 일정한 크기로 중복되지 않게 선택한 후 선택된 값들의 평균값에 의해 산출되는 것을 특징으로 한다.In addition, the magnetic similarity is calculated by selecting an average value of the selected values after selecting the series of the image data so as not to overlap with a predetermined predetermined size.
구체적으로 상기 자기 유사도가 시간에 관계된 급수를 이용할 경우, 자기 상관 모델을 사용하여 급수의 자기 상관 함수의 감쇄율을 나타내는 Hurst 파라미터에 의해 산출되는 것을 특징으로 한다.
Specifically, when the auto-similarity uses a time-related series, it is calculated by using a Hurst parameter representing a decay rate of the autocorrelation function of the series using an autocorrelation model.
상기 학습 모델의 생성을 위한 신경망은 퍼지 신경망을 이용하되, 상기 퍼지 시스템의 모델링은 IF-THEN 규칙을 사용하며, 상기 퍼지 신경망의 구조는 군집화 기법을 사용하여 결정되는 것이 바람직하다.The neural network for generating the learning model uses a fuzzy neural network, the modeling of the fuzzy system uses an IF-THEN rule, and the structure of the fuzzy neural network is preferably determined using a clustering technique.
구체적으로 상기 퍼지 신경망의 구조의 결정은 중심값 vi, 군집의 갯수 uik 및 가중치 wi에 의해 결정하는 것을 특징으로 한다.Specifically, the structure of the fuzzy neural network is determined by the central value v i , the number of clusters u ik and the weight w i .
또한, 상기 퍼지 신경망의 구조의 결정은 (b-1) 지수의 가중값 m, 최대 군집의 수 C, 에러 허용치ε, 최대 반복 횟수 T 및 초기 유효성 값 Z(c)를 포함하는 각 변수를 초기화하는 단계; (b-2) 군집의 갯수 uik(t)를 0 또는 1로 초기화하는 단계; (b-3) 새로운 중심값 vi(t)와 가중치 wi(t)를 산출하는 단계; (b-4) 산출된 새로운 중심값 vi(t)와 가중치 wi(t)를 이용하여 군집의 갯수 uik(t)를 갱신하는 단계; (b-5) uik(t)와 uik(t-1)의 차이의 절대값의 최대값 Delta를 산출하는 단계; (b-6) 상기 최대값 Delta가 에러 허용치 ε 보다 크다면, t를 하나 증가시키고, 상기 (b-3) 단계 이후의 단계를 반복하여 수행하는 단계; (b-7) 만일 최대값 Delta가 에러 허용치 ε 보다 작거나 같다면, 새로운 유효성 값 Z(c)를 계산하는 단계; (b-8) Z(c)가 Z(c-1) 보다 크다면, 종료하는 단계; 및 (b-9) Z(c)가 Z(c-1) 보다 작거나 같다면, c를 증가시키고, 상기 (b-2) 단계 이후의 단계를 반복적으로 실시하는 단계;를 포함하는 방법에 의해 결정되되, 상기 c는 군집의 수를 의미하고, t는 반복 횟수를 의미하는 것을 특징으로 한다.
In addition, the structure of the fuzzy neural network is determined by initializing each variable including the weight value m of the exponent (b-1), the maximum number of clusters C, the error tolerance ε, the maximum number of repetitions T, and the initial validity value Z (c). step; (b-2) initializing the number of clusters u ik (t) to 0 or 1; (b-3) calculating a new center value v i (t) and a weight w i (t); (b-4) updating the number u ik (t) of the clusters using the calculated new center value v i (t) and the weight w i (t); (b-5) calculating a maximum value Delta of the absolute value of the difference between u ik (t) and u ik (t-1); (b-6) if the maximum value Delta is greater than the error tolerance ε, increase t by one, and repeating the steps after step (b-3); (b-7) calculating a new validity value Z (c) if the maximum value Delta is less than or equal to the error tolerance ε; (b-8) if Z (c) is greater than Z (c-1), ending; And (b-9) if Z (c) is less than or equal to Z (c-1), increasing c and repeating the steps after step (b-2); As determined by c, the number means the number of clusters, and t means the number of repetitions.
또한, 본 발명의 바람직한 일실시예에 따른 학습 모델 생성은 유전자 알고리즘을 사용하여 비대칭 가우시안 소속 함수 조율을 하는 것을 특징으로 한다.In addition, the learning model generation according to an embodiment of the present invention is characterized in that asymmetric Gaussian membership function tuning using a genetic algorithm.
상기 조율하는 방법은 (c-1) 가중치와 분산에 대한 초기값을 산출하는 단계; (c-2) 초기 가중치와 분산을 마지막 유전형에 복사하고 나머지 유전형들은 임의의 값을 발생시켜 초기 유전자 집단을 생성하는 단계; (c-3) 퍼지 추론과 에러 함수를 이용해 초기 유전자 집단에 대한 적합도를 계산하는 단계; (c-4) 유전자 알고리즘 연산자와 선택된 개체들로부터 다음 세대를 생성하는 단계; (c-5) 퍼지 추론과 에러 함수를 이용해 새로 생성된 유전자 집단에 대한 적합도를 계산하는 단계; 및(c-6) 만일 최적의 유전자가 발견되면 종료하고 아니면 상기 (c-4) 단계 이후의 단계를 반복적으로 실시하는 단계;를 포함하는 것을 특징으로 한다.The method of tuning comprises the steps of: (c-1) calculating initial values for weights and variances; (c-2) copying the initial weights and variances to the last genotype and generating the initial gene population by generating random values for the remaining genotypes; (c-3) calculating the goodness of fit for the initial gene population using fuzzy inference and an error function; (c-4) generating a next generation from genetic algorithm operator and selected individuals; (c-5) calculating the goodness of fit for the newly created gene population using fuzzy inference and an error function; And (c-6) if the optimal gene is found and terminates, or repeatedly performing the step after the step (c-4).
구체적으로 상기 (c-4) 단계는 (c-4-1) 각 유전형의 적합도를 마지막 유전형의 적합도와 비교하여 최고의 적합도를 갖는 유전형을 마지막 유전형에 배치하는 선택 연산자 수행 단계; (c-4-2) 선택에 의해서 생존이 결정된 유전형에 대해 교배하는 교배 연산자 수행 단계; 및 (c-4-3) 임의로 유전형을 선택하여 돌연변이 시키는 돌연변이 연산자 수행 단계;를 포함하는 것을 특징으로 한다.
Specifically, the step (c-4) is a step (c-4-1) performing a selection operator to place the genotype having the best fit to the last genotype by comparing the goodness of each genotype with the goodness of the last genotype; (c-4-2) performing a crossover operator to cross over genotypes whose survival is determined by selection; And (c-4-3) optionally performing a mutation operator for selecting and mutating genotypes.
본 발명에 따르면 정확한 화재 상황을 파악할 수 있도록 비디오 영상을 이용한 영상 처리 및 지능 연산에 의해 화재를 감시할 수 있는 지능형 연기 검출 시스템을 제공할 수 있다.According to the present invention, it is possible to provide an intelligent smoke detection system capable of monitoring a fire by image processing and intelligent calculation using a video image so as to grasp an accurate fire situation.
또한, 본 발명에 따르면 간단한 카메라의 설치에 의해 실내뿐만 아니라, 실외에서도 화재의 감시가 가능한 지능형 연기 검출 시스템을 제공할 수도 있다.In addition, according to the present invention it is possible to provide an intelligent smoke detection system capable of monitoring the fire not only indoors, but also outdoors by installing a simple camera.
도 1은 본 발명의 바람직한 일실시예에 따른 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템을 나타낸다.
도 2는 걸어가는 사람(Walker)과 연기(Smoke)에 대한 무질서도를 비교한 결과값을 나타낸다.
도 3은 동영상에서 일반 사람이 걷는 것과 연기에 대한 증가도를 각각 나타낸다.
도 4는 고역통과필터(HPF)와 저역통과필터(LPF)를 통과시켜 고주파 영상(H)과 저주파 영상(L)을 얻고, 다운샘플링을 수행하는 과정을 나타낸다.
도 5는 움직임 빈도를 나타낸다.
도 6은 지역 웨이블릿 에너지 변화도를 알 수 있는 예시이다.
도 7은 연기 검출을 위한 일반적인 퍼지 신경망 시스템 구조를 나타낸다.
도 8은 본 발명의 일실시예에 따른 시스템 구조와 규칙수를 결정하기 위한 흐름도를 나타낸다.
도 9는 비대칭 가우시안 소속 함수의 조율을 위한 흐름도를 나타낸다.
도 10은 연기의 특징을 적용한 지능형 연기 검출을 위한 퍼지 신경망 시스템 구조를 나타낸다.1 illustrates an intelligent smoke detection system using image processing and intelligent calculation according to an exemplary embodiment of the present invention.
Figure 2 shows the result of comparing the disorder for the walker (Walker) and smoke (Smoke).
3 illustrates an increase in the walking and acting of the ordinary person in the video, respectively.
4 illustrates a process of obtaining a high frequency image (H) and a low frequency image (L) by passing a high pass filter (HPF) and a low pass filter (LPF), and performing downsampling.
5 shows the frequency of movement.
6 is an example of knowing the local wavelet energy gradient.
7 shows a general fuzzy neural network system structure for smoke detection.
8 is a flowchart for determining a system structure and a number of rules according to an embodiment of the present invention.
9 shows a flowchart for tuning of an asymmetric Gaussian membership function.
10 shows a fuzzy neural network system structure for intelligent smoke detection to which smoke features are applied.
이하, 첨부된 도면을 참조하면서 본 발명의 일실시예에 따른 지능형 연기 검출 시스템에 대해 상세히 설명하기로 한다. Hereinafter, an intelligent smoke detection system according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
본 발명의 하기의 실시예는 본 발명을 구체화하기 위한 것일 뿐 본 발명의 권리범위를 제한하거나 한정하는 것이 아님은 물론이다. 본 발명의 상세한 설명 및 실시예로부터 본 발명이 속하는 기술분야의 전문가가 용이하게 유추할 수 있는 것은 본 발명의 권리범위에 속하는 것으로 해석된다.
The following examples of the present invention are intended to embody the present invention, but not to limit or limit the scope of the present invention. It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.
우선 도 1에 본 발명의 바람직한 일실시예에 따른 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템을 나타내었다.First, FIG. 1 shows an intelligent smoke detection system using image processing and intelligent calculation according to an embodiment of the present invention.
도 1로부터 알 수 있는 바와 같이 본 발명의 바람직한 일실시예에 따른 지능형 연기 검출 시스템은 영상 입력부(10); 데이터 저장부(20); 파라미터 추출부(30); 학습부(40); 및 판단부(50);를 포함한다.
As can be seen from Figure 1 intelligent smoke detection system according to an embodiment of the present invention comprises an
하기에 각 구성 요소의 역할에 대해 구체적으로 설명하기로 한다.
Hereinafter, the role of each component will be described in detail.
상기 영상 입력부(10)는 CCD 카메라 등의 동영상의 촬영이 가능한 기기를 이용하여 화재의 감시를 위해 연기의 검출을 필요로 하는 대상 영역의 동영상을 촬영한 영상을 입력받는다.The
상기 데이터 저장부(20)는 상기 입력받은 영상 데이터를 저장하는 역할을 한다. The
상기 파라미터 추출부(30)는 상기 데이터 저장부(20) 또는 직접 상기 영상 입력부(10)로부터 영상 데이터를 입력받고, 입력받은 영상 데이터를 이용하여 연기의 특징을 나타내는 하나 이상의 파라미터를 추출하는 역할을 한다.The
상기 학습부(40)는 상기 파라미터 추출부(30)로부터 파라미터를 입력받아 학습을 실시하고, 학습의 실시에 의해 학습 모델을 생성하는 역할을 하고, 상기 판단부(50)는 상기 학습 모델을 이용하여 상기 파라미터 추출부(30)로부터 파라미터를 입력받아 연기 검출 여부를 판단하는 역할을 한다.
The
상기 파라미터 추출부(30)에 대해 보다 상세하게 알아보기로 하자.The
상기 파라미터 추출부(30)가 추출하는 파라미터는 연기 검출을 위한 특징으로서 연기와 다른 객체간의 값의 차이를 많이 보여줄 수 있는 것들로 구성된다. 본 발명에서는 다섯 가지 특징을 제시한다. The parameter extracted by the
즉, 상기 파라미터 추출부(30)는 대상의 외형이 무질서하게 변화하는 정도를 측정하는 무질서도(Disorder), 연기의 확산 특징을 바탕으로 대상 크기의 변화율을 의미하는 증가도(Growth), 상기 영상 데이터의 영상에서 얼마나 많은 움직임이 일어난 것인지를 산출하는 움직임 빈도(Frequent Flicker), 상기 영상 데이터의 각 픽셀(Pixel)의 값들로부터 산출되는 연기의 지역 웨이블릿 에너지 변화도(Local Wavelet Energy) 및 상기 영상 데이터의 영역 전체의 형태가 영역의 부분에서 반복되어 나타나는 자기 유사도(Self-Similarity)를 포함하는 연기의 특징을 나타내는 파라미터들의 집합에서 하나 이상의 파라미터를 선택하여 추출하게 된다.That is, the
각 파라미터별 특징에 대해 좀 더 자세히 설명하기로 한다.
The characteristics of each parameter will be described in more detail.
무질서도(Disorder)Disorder
무질서도는 대상의 외형이 무질서하게 변화하는 정도를 측정하는 것으로 연기는 다른 대상과 비교하여 일정한 정형화된 형태를 가지지 않고 무질서하게 변화하는 양상을 띤다. Disorder is a measure of the degree of disorder in the appearance of an object, and acting does not have a regularized form, compared to other objects, and changes in disorder.
무질서도를 측정하는 방법은 먼저 입력된 신호를 그레이 및 메디안 스무드 필터 처리한다(S11). 배경 제거 알고리즘을 사용하여 움직인 픽셀들만을 검출한다(S12). 그리고 이진화 영상으로 이미지를 변환하고(S13), 모폴로지 필터를 통해 노이즈를 제거하여 움직인 픽셀의 군집을 얻는다(S14). 이러한 픽셀의 군집을 기준으로 하여 원본 영상으로부터 연기에 유사한 픽셀을 판단하여 가져오게 된다. 여기에서 군집의 크기를 무질서 검출 데이터로 사용하게 되는데, 연기로 추정되는 픽셀을 이진화 영상으로부터 얻어진 픽셀의 군집으로 나누어서 연기 추정 픽셀들의 비율을 구한다(S15). In order to measure the disorder, first, the input signal is processed through a gray and median smooth filter (S11). Only moving pixels are detected using the background elimination algorithm (S12). The image is converted into a binarized image (S13), and a cluster of moving pixels is obtained by removing noise through a morphology filter (S14). Based on the clustering of these pixels, pixels similar to smoke are determined from the original image. Here, the size of the cluster is used as the disorder detection data. The ratio of the estimated smoke pixels is obtained by dividing the pixel estimated as smoke by the group of pixels obtained from the binarized image (S15).
상기 S12 단계에서 사용하는 배경 제거 알고리즘은 입력되는 영상에서 프레임 간 변화가 없거나 또는 그 변화가 일상적인 경우에 배경에 해당하는 픽셀로 판단하고 선별하여 제거하는 것을 특징으로 한다.The background elimination algorithm used in the step S12 is characterized in that if there is no change between frames in the input image or if the change is ordinary, it is determined as a pixel corresponding to the background, and then selected and removed.
도 2는 걸어가는 사람(Walker)과 연기(Smoke)에 대한 무질서도를 비교한 결과값을 나타내고 있다.
Figure 2 shows the result of comparing the disorder for the walker (Walker) and smoke (Smoke).
증가도(Growth)Growth
증가도는 대상의 크기가 얼마나 변화했는가를 측정하는 것이다. 연기는 다른 대상과 비교하여 대체로 확산되는 특징을 가지고 있다. 이러한 특징을 바탕으로 대상의 크기가 변화하는 변화율을 체크한다. 이를 위해 수학식 1을 사용한다.The increase is a measure of how the size of the object has changed. Smoke has a characteristic of being generally diffused compared to other objects. Based on these characteristics, the rate of change of the size of the object is checked.
여기에서 t는 시간 또는 프레임을 나타내고, R은 대상 프레임 타겟 영역을 나타낸다. 측정하는 방법은 먼저 입력된 신호를 그레이 및 메디안 스무드 필터 처리한다. 배경 제거 알고리즘을 사용하여 움직인 픽셀들만을 검출한다. 이진화 영상으로 이미지를 변환하고 모폴로지 필터를 통해 노이즈를 제거하여 움직인 픽셀의 군집을 얻는다. 이 군집의 크기를 증가도 검출 데이터로 사용하게 되는데 일정한 간격을 두고 얻어진 크기 값을 비교하여 증가도를 측정한다. Here, t represents time or a frame, and R represents a target frame target region. In the measurement method, the input signal is first processed by gray and median smooth filters. The background removal algorithm is used to detect only moving pixels. The image is transformed into a binarized image and the morphology filter removes the noise to obtain a cluster of moving pixels. The size of this cluster is used as the increase detection data. The increase is measured by comparing the size values obtained at regular intervals.
도 3은 동영상으로부터 일반 사람이 걷는 것과 연기에 대한 증가도를 구한 것이다. 연기에 대한 값이 걸어가고 있는 사람의 값보다 큰 값을 나타내고 있음을 알 수 있다.
3 shows the increase in the walking and acting of the ordinary person from the video. It can be seen that the value for acting is greater than the value of the person walking.
움직임 빈도(Frequent Flicker)Frequent Flicker
움직임 빈도는 영상에서 얼마나 많은 움직임이 일어나는 것을 구하는 것이다. 연기의 특징은 바람 등의 영향을 받아 다른 객체에 비해 움직임이 많이 일어난다는 것이다. 움직임 빈도를 산출하는 방식은 일단 먼저 움직이는 영역만 추출한 영상을 그레이 영상으로 변환시킨 후(S21), 웨이블릿 형식으로 변환시킨다(S22). 도 4로부터 알 수 있듯이 고역통과필터(High Pass Filter, HPF)와 저역통과필터(Low Pass Filter, LPF)를 1단계만 통과시켜 고주파 영상(H)과 저주파 영상(L)을 얻는다(S23). 상기 고주파 영상과 저주파 영상을 각각 다운 샘플링할 수 있는 데(S24), 다운 샘플링을 시키는 이유는 각 저주파 혹은 고주파 성분이 다운 샘플링을 할수록 더욱 선명하게 나타나기 때문이다.The frequency of motion is how many motions occur in the image. The characteristic of the smoke is that it is affected by the wind, which causes more movement than other objects. The method of calculating the motion frequency first converts the image from which only the moving region is extracted into a gray image (S21), and then converts the image into a wavelet format (S22). As can be seen from FIG. 4, the high pass filter (HPF) and the low pass filter (LPF) are passed through only one stage to obtain a high frequency image (H) and a low frequency image (L). The high frequency image and the low frequency image can be down sampled respectively (S24), but the reason for down sampling is that each low frequency or high frequency component appears more clearly as down sampling occurs.
수학식 2에서와 같이 일정 프레임을 누적시킨 고주파 누적 영상과 저주파 누적 영상을 생성하고(S25), 상기 고주파 누적 영상을 상기 저주파 누적 영상으로 나눈 값을 본 발명에서 움직임 빈도 특성값으로 채택하였다.As shown in
채택된 움직임 빈도 특성값에 의해 그래프를 그리면 도 5와 같이 나타난다.When the graph is drawn by the adopted motion frequency characteristic value, it is shown in FIG.
도 5로부터 알 수 있는 바와 같이, 걷는 사람의 동영상의 경우 변화가 매우 심하며 움직임 빈도 특성값 또한 연기 동영상에 비해 높은 값을 유지하는 것을 확인할 수가 있다. 도 5 중 아래의 파란색과 빨간색 부분이 연기 동영상의 값을 나타낸 것이며, 위의 자주색과 초록색이 일반 동영상의 값이다. 도 5를 통해 연기 동영상의 값과 일반 동영상의 값을 비교해 보면 확연히 크게 차이 나는 구간이 많이 있음을 확인할 수 있다. As can be seen from FIG. 5, it can be seen that the moving person's moving picture is very severe and the movement frequency characteristic value is also maintained higher than the moving picture. The lower blue and red portions of FIG. 5 represent values of the smoke video, and the purple and green colors above are values of the general video. When comparing the value of the acting video and the value of the general video through Figure 5 it can be seen that there are a lot of significant differences.
좀 더 상기의 움직임 빈도를 산출하는 과정의 원리를 설명해 보면, 고역통과필터를 통과한 영상은 영상의 고주파 성분 즉, 어떠한 물체나 혹은 배경의 경계 부분만을 가지는 영상이 된다. 반면, 저역통과필터를 통과한 영상은 경계 부분을 제외한 나머지 부분을 가지는 영상이 된다. 이 두 개의 영상을 일정 프레임 동안 축적한 뒤 비를 구하게 되면, 경계가 어느 정도 빈번하게 움직였는지를 파악해 낼 수 있는 것이다.
The principle of the above-mentioned process of calculating the frequency of motion will be described. The image passing through the high pass filter is a high frequency component of the image, that is, an image having only an object or a boundary part of the background. On the other hand, the image passing through the low pass filter is an image having a portion other than the boundary portion. By accumulating these two images for a certain frame and then finding the rain, we can figure out how often the boundary has moved.
지역 웨이블릿 에너지 변화도(Local Wavelet Energy)Local Wavelet Energy
연기가 영상을 뒤덮게 되면, 얇은 종이를 통과하여 보이듯이 흐릿하게 보여지는 현상이 발생한다. 이러한 특징을 이용한 각 픽셀의 값들을 에너지라고 판단, 그 변화를 관찰하여 값을 구하는 것이다. 먼저 에너지를 얻기 위해서는 원본 영상데이터와 배경 데이터를 각각 그레이 영상으로 변환시킨 뒤(S31), 웨이블릿을 이용하여 2단계 필터를 통과하여 3가지 대역의 영상을 획득한다(S32). When smoke covers an image, it appears to be blurry as seen through thin paper. The value of each pixel using this feature is determined as energy, and the change is observed to obtain a value. First, in order to obtain energy, the original image data and the background data are converted into gray images, respectively (S31), and then, through the two-stage filter using a wavelet, images of three bands are obtained (S32).
S31 단계의 상기 배경 데이터는 배경 제거 알고리즘에 의해 구해진다.The background data of step S31 is obtained by a background removal algorithm.
상기 3가지 대역의 영상을 획득하는 과정을 살펴보면, 고역통과필터를 통과시킨 후 다시 고역통과필터를 통과시켜서 HH 대역의 영상을 각각 획득하는 단계(S321), 고역통과필터를 통과시킨 후 저역통과필터를 통과시켜서 HL 대역의 영상을 각각 획득하는 단계(S322) 및 저역통과필터를 통과시킨 후 고역통과필터를 통과시켜서 LH 대역의 영상을 각각 획득하는 단계(S323)를 포함하는 것을 특징으로 한다.Looking at the process of acquiring the images of the three bands, after passing the high pass filter and passing the high pass filter again to obtain each of the HH band image (S321), after passing the high pass filter and low pass filter Passing through the step of obtaining the image of the HL band (S322) and passing through the low pass filter, and then passing through the high pass filter to obtain the image of the LH band, respectively (S323).
상기 3가지 대역의 영상의 각 픽셀값을 제곱하여 합치는 것에 의해 상기 영상 데이터와 배경 데이터에 대한 새로운 합성 영상, 즉 Wn과 Wbn을 각각 생성한다(S33). By combining squares of the pixel values of the three band images, new composite images of the image data and the background data, that is, Wn and Wbn, are generated (S33).
즉, 예를 들면 Wn은 수학식 3과 같이 산출될 수 있다. That is, for example, Wn may be calculated as in Equation 3.
다음으로 상기 새로이 합성된 영상들을 각각 n개의 블록으로 분할한다(S34). 상기 영상 데이터의 합성 영상의 분할된 n개의 블록에 대해 n개의 에너지값 en을 산출한다(S35). 또한 상기 배경 데이터의 합성 영상의 분할된 n개의 블록에 대해 n개의 에너지값 ebn을 산출한다(S36).
Next, the newly synthesized images are divided into n blocks (S34). N energy values en are calculated for the n divided blocks of the composite image of the image data (S35). Further, n energy values ebn are calculated for the n divided blocks of the composite image of the background data (S36).
예를 들면 합성된 이미지를 8*8 사이즈의 블록으로 분할한 경우, 수학식 4와 수학식 5를 이용하여 각 블록으로부터 에너지의 값들을 산출할 수 있다. En은 Wn의 영상에서, Ebn은 Wbn의 영상으로부터 각각 구한다.For example, when the synthesized image is divided into blocks of 8 * 8 size, equations 4 and 5 may be used to calculate energy values from each block. En is obtained from the video of Wn and Ebn is obtained from the video of Wbn.
상기와 같이 산출된 에너지값들을 기반으로 하여 Wn과 Wbn 모두에 대해 각 블록에 인덱스를 부여한다. 각 인덱스별로 수학식 6의 조건을 만족시키는 것을 도 6에서 붉은 색으로 표시하였다.An index is assigned to each block for both Wn and Wbn based on the energy values calculated as described above. Satisfying the condition of Equation 6 for each index is indicated in red in FIG. 6.
도 6에서 붉은 표시가 된 영역은 에너지의 변화가 많은, 즉 연기가 의심되는 지역으로 볼 수 있게 되는 것이다. 즉, 상기 ebn이 상기 en 보다 미리 설정된 일정값 보다 큰 연기 의심 영역을 설정한다(S37).In FIG. 6, the region marked with red is considered to be a region where energy changes, that is, smoke is suspected. In other words, the suspected area where the ebn is greater than a predetermined predetermined value than the en is set (S37).
상기 설정된 연기 의심 영역의 에너지 변화도를 수학식 7에 의해 산출할 수 있다(S38). The energy change degree of the suspected smoke region may be calculated by Equation 7 (S38).
연기로 의심되는 역역은 상당히 많음으로 각각의 의심되는 영역의 변화율을 구한 뒤 평균을 내어 의미 있는 에너지 특성 값을 얻어낸다. 연기가 나타나게 된 영상의 에너지값의 변화가 매우 크기 때문에, 연기가 나기 전의 영상과 연기가 난 후의 영상을 비교하면 쉽게 연기의 유무를 구별해 낼 수 있다.
The range of suspected smoke is quite large, so the rate of change in each suspected area is calculated and averaged to yield meaningful energy characteristic values. Since the change in the energy value of the image where the smoke appeared is very large, it is easy to distinguish the presence or absence of the smoke by comparing the image before the smoke and the image after the smoke.
자기 유사도(Self-Similarity)Self-Similarity
자기 유사도는 영역 전체의 형태가 영역 부분에서 반복되어 나타나는 성질을 의미한다. 연기 영역은 연기 영역 내에서는 자기 유사의 성질을 갖는다. 즉, 연기 영역의 각 부분은 전체 영역의 움직임 양상과 비슷한 형태로 확산 되거나 감소하는 특징을 보인다. 이러한 자기 유사도의 계수를 검출한다.Magnetic similarity refers to a property in which the shape of the whole area is repeated in the area part. The smoke zone has the property of self-similarity within the smoke zone. In other words, each part of the smoke area is spread or reduced in a similar manner to the movement pattern of the entire area. This coefficient of magnetic similarity is detected.
즉, 자기 유사도란 급수를 다수 다중화 시켰을 때도 새로운 급수들은 원래 급수와 같은 자기 상관 함수를 가지는 특성을 말한다. 데이터의 라 정의하자. In other words, the self-similarity refers to the characteristic that the new series has the same autocorrelation function as the original series even when multiple series are multiplexed. Of data Let's define
자기 유사도는 원래 데이터의 급수 X를 m 만큼의 크기로 중복되지 않게 값들을 선택한 후, 선택된 값들의 평균값을 내서 구한다. 만약 X가 자기 유사도를 가진다면 X의 자기 상관 함수 는 수학식 8로 표현된다.The magnetic similarity is obtained by selecting values such that the series of original data X does not overlap by m, and then averages the selected values. If X has autosimilarity, then X's autocorrelation function Is expressed by Equation (8).
는 모든 m에 대한 급수 에 대해서도 같은 자기 상관 함수를 가지며, 이와 같은 특성은 급수들이 분포적인 자기 상관성(distributional self-similarity)을 가진다고 한다. Watering for all m We have the same autocorrelation function for, and this property is said that the series have distributed self-similarity.
시간에 관계된 급수를 표현하기 위해 자기 상관 모델을 사용하는데, 자기 상관 모델을 사용하면 급수의 자기 상관 정도를 하나의 파라미터를 사용해서 나타낼 수 있기 때문이다. 이 파라미터는 급수의 자기 상관 함수의 감쇄율을 나타내고 이를 Hurst 파라미터라 하는데 수학식 9로 표현된다.An autocorrelation model is used to represent time-related series, because the autocorrelation model can be used to express the degree of autocorrelation of a series using a single parameter. This parameter represents the decay rate of the autocorrelation function of the series, which is referred to as the Hurst parameter.
자기 유사도 특징으로 분석하기 위해서 앞에서 정의한 Hurst 파라미터를 구하면 된다.
To analyze the self-similarity feature, we can find the Hurst parameter defined above.
지능형 연기 검출을 위한 시스템 구성System configuration for intelligent smoke detection
본 발명에서는 학습 및 인식 효과를 최대한 살리기 위해서 다음과 같은 사항을 고려해 학습 모델을 설계하였다.In the present invention, the learning model was designed in consideration of the following points in order to maximize the learning and recognition effects.
- 얼마나 많은 학습을 필요로 하는가? How much learning do you need?
- 데이터를 어떻게 테스트 데이터와 검증 데이터로 분할할 수 있는가? How can I partition the data into test and validation data?
- 사용될 수 있는 비퍼지화 방법, 에러 함수, 평가 함수들은 어떤 것이 있는가? What are the defuzzy methods, error functions, and evaluation functions that can be used?
- 중요한 입력 변수들을 어떻게 선택할 수 있는가? How can I select important input variables?
- 안전성이 결정적으로 중요한 응용들에서 신경망을 사용할 수 있는가?
Can the neural network be used in safety critical applications?
본 발명에서는 최적의 해를 구하기 위한 소속 함수 조율을 하는 새로운 학습 방법을 제시한다.The present invention proposes a new learning method that performs membership function tuning to find an optimal solution.
퍼지 군집화 방법을 통해 초기 퍼지 소속 함수 즉, 시스템의 구조를 결정하고 결정된 최적의 초기값을 유전자 알고리즘을 이용하여 소속 함수를 최적화하는 방법이다. 다음 특성들을 갖는 문제에 관해서 유전자 알고리즘은 신경망과 퍼지 논리가 결합 되어 적응 학습 및 최적화 문제를 해결하는데 사용될 수 있다. The fuzzy clustering method is used to determine the initial fuzzy membership function, that is, the structure of the system, and to optimize the membership function using the genetic algorithm to determine the optimal initial value. Genetic algorithms can be used to solve adaptive learning and optimization problems by combining neural networks and fuzzy logic in terms of the following characteristics.
- 여러 개의 국부적 해가 존재하는 문제-Multiple local solutions exist
- 어느 정도의 규칙성을 가지고 있는 문제-Some degree of regularity
- 문제 영역이 규칙성이 어느 정도 염색체로 표현 가능한 문제
-Problem areas can be expressed to some degree in regularity
지능형 연기 검출을 위한 퍼지 신경망 시스템 모델링Fuzzy Neural Network System Modeling for Intelligent Smoke Detection
여러 개의 입력과 하나의 출력을 갖는 시스템의 경우, 입력 변수와 출력의 차원은 주어진 시스템에 따라 미리 고정된다. 본 발명에서 사용된 모델은 단순화된 퍼지 모델을 사용한다. 연산 지능에서 퍼지 신경망 구조는 기본적으로 신경망 구조로 이루어진 퍼진 추론 시스템이다. n 차원의 벡터가 입력으로 퍼지 추론 시스템에 적용되면 학습 단계에서 퍼지 규칙들이 만들어진다. 입력 변수가 x = (x 1 , x 2 ,.......,x n )로 표현되고 출력 값이 y로 표현될 때, 퍼지 추론을 위해서 수학식 10 형태의 "IF-THEN" 규칙을 사용한다. "IF-THEN" 규칙에서 IF 다음으로부터 THEN 앞부분까지는 전건부라고 하고, THEN 이하를 후건부라고 한다.For systems with multiple inputs and one output, the dimensions of the input variables and outputs are fixed in advance according to the given system. The model used in the present invention uses a simplified fuzzy model. In computational intelligence, fuzzy neural network structure is basically an inferential system composed of neural network structure. When n- dimensional vectors are applied to the fuzzy inference system, fuzzy rules are created in the learning phase. When the input variable is represented by x = ( x 1 , x 2 , ......., x n ) and the output value is represented by y , the " IF-THEN " rule of the form of
상기에서 인덱스 i 는 규칙의 순서를 나타내고, A ij 는 i 번째 규칙과 j 번째 언어변수를 나타낸다. w i 는 결론부에서 출력값을 계산하기 위한 가중치에 해당하는 실수 값을 가져온다.In the above, the index i represents the order of rules, and A ij represents the i th rule and the j th language variable. w i gets the real value corresponding to the weight for calculating the output at the conclusion.
본 발명에서는 퍼지 신경망을 위한 소속 함수로 수학식 11로 표현되는 가우시안(Gaussian) 함수를 사용한다.In the present invention, a Gaussian function represented by Equation 11 is used as a membership function for fuzzy neural networks.
지식 베이스 응용을 위해 퍼지 추론을 해야 하는데, 입력 벡터에 대한 i 번째 규칙의 소속 값을 계산하기 위해서는 수학식 12를 이용한다.Fuzzy inference is required for knowledge base application, and Equation 12 is used to calculate the belonging value of the i th rule for the input vector.
규칙의 전제 부분에 대한 소속 값과 가중치의 값은 아직 퍼지 값이라 할 수 있다. 따라서 주어진 입력값에 대해 최종 결과를 구하기 위해 수학식 13을 이용해 비퍼지화 시킨 후 이값을 최종값으로 사용한다.The values of membership and weight for the premise of the rule are still fuzzy values. Therefore, in order to obtain the final result for a given input value, it is defused using Equation 13 and then used as the final value.
퍼지 집합 이론과 신경망 이론의 장점을 이용해 보다 나은 시스템을 구축해 주어진 문제를 해결하기 위해서는 학습 능력, 최적화 능력, 연결 구조, 인간이 이해하기 쉬운 "IF-THEN" 규칙들 및 전문가로부터 얻을 수 있는 지식을 획득할 수 있어야한다. 이들을 이용하여 퍼지 신경망 시스템은 퍼지 "IF-THEN" 규칙을 전제 부분과 결과 부분을 가중치를 이용한 연결을 통한 퍼지 추론 시스템으로 표현될 수 있다. 이러한 구조가 학습을 수행하고 규칙을 자율적으로 조절할 수 있도록 한다. To build a better system using the strengths of fuzzy set theory and neural network theory to solve a given problem, we need to learn from learning, optimization, connection structure, human - friendly " IF-THEN " rules, and knowledge from experts. Must be able to obtain Using them, the fuzzy neural network system can be expressed as a fuzzy inference system through the concatenation of the fuzzy " IF-THEN " rule using the predicate part and the result part. This structure allows you to perform learning and control the rules autonomously.
이러한 시스템은 학습 데이터를 이용하여 학습 단계에서 퍼지 규칙을 생성함으로써 기존의 방법보다 좋은 결과를 가져올 수 있도록 한다. 기본적인 개념은 군집화 방법을 이용하여 퍼지 규칙수를 결정한다. 제안된 시스템의 구조는 입력층, 은닉층, 그리고 출력층으로 구성되며, 도 7과 같이 나타낼 수 있다.
Such a system uses the training data to generate fuzzy rules in the learning stage, thereby producing better results than conventional methods. The basic idea is the clustering method to determine the fuzzy rules. The structure of the proposed system is composed of an input layer, a hidden layer, and an output layer, as shown in FIG.
지능형 연기 검출을 위한 퍼지 신경망 시스템의 구조 결정Structural Decision of Fuzzy Neural Network System for Intelligent Smoke Detection
시스템의 구조를 파악하기 위해서 퍼지 c-Means 군집화 기법을 사용하였다. 여기서는 거리를 구할 때 수학식 14와 같이 가중치와 원하는 출력 정보를 모두 이용한다. N개의 데이터 쌍을 로 정의했을 때 수학식 15는 목적 함수를 나타낸다.Fuzzy c-Means clustering technique was used to understand the structure of the system. In this case, both weights and desired output information are used as shown in Equation (14). N pairs of data When defined as 15 represents the objective function.
여기에서 v i 는 입력 공간에서 i번째 규칙의 중심 값을 갖는 벡터이고 w i 는 i번째 규칙의 출력을 의미한다. u ik 는 k번째 입력 데이터 x k 가 i번째 군집에 속하는 정도에 따라 0과 1 사이의 값을 갖게 된다. m은 소속 함수의 퍼지성(애매함)의 정도에 대한 영향을 나타내는 지수의 가중치로서 보통 2를 사용한다.Where v i is the vector with the center of the i th rule in the input space and w i is the output of the i th rule. u ik has a value between 0 and 1 depending on the degree to which the k th input data x k belongs to the i th cluster. m is usually used as the weight of the exponent which indicates the effect on the degree of fuzzyness (ambiguity) of the membership function.
중심값과 가중치가 고정됨으로써 수학식 16을 이용해 소속 함수값을 구할 수 있다.Since the center value and the weight are fixed, the membership function can be obtained using Equation 16.
소속 함수값이 계산된 후 중심 값 v i 와 가중치 w i 를 수학식 17과 수학식 18을 이용해 구할 수 있다.After the membership function is calculated, the center value v i and the weight w i can be calculated using Equations 17 and 18.
도 8에 따라 하기에 시스템 구조와 규칙수를 결정하기 위한 알고리즘을 보다 상세하게 설명하기로 한다.
The algorithm for determining the system structure and the number of rules will be described in more detail below with reference to FIG. 8.
시스템 구조와 규칙수를 결정하기 위한 알고리즘 Algorithms for Determining System Structure and Number of Rules
먼저 지수의 가중값 m, 최대 군집의 수 C, 에러 허용치ε, 최대 반복 횟수T 및 초기 유효성 값 Z(c)를 포함하는 각 변수를 초기화를 실시한다(S41). 또한, 군집의 갯수 uik(t)를 0 또는 1로 초기화한다(S42).First, each variable including the weight value m of the exponent, the maximum number of clusters C, the error tolerance ε, the maximum number of repetitions T, and the initial validity value Z (c) is initialized (S41). In addition, the number of clusters u ik (t) is initialized to 0 or 1 (S42).
다음으로 새로운 중심값 vi(t)와 가중치 wi(t)를 산출한다(S43). 산출된 새로운 중심값 vi(t)와 가중치 wi(t)를 이용하여 군집의 갯수 uik(t)를 갱신한다(S44).Next, the new center value v i (t) and the weight w i (t) are calculated (S43). The number of clusters u ik (t) is updated using the calculated new center value v i (t) and the weight w i (t) (S44).
uik(t)와 uik(t-1)의 차이의 절대값의 최대값 Delta를 산출하고(S45), 상기 최대값 Delta가 에러 허용치 ε 보다 크다면, t를 하나 증가시키고, S43 단계 이후의 단계를 반복하여 수행한다(S46. S47).Calculate the maximum value Delta of the absolute value of the difference between u ik (t) and u ik (t-1) (S45), and if the maximum value Delta is greater than the error tolerance ε, increase t by one, after step S43 Repeat the steps of (S46. S47).
만일 최대값 Delta가 에러 허용치 ε 보다 작거나 같다면, 새로운 유효성 값 Z(c)를 산출한다(S48). Z(c)가 Z(c-1) 보다 크다면, 알고리즘을 종료한다(S49, S51).If the maximum value Delta is less than or equal to the error tolerance ε, a new validity value Z (c) is calculated (S48). If Z (c) is larger than Z (c-1), the algorithm ends (S49, S51).
그러나, Z(c)가 Z(c-1) 보다 작거나 같다면, c를 증가시키고(S49, S50), 상기 S42 단계 이후의 단계를 반복적으로 실시하게 된다.
However, if Z (c) is less than or equal to Z (c-1), c is increased (S49, S50), and the steps after the step S42 are repeatedly performed.
S41 단계의 초기화 값은 각각 다음과 같다.Initialization values of step S41 are as follows.
지수의 가중 : m > 0Exponential weighting: m> 0
에러 허용치(임계값) : ε > 0Error Tolerance (Threshold): ε> 0
최대 군집의 수 : CMaximum number of clusters: C
최대 반복 횟수 : TMaximum number of repetitions: T
초기 군집 유효성 값 : Z(1)Initial cluster validity value: Z (1)
단, 상기 시스템 구조와 규칙수를 결정하기 위한 알고리즘에서 유효성 값은 을 사용하여 산출된다. 즉, dik는 각 그룹 내에서의 에러(WGSS-Within Group Sum of Squared Error)를 나타내며, ddio은 그룹 사이의 에러(BGSS- Between Groups Sum of Squared Error)를 나타내므로, Z(c)의 최소화가 군집 수를 선택하는 기준으로 사용되는 것이다.
However, the validity value in the algorithm for determining the system structure and the number of rules is Is calculated using That is, d ik denotes an error within each group (WGSS-Within Group Sum of Squared Error), and dd io denotes an error between groups (BGSS- Between Groups Sum of Squared Error). Minimization is used as a criterion for selecting the number of clusters.
유전자 알고리즘을 이용한 퍼지 소속 함수의 매개변수 조율Parameter Tuning of Fuzzy Membership Function Using Genetic Algorithm
수학식 11에서 사용된 가우시안 소속 함수의 매개변수들을 유전자 알고리즘을 이용하여 최적화하기 위한 방법을 설명하기로 한다. 본 발명에서는 비대칭형 소속 함수를 제안했기 때문에 분산값을 좌측과 우측으로 나누어 조율하며 이들의 매개변수를 최적화하기 위해서 유전자 알고리즘을 사용한다.A method for optimizing the parameters of the Gaussian membership function used in Equation 11 using a genetic algorithm will be described. In the present invention, since the asymmetric membership function is proposed, the variance is divided into left and right sides, and the genetic algorithm is used to optimize these parameters.
퍼지 시스템의 출력을 위한 비퍼지화 방법은 수학식 13을 이용하고 적합도를 평가하기 위해 에러 함수를 수학식 19와 같이 정의한다.The defuzzy method for the output of the fuzzy system uses Equation 13 and defines an error function as Equation 19 to evaluate the goodness of fit.
앞선 시스템 구조 파악하는 단계에서 최적화된 퍼지 규칙의 수를 구할 수 있었다. k번째 입력 데이터는 로 표현할 수 있고, 입력과 그에 대한 목표 값의 쌍은 로 표현한다. 이를 바탕으로 각 규칙에 대한 초기 중심 값과 분산 값을 수학식 20과 수학식 21을 이용한다.In the previous stage of identifying system structure, the number of optimized fuzzy rules was obtained. kth input data Where the input and the target value for it are Expressed as Based on this, equations (20) and (21) are used as initial center values and variance values for each rule.
본 발명에서 매개변수 값들이 유전자 알고리즘을 이용해 조율되면 초기값과 다른 값들로 구성되게 된다. 일반적인 유전자 알고리즘은 초기값은 임의의 값을 할당하는데 시스템 특성상 일정한 범위 내의 실수 유전자를 사용하게 된다. 각 규칙에 대한 중심 값들은 시스템 구조 파악 단계에서 구해진다. 이 값들은 군집화 단계에서 각 군집에 대한 대표성을 지니고 있기 때문에 변화시킬 필요가 없다고 정의한다. In the present invention, when the parameter values are tuned using a genetic algorithm, the parameter values are composed of values different from the initial values. In general genetic algorithm, the initial value is assigned an arbitrary value, and due to the characteristics of the system, the real gene is used within a certain range. The central values for each rule are obtained at the system architecture level. These values define that they do not need to be changed because they are representative of each cluster during the clustering stage.
또한 분산과 관련된 매개변수들은 관련된 중심 값들의 영역을 벗어나지 못하도록 일정한 영역 내에서 조율한다. 그러나 가중치 값과 관련된 매개변수 값들의 영역은 특별히 제한하지 않는다. 퍼지 규칙들에 소속 함수에 대한 식은 수학식 11을 비대칭 소속 함수를 위해 수학식 22로 변경한다. 따라서, 이 식을 이용하면 좌우 분산 값을 이용한 비대칭 소속 함수가 됨을 알 수 있다.Also, the parameters related to variance are tuned within a certain range so as not to deviate from the range of associated central values. However, the range of parameter values related to the weight value is not particularly limited. The equation for the membership function in the fuzzy rules changes Equation 11 to Equation 22 for the asymmetric membership function. Therefore, using this equation, it can be seen that it becomes an asymmetric membership function using left and right variance values.
각 군집에서 조율되어야 할 염색체의 개수는 입력 데이터의 요소의 수에 달려 있다. 예를 들어 본 발명 시스템의 경우 각 규칙에 대해 입력이 5차원으로 구성되어 있는 경우 10개의 좌우 분산과 관련된 매개변수와 가중치 매개변수 한 개를 포함해 총 11개로 구성된다.
The number of chromosomes to be tuned in each cluster depends on the number of elements in the input data. For example, in the system of the present invention, when the input is configured in five dimensions for each rule, the system includes 11 parameters including one parameter related to 10 left and right variances and one weight parameter.
상기 시스템 구조가 결정되면, 다음으로 비대칭 가우시안 소속 함수의 조율에 대해 도 9의 흐름도에 따라 하기에 설명하기로 한다.
Once the system structure has been determined, the tuning of the asymmetric Gaussian membership function will next be described according to the flow chart of FIG.
유전자 알고리즘을 이용한 비대칭 가우시안 소속 함수 조율Tuning Asymmetric Gaussian Membership Function Using Genetic Algorithm
먼저, 수학식 20과 수학식 21을 이용해 초기 가중치 값과 분산에 대한 초기값을 산출한다(S61).First, an initial weight value and an initial value for variance are calculated using
다음으로 초기 가중치 값과 분산 값을 마지막 유전형에 복사하고 나머지 유전형들은 임의의 값을 발생시켜 초기 유전자 집단을 생성한다(S62).Next, the initial weight value and the variance value are copied to the last genotype, and the remaining genotypes generate random values to generate an initial gene population (S62).
퍼지 추론과 에러 함수(수학식 19)를 이용해 초기 유전자 집단에 대한 적합도 계산한다(S63). 다음으로 재생산, 즉 유전자 알고리즘 연산자와 선택된 개체들로부터 다음 세대를 생성한다(S64).The fitness for the initial gene population is also calculated using fuzzy inference and an error function (Equation 19) (S63). Next, reproduction, that is, the next generation is generated from the genetic algorithm operator and the selected individuals (S64).
퍼지 추론과 에러 함수(수학식 19)를 이용해 새로 생성된 유전자 집단에 대한 적합도 계산한다(S65). 만일 최적의 유전자가 발견되면 종료하고 아니면 S64 단계로 이동하여 반복 실시한다.
A fitness for the newly generated gene population is also calculated using fuzzy inference and an error function (Equation 19) (S65). If the optimal gene is found, it ends. Otherwise, go to step S64 and repeat.
상기 S64 단계는 각 유전형의 적합도를 마지막 유전형의 적합도와 비교하여 최고의 적합도를 갖는 유전형을 마지막 유전형에 배치하는 선택 연산자 수행 단계(S641); 선택에 의해서 생존이 결정된 유전형에 대해 교배하는 교배 연산자 수행 단계(S642); 및 임의로 유전형을 선택하여 돌연변이 시키는 돌연변이 연산자 수행 단계(S643);를 포함한다.
The step S64 may include performing a selection operator (S641) comparing the goodness of fit of each genotype to the goodness of the last genotype and placing the genotype having the best fit in the last genotype (S641); Performing a crossover operator crossing the genotype whose survival is determined by selection (S642); And optionally performing a mutation operator (S643) for selecting and mutating genotypes.
도 10에서는 본 발명에서 제안한 연기의 특징을 사용하여 퍼지 신경망에 적용할 수 있는 구조를 보여준다. 이 구조는 신경망에 다층 전방향 형태와 유사한 구조를 보여준다. 입력층은 검출된 연기의 특징을 입력 원소로 사용한다. 은닉층에 서는 입력 데이터의 값의 따라 각 군집에 속하는 정도에 따라 0과 1 사이의 값을 갖게 된다. w는 가중치를 나타내는 것으로서 학습과정에서 결정된다. y는 결과값을 의미한다.
Figure 10 shows a structure that can be applied to the fuzzy neural network using the characteristics of the smoke proposed in the present invention. This structure shows a structure similar to a multilayer omnidirectional form in neural networks. The input layer uses the detected smoke characteristics as input elements. The hidden layer has a value between 0 and 1 depending on the extent of each cluster according to the value of the input data. w represents a weight and is determined in the learning process. y means the result value.
상술한 바와 같은 과정에 의해 생성된 도 10과 같은 구조의 학습 모델을 이용하여 상기 판단부(50)는 실제 연기의 검출 여부를 필요로 하는 감시 대상 영역의 연기 검출 여부를 판단하게 된다.
Using the learning model having the structure as shown in FIG. 10 generated by the above-described process, the
10 : 영상 입력부 20 : 데이터 저장부
30 : 파라미터 추출부 40 : 학습부
50 : 판단부10: video input unit 20: data storage unit
30: parameter extraction unit 40: learning unit
50: judgment unit
Claims (21)
영상 데이터를 입력받는 영상 입력부;
상기 입력받은 영상 데이터를 저장하는 데이터 저장부;
상기 데이터 저장부 또는 상기 영상 입력부로부터 영상 데이터를 입력받아 연기의 특징을 나타내는 하나 이상의 파라미터를 추출하는 파라미터 추출부;
상기 파라미터 추출부로부터 파라미터를 입력받아 학습을 실시하고, 학습의 실시에 의해 학습 모델을 생성하는 학습부; 및
상기 학습 모델을 이용하여 상기 파라미터 추출부로부터 파라미터를 입력받아 연기 검출 여부를 판단하는 판단부;를 포함하는 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템.
In the intelligent smoke detection system,
An image input unit configured to receive image data;
A data storage unit for storing the received image data;
A parameter extracting unit which receives image data from the data storage unit or the image input unit and extracts at least one parameter representing a feature of smoke;
A learning unit which receives a parameter from the parameter extracting unit to perform learning and generates a learning model by performing learning; And
And a determination unit that receives a parameter from the parameter extraction unit to determine whether to detect smoke using the learning model. The intelligent smoke detection system using image processing and intelligent operation.
대상의 외형이 무질서하게 변화하는 정도를 측정하는 무질서도;
연기의 확산 특징을 바탕으로 대상 크기의 변화율을 의미하는 증가도;
상기 영상 데이터의 영상에서 얼마나 많은 움직임이 일어난 것인지를 산출하는 움직임 빈도;
상기 영상 데이터의 각 픽셀의 값들로부터 산출되는 연기의 지역 웨이블릿 에너지 변화도; 및
상기 영상 데이터의 영역 전체의 형태가 영역의 부분에서 반복되어 나타나는 자기 유사도;를 포함하는 파라미터의 집합으로부터 선택되는 것을 특징으로 하는 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템.
The method of claim 1, wherein the one or more parameters extracted by the parameter extractor are:
Disorder to measure the degree to which the appearance of the subject changes disorderly;
An increase that means the rate of change of the target size based on the diffusion characteristics of the smoke;
A movement frequency for calculating how much movement has occurred in the image of the image data;
A local wavelet energy gradient of smoke calculated from values of each pixel of the image data; And
Intelligent similarity detection system using image processing and intelligent operation, characterized in that the shape of the entire area of the image data is selected from a set of parameters including;
상기 영상 데이터의 움직인 픽셀을 검출하여 이진화 영상으로 변환하고, 이진화 영상에 의해 움직인 픽셀의 군집을 얻고, 연기로 추정되는 픽셀을 상기 군집으로 나누어서 연기 추정 픽셀들의 비율을 구하는 것에 의해 산출되는 것을 특징으로 하는 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템.
The method of claim 2, wherein the disorder is
Is calculated by detecting moving pixels of the image data and converting them into a binarized image, obtaining a cluster of pixels moved by the binarized image, and dividing the pixels estimated to be smoke by the clusters to obtain a ratio of the estimated smoke pixels. Intelligent smoke detection system using image processing and intelligent operation.
상기 움직인 픽셀을 검출하는 방법은 배경 제거 알고리즘을 사용하되, 상기배경 제거 알고리즘은 입력되는 영상에서 프레임 간 변화가 없거나 또는 그 변화가 일상적인 경우에 배경에 해당하는 픽셀로 선별하여 제거하는 것을 특징으로 하는 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템.
The method of claim 3,
The moving pixel detection method uses a background removal algorithm, wherein the background removal algorithm selects and removes pixels corresponding to a background when there is no change between frames in the input image or when the change is common. Intelligent smoke detection system using image processing and intelligent computation.
(상기에서 t는 시간 또는 프레임, R은 대상 프레임의 타겟 영역, Size는 면적을 각각 나타낸다.)
The intelligent smoke detection system according to claim 2, wherein the increase is calculated by the following equation.
(Where t is time or frame, R is target area of target frame, and Size is area, respectively.)
상기 영상 데이터로부터 움직이는 영역만 추출하여, 그레이 영상화하고, 웨이블릿 형식으로 변환한 후, 고역통과필터와 저역통과필터를 각각 통과시켜 고주파 영상과 저주파 영상을 각각 얻고, 상기 고주파 영상과 저주파 영상을 각각 일정 프레임을 누적시켜 그 합을 구하여 고주파 누적 영상과 저주파 누적 영상을 얻으며, 상기 고주파 누적 영상을 상기 저주파 누적 영상에 의해 나누는 것에 의해 산출되는 것을 특징으로 하는 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템.
The method of claim 2, wherein the frequency of movement,
After extracting only the moving region from the image data, converting it into a gray image, converting it into a wavelet format, passing a high pass filter and a low pass filter, respectively, to obtain a high frequency image and a low frequency image, respectively, and the high frequency image and the low frequency image are respectively fixed. Accumulating frames to obtain a sum thereof to obtain a high frequency accumulated image and a low frequency accumulated image, and calculating the high frequency accumulated image by dividing the high frequency accumulated image by the low frequency accumulated image.
The method of claim 6, wherein after obtaining the high frequency image and the low frequency image, down-sampling the high frequency image and the low frequency image to increase the sharpness of each image is performed. Detection system.
(a-1) 상기 영상 데이터와 배경 데이터를 그레이 영상으로 변환하는 단계;
(a-2) 상기 그레이 영상들에 대해 웨이블릿 형식으로 변환하고, 2단계 필터링에 의해 3가지 대역의 영상을 각각 획득하는 단계;
(a-3) 상기 3가지 대역의 영상의 각 픽셀값을 제곱하여 합치는 것에 의해 상기 영상 데이터와 배경 데이터에 대한 새로운 합성 영상을 생성하는 단계;
(a-4) 상기 새로이 합성된 영상들을 각각 n개의 블록으로 분할하는 단계;
(a-5) 상기 영상 데이터의 합성 영상의 분할된 n개의 블록에 대해 n개의 에너지값 en을 구하는 단계;
(a-6) 상기 배경 데이터의 합성 영상의 분할된 n개의 블록에 대해 n개의 에너지값 ebn을 구하는 단계;
(a-7) 상기 ebn이 상기 en 보다 미리 설정된 일정값 보다 큰 연기 의심 영역을 설정하는 단계; 및
(a-8) 상기 연기 의심 영역에 대해 상기 n개의 블록별로 상기 배경 데이터의 에너지와 상기 영상 데이터의 에너지의 차를 구하고 이를 배경 데이터의 에너지로 나누어 에너지 변화도를 산출하는 단계;를 포함하는 단계에 의해 산출되는 것을 특징으로 하는 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템.
The method of claim 2, wherein the local wavelet energy gradient is,
(a-1) converting the image data and the background data into a gray image;
(a-2) converting the gray images into a wavelet format and acquiring three bands of images by two-step filtering;
(a-3) generating a new composite image of the image data and the background data by squaring and combining respective pixel values of the three band images;
(a-4) dividing the newly synthesized images into n blocks each;
(a-5) obtaining n energy values en for divided n blocks of the composite image of the image data;
(a-6) obtaining n energy values ebn for the n divided blocks of the composite image of the background data;
(a-7) setting a postponing region where ebn is greater than a predetermined predetermined value than en; And
(a-8) obtaining a difference between the energy of the background data and the energy of the image data for each of the n blocks with respect to the suspected smoke area, and dividing the energy by the energy of the background data to calculate an energy change degree; Intelligent smoke detection system using image processing and intelligent operation, characterized in that calculated by.
고역통과필터를 통과시킨 후 다시 고역통과필터를 통과시킨 영상, 고역통과필터를 통과시킨 후 저역통과필터를 통과시킨 영상 및 저역통과필터를 통과시킨 후 고역통과필터를 통과시킨 영상인 것을 특징으로 하는 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템.
The method of claim 8, wherein the three bands of the step (a-2),
After passing through the high pass filter, the image passed the high pass filter again, passed through the high pass filter, passed the low pass filter image, and passed through the low pass filter, characterized in that the image passed through the high pass filter Intelligent smoke detection system using image processing and intelligent operation.
상기 영상 데이터의 급수를 미리 설정된 일정한 크기로 중복되지 않게 선택한 후 선택된 값들의 평균값에 의해 산출되는 것을 특징으로 하는 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템.
The method of claim 2, wherein the magnetic similarity is
Intelligent smoke detection system using image processing and intelligent operation, characterized in that calculated by the average value of the selected value after selecting the water supply of the image data is not overlapped to a predetermined predetermined size.
상기 자기 유사도가 시간에 관계된 급수를 이용할 경우, 자기 상관 모델을 사용하여 급수의 자기 상관 함수의 감쇄율을 나타내는 Hurst 파라미터에 의해 산출되는 것을 특징으로 하는 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템.
The method of claim 10,
When the auto-similarity uses a time-related series, the intelligent smoke detection system using the image processing and intelligent calculation, characterized in that it is calculated by the Hurst parameter representing the decay rate of the auto-correlation function of the series.
상기 학습 모델의 생성을 위한 신경망은 퍼지 신경망을 이용하되, 상기 퍼지 시스템의 모델링은 IF-THEN 규칙을 사용하며, 상기 퍼지 신경망의 구조는 군집화 기법을 사용하여 결정되는 것을 특징으로 하는 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템.
The method of claim 1,
The neural network for generating the learning model uses a fuzzy neural network, the modeling of the fuzzy system uses IF-THEN rules, and the structure of the fuzzy neural network is determined using a clustering technique. Intelligent smoke detection system using computation.
중심값 vi, 군집의 갯수 uik 및 가중치 wi에 의해 결정하는 것을 특징으로 하는 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템.
The method of claim 12, wherein the determination of the structure of the fuzzy neural network,
Intelligent smoke detection system using image processing and intelligent arithmetic, characterized in that determined by the center value v i , the number of clusters u ik and the weight w i .
(b-1) 지수의 가중값 m, 최대 군집의 수 C, 에러 허용치 ε, 최대 반복 횟수 T 및 초기 유효성 값 Z(c)를 포함하는 각 변수를 초기화하는 단계;
(b-2) 군집의 갯수 uik(t)를 0 또는 1로 초기화하는 단계;
(b-3) 새로운 중심값 vi(t)와 가중치 wi(t)를 산출하는 단계;
(b-4) 산출된 새로운 중심값 vi(t)와 가중치 wi(t)를 이용하여 군집의 갯수 uik(t)를 갱신하는 단계;
(b-5) uik(t)와 uik(t-1)의 차이의 절대값의 최대값 Delta를 산출하는 단계;
(b-6) 상기 최대값 Delta가 에러 허용치 ε 보다 크다면, t를 하나 증가시키고, 상기 (b-3) 단계 이후의 단계를 반복하여 수행하는 단계;
(b-7) 만일 최대값 Delta가 에러 허용치 ε 보다 작거나 같다면, 새로운 유효성 값 Z(c)를 계산하는 단계;
(b-8) Z(c)가 Z(c-1) 보다 크다면, 종료하는 단계; 및
(b-9) Z(c)가 Z(c-1) 보다 작거나 같다면, c를 증가시키고, 상기 (b-2) 단계 이후의 단계를 반복적으로 실시하는 단계;를 포함하는 방법에 의해 결정되되,
상기 c는 군집의 수를 의미하고, t는 반복 횟수를 의미하는 것을 특징으로 하는 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템.
The method of claim 13, wherein the determination of the structure of the fuzzy neural network,
(b-1) initializing each variable comprising a weight m of the exponent, the maximum number of clusters C, the error tolerance ε, the maximum number of iterations T, and the initial validity value Z (c);
(b-2) initializing the number of clusters u ik (t) to 0 or 1;
(b-3) calculating a new center value v i (t) and a weight w i (t);
(b-4) updating the number u ik (t) of the clusters using the calculated new center value v i (t) and the weight w i (t);
(b-5) calculating a maximum value Delta of the absolute value of the difference between u ik (t) and u ik (t-1);
(b-6) if the maximum value Delta is greater than the error tolerance ε, increase t by one, and repeating the steps after step (b-3);
(b-7) calculating a new validity value Z (c) if the maximum value Delta is less than or equal to the error tolerance ε;
(b-8) if Z (c) is greater than Z (c-1), ending; And
(b-9) if Z (c) is less than or equal to Z (c-1), increasing c and repeating the steps after step (b-2); Decided,
C denotes the number of clusters, and t denotes the number of repetitions; and intelligent smoke detection system using image processing and intelligent operation.
15. The intelligent smoke detection system according to claim 13 or 14, wherein the asymmetric Gaussian membership function is tuned using a genetic algorithm.
(c-1) 가중치와 분산에 대한 초기값을 산출하는 단계;
(c-2) 초기 가중치와 분산을 마지막 유전형에 복사하고 나머지 유전형들은 임의의 값을 발생시켜 초기 유전자 집단을 생성하는 단계;
(c-3) 퍼지 추론과 에러 함수를 이용해 초기 유전자 집단에 대한 적합도를 계산하는 단계;
(c-4) 유전자 알고리즘 연산자와 선택된 개체들로부터 다음 세대를 생성하는 단계;
(c-5) 퍼지 추론과 에러 함수를 이용해 새로 생성된 유전자 집단에 대한 적합도를 계산하는 단계; 및
(c-6) 만일 최적의 유전자가 발견되면 종료하고 아니면 상기 (c-4) 단계 이후의 단계를 반복적으로 실시하는 단계;를 포함하는 것을 특징으로 하는 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템.
The method of claim 17, wherein the tuning method,
(c-1) calculating initial values for weights and variances;
(c-2) copying the initial weights and variances to the last genotype and generating the initial gene population by generating random values for the remaining genotypes;
(c-3) calculating the goodness of fit for the initial gene population using fuzzy inference and an error function;
(c-4) generating a next generation from genetic algorithm operator and selected individuals;
(c-5) calculating the goodness of fit for the newly created gene population using fuzzy inference and an error function; And
(c-6) if the optimal gene is found, terminate the step or repeat the step (c-4) and then repeat the step; intelligent smoke detection system using image processing and intelligent operation, characterized in that it comprises a. .
(c-4-1) 각 유전형의 적합도를 마지막 유전형의 적합도와 비교하여 최고의 적합도를 갖는 유전형을 마지막 유전형에 배치하는 선택 연산자 수행 단계;
(c-4-2) 선택에 의해서 생존이 결정된 유전형에 대해 교배하는 교배 연산자 수행 단계; 및
(c-4-3) 임의로 유전형을 선택하여 돌연변이 시키는 돌연변이 연산자 수행 단계;를 포함하는 것을 특징으로 하는 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템.
The method of claim 18, wherein step (c-4),
(c-4-1) performing a selection operator to compare the goodness of fit of each genotype with the goodness of fit of the last genotype and to place the genotype having the best fit into the last genotype;
(c-4-2) performing a crossover operator to cross over genotypes whose survival is determined by selection; And
(c-4-3) performing a mutation operator for randomly selecting and mutating genotypes; and intelligent smoke detection system using image processing and intelligent operation.
(상기에서, k 번째 입력 데이터는 로 표현할 수 있고, 입력과 그에 대한 목표 값의 쌍은 으로 표현한다.)
20. The intelligent smoke detection system according to claim 19, wherein the initial weights and variances are respectively calculated by the following equations.
(In the above, the k th input data is Where the input and the target value for it are Expressed as
상기 에러 함수는 다음의 수학식에 의해 구하여 지는 것을 특징으로 하는 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템.
(상기에서, k 번째 입력 데이터는 로 표현할 수 있고, 입력과 그에 대한 목표 값의 쌍은 으로 표현한다.)20. The method of claim 19,
The error function is obtained by the following equation, Intelligent smoke detection system using image processing and intelligent operation.
(In the above, the k th input data is Where the input and the target value for it are Expressed as
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20100060333 | 2010-06-25 | ||
KR1020100060333 | 2010-06-25 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101084719B1 true KR101084719B1 (en) | 2011-11-22 |
Family
ID=45397904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100074083A KR101084719B1 (en) | 2010-06-25 | 2010-07-30 | Intelligent smoke detection system using image processing and computational intelligence |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101084719B1 (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101581162B1 (en) | 2015-06-24 | 2015-12-31 | 전정희 | Automatic detection method, apparatus and system of flame, smoke and object movement based on real time images |
US9754465B2 (en) | 2014-10-30 | 2017-09-05 | International Business Machines Corporation | Cognitive alerting device |
KR101866676B1 (en) * | 2017-01-03 | 2018-06-12 | 중앙대학교 산학협력단 | Apparatus and Method for identifying object using multi spectral images |
KR101900185B1 (en) * | 2017-02-20 | 2018-09-18 | 연세대학교 산학협력단 | Method and Device for Learning Image for Object Recognition |
KR101929539B1 (en) * | 2017-06-01 | 2018-12-14 | 호남대학교 산학협력단 | Method and System for detecting fire using genetic algorithm |
CN109598891A (en) * | 2018-12-24 | 2019-04-09 | 中南民族大学 | A kind of method and system for realizing Smoke Detection using deep learning disaggregated model |
KR101982941B1 (en) * | 2017-12-18 | 2019-08-28 | 연세대학교 원주산학협력단 | Method and Apparatus for removing artifact in CT image using fuzzy neural network |
KR20200057823A (en) * | 2018-11-13 | 2020-05-27 | 한국전자통신연구원 | Apparatus for video data argumentation and method for the same |
KR20200074503A (en) * | 2018-12-17 | 2020-06-25 | (주)스핀어웹 | Fire mornitoring method and system using cctv image recognition based on deep learning |
CN112150512A (en) * | 2020-09-30 | 2020-12-29 | 中国科学院上海微系统与信息技术研究所 | Impact point positioning method fusing background difference method and clustering method |
KR102203894B1 (en) * | 2019-09-03 | 2021-01-15 | 성균관대학교산학협력단 | An apparatus of generating unambiguous BOC correlation function based on tracking error estimation and a signal tracking apparatus using the apparatus |
CN113051970A (en) * | 2019-12-26 | 2021-06-29 | 佛山市云米电器科技有限公司 | Oil smoke concentration identification method, range hood and storage medium |
US11232689B2 (en) | 2019-01-04 | 2022-01-25 | Metal Industries Research & Development Centre | Smoke detection method with visual depth |
CN114399495A (en) * | 2022-01-14 | 2022-04-26 | 平安普惠企业管理有限公司 | Image definition calculation method, device, equipment and storage medium |
CN116778661A (en) * | 2023-07-05 | 2023-09-19 | 深圳市华翌科技有限公司 | Intelligent smoke sensing early warning method |
CN116977327A (en) * | 2023-09-14 | 2023-10-31 | 山东拓新电气有限公司 | Smoke detection method and system for roller-driven belt conveyor |
-
2010
- 2010-07-30 KR KR1020100074083A patent/KR101084719B1/en not_active IP Right Cessation
Non-Patent Citations (3)
Title |
---|
동적 베이지안 네트워크를 이용한 동영상 기반의 화재연기감지[한국통신학회, 한국통신학회논문지, 제34권 제4호 2009.4, page(s): 388-396] |
열과 연기농도를 입력변수로 갖는 퍼지로직을 이용한 화재감지시스템[한국화재소방학회, 한국화재소방학회 논문지, 제18권 제4호 2004.12, pp. 42~51(10pages)] |
퍼지 로직을 이용한 화재 불꽃 감지[정보처리학회지 b16(6) 463-470 ISSN 0387-5806. 2009] |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9754465B2 (en) | 2014-10-30 | 2017-09-05 | International Business Machines Corporation | Cognitive alerting device |
KR101581162B1 (en) | 2015-06-24 | 2015-12-31 | 전정희 | Automatic detection method, apparatus and system of flame, smoke and object movement based on real time images |
KR101866676B1 (en) * | 2017-01-03 | 2018-06-12 | 중앙대학교 산학협력단 | Apparatus and Method for identifying object using multi spectral images |
KR101900185B1 (en) * | 2017-02-20 | 2018-09-18 | 연세대학교 산학협력단 | Method and Device for Learning Image for Object Recognition |
KR101929539B1 (en) * | 2017-06-01 | 2018-12-14 | 호남대학교 산학협력단 | Method and System for detecting fire using genetic algorithm |
KR101982941B1 (en) * | 2017-12-18 | 2019-08-28 | 연세대학교 원주산학협력단 | Method and Apparatus for removing artifact in CT image using fuzzy neural network |
KR102546631B1 (en) * | 2018-11-13 | 2023-06-22 | 한국전자통신연구원 | Apparatus for video data argumentation and method for the same |
KR20200057823A (en) * | 2018-11-13 | 2020-05-27 | 한국전자통신연구원 | Apparatus for video data argumentation and method for the same |
KR20200074503A (en) * | 2018-12-17 | 2020-06-25 | (주)스핀어웹 | Fire mornitoring method and system using cctv image recognition based on deep learning |
KR102162735B1 (en) * | 2018-12-17 | 2020-10-07 | (주)스핀어웹 | Fire mornitoring method and system using cctv image recognition based on deep learning |
CN109598891A (en) * | 2018-12-24 | 2019-04-09 | 中南民族大学 | A kind of method and system for realizing Smoke Detection using deep learning disaggregated model |
US11232689B2 (en) | 2019-01-04 | 2022-01-25 | Metal Industries Research & Development Centre | Smoke detection method with visual depth |
KR102203894B1 (en) * | 2019-09-03 | 2021-01-15 | 성균관대학교산학협력단 | An apparatus of generating unambiguous BOC correlation function based on tracking error estimation and a signal tracking apparatus using the apparatus |
CN113051970A (en) * | 2019-12-26 | 2021-06-29 | 佛山市云米电器科技有限公司 | Oil smoke concentration identification method, range hood and storage medium |
CN112150512A (en) * | 2020-09-30 | 2020-12-29 | 中国科学院上海微系统与信息技术研究所 | Impact point positioning method fusing background difference method and clustering method |
CN112150512B (en) * | 2020-09-30 | 2023-12-15 | 中国科学院上海微系统与信息技术研究所 | Impact point positioning method integrating background difference method and clustering method |
CN114399495A (en) * | 2022-01-14 | 2022-04-26 | 平安普惠企业管理有限公司 | Image definition calculation method, device, equipment and storage medium |
CN116778661A (en) * | 2023-07-05 | 2023-09-19 | 深圳市华翌科技有限公司 | Intelligent smoke sensing early warning method |
CN116778661B (en) * | 2023-07-05 | 2024-06-07 | 深圳市华翌科技有限公司 | Intelligent smoke sensing early warning method |
CN116977327A (en) * | 2023-09-14 | 2023-10-31 | 山东拓新电气有限公司 | Smoke detection method and system for roller-driven belt conveyor |
CN116977327B (en) * | 2023-09-14 | 2023-12-15 | 山东拓新电气有限公司 | Smoke detection method and system for roller-driven belt conveyor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101084719B1 (en) | Intelligent smoke detection system using image processing and computational intelligence | |
CN109147254B (en) | Video field fire smoke real-time detection method based on convolutional neural network | |
CN103871029B (en) | A kind of image enhaucament and dividing method | |
CN104123544B (en) | Anomaly detection method and system based on video analysis | |
CN108921051B (en) | Pedestrian attribute identification network and technology based on cyclic neural network attention model | |
KR101414670B1 (en) | Object tracking method in thermal image using online random forest and particle filter | |
CN105678803B (en) | Video monitor object detection method based on W4 algorithms and inter-frame difference | |
RU2393544C2 (en) | Method and device to detect flame | |
CN104134077B (en) | A kind of gait recognition method unrelated with visual angle based on the determination theories of learning | |
CN105426820B (en) | More people's anomaly detection methods based on safety monitoring video data | |
CN112699808B (en) | Dense target detection method, electronic equipment and related products | |
CN110298297B (en) | Flame identification method and device | |
CN109409256A (en) | A kind of forest rocket detection method based on 3D convolutional neural networks | |
CN113449660B (en) | Abnormal event detection method of space-time variation self-coding network based on self-attention enhancement | |
CN102567722B (en) | Early-stage smoke detection method based on codebook model and multiple features | |
CN104077613A (en) | Crowd density estimation method based on cascaded multilevel convolution neural network | |
CN101635835A (en) | Intelligent video monitoring method and system thereof | |
CN106709453A (en) | Sports video key posture extraction method based on deep learning | |
CN104616026B (en) | A kind of monitoring scene type discrimination method towards intelligent video monitoring | |
CN114693607B (en) | Tamper video detection method and tamper video detection system based on multi-domain block feature marker point registration | |
CN109241814A (en) | Pedestrian detection method based on YOLO neural network | |
CN103700109B (en) | SAR image change detection based on multiple-objection optimization MOEA/D and fuzzy clustering | |
CN114897728A (en) | Image enhancement method and device, terminal equipment and storage medium | |
CN113569756A (en) | Abnormal behavior detection and positioning method, system, terminal equipment and readable storage medium | |
CN111460964A (en) | Moving target detection method under low-illumination condition of radio and television transmission machine room |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20141030 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20151111 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20161108 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20170911 Year of fee payment: 7 |
|
LAPS | Lapse due to unpaid annual fee |