KR102630183B1 - Generating apparatus and method of image data for fire detection training, and learning apparatus and method using the same - Google Patents

Generating apparatus and method of image data for fire detection training, and learning apparatus and method using the same Download PDF

Info

Publication number
KR102630183B1
KR102630183B1 KR1020210184275A KR20210184275A KR102630183B1 KR 102630183 B1 KR102630183 B1 KR 102630183B1 KR 1020210184275 A KR1020210184275 A KR 1020210184275A KR 20210184275 A KR20210184275 A KR 20210184275A KR 102630183 B1 KR102630183 B1 KR 102630183B1
Authority
KR
South Korea
Prior art keywords
image
particle
depth
rgb
learning
Prior art date
Application number
KR1020210184275A
Other languages
Korean (ko)
Other versions
KR20230094827A (en
Inventor
옥수열
Original Assignee
동아대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동아대학교 산학협력단 filed Critical 동아대학교 산학협력단
Priority to KR1020210184275A priority Critical patent/KR102630183B1/en
Publication of KR20230094827A publication Critical patent/KR20230094827A/en
Application granted granted Critical
Publication of KR102630183B1 publication Critical patent/KR102630183B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Abstract

본 발명은 화재 검출 훈련용 이미지 데이터 생성 장치 및 방법과 이를 이용한 학습 장치 및 방법에 관한 것으로서, 실내 공간에서의 화재 검출을 위한 훈련용 이미지 데이터를 생성하는 장치에 있어서, 상기 실내 공간의 서로 다른 지점을 향하여 배치된 복수의 카메라를 통해 해당 지점을 기준으로 촬영된 공간 영역에 대한 RGB 색상 정보 및 깊이 정보를 포함하는 3D 깊이맵 영상을 획득하는 깊이맵 영상 획득부와, 파티클 시스템 기반의 기설정된 복수의 파티클 입자를 이용하여 불꽃 및 연기를 포함하는 화재 현상을 유체 시뮬레이션 렌더링 기법을 통해 모델링함에 따른 파티클 집합체를 구성한 후 이를 상기 깊이맵 영상과 동일한 영역 범위를 가지는 가상 평면상의 서로 다른 좌표 위치에 배치한 복수의 파티클 이미지를 생성하는 파티클 이미지 생성 모듈과, 상기 획득된 깊이맵 영상을 깊이 레벨에 따라 복수의 RGB 이미지로 분할한 깊이 분할 영상을 생성하는 깊이 분할 영상 생성부와, 상기 깊이 분할 영상으로부터 각각의 상기 파티클 이미지상의 상기 파티클 집합체에 대한 픽셀 영역의 깊이값과 인접한 깊이 레벨에 대응되는 한 쌍의 RGB 이미지를 추출하는 RGB 이미지 추출부와, 각각의 상기 파티클 이미지와 이에 대응하여 추출된 상기 한 쌍의 RGB 이미지를 깊이 위치 순서대로 배치하여 합성한 파티클 합성 이미지를 생성하는 합성 이미지 생성부를 포함하는 것을 특징으로 한다.
이에 따라, 다양한 장소에서 발생할 수 있는 화재 상황을 가상으로 연출하여 양질의 학습 데이터를 다량으로 생성할 수 있어 종래의 학습 데이터 부족에 따른 화재 조기 검출 능력의 한계를 극복하고 매우 높은 수준의 검출률을 얻을 수 있는 효과가 있다.
The present invention relates to a device and method for generating image data for fire detection training and a learning device and method using the same. A depth map image acquisition unit that acquires a 3D depth map image including RGB color information and depth information for the spatial region captured based on the point through a plurality of cameras arranged toward the point, and a plurality of preset particle system-based Using particle particles, a particle assembly is formed by modeling fire phenomena including flames and smoke through a fluid simulation rendering technique, and then placed at different coordinate positions on a virtual plane having the same area range as the depth map image. A particle image generation module that generates a plurality of particle images, a depth segmentation image generator that generates a depth segmented image by dividing the acquired depth map image into a plurality of RGB images according to the depth level, and a depth segmented image from the depth segmented image, respectively. An RGB image extraction unit that extracts a pair of RGB images corresponding to the depth value of the pixel area for the particle aggregate on the particle image and the adjacent depth level, and each of the particle images and the pair extracted correspondingly. It is characterized by comprising a composite image generator that generates a composite particle image by arranging the RGB images in depth position order.
Accordingly, it is possible to generate a large amount of high-quality learning data by virtually creating fire situations that may occur in various locations, thereby overcoming the limitations of early fire detection capabilities due to the lack of conventional learning data and achieving a very high level of detection rate. There is a possible effect.

Description

화재 검출 훈련용 이미지 데이터 생성 장치 및 방법과 이를 이용한 학습 장치 및 방법{GENERATING APPARATUS AND METHOD OF IMAGE DATA FOR FIRE DETECTION TRAINING, AND LEARNING APPARATUS AND METHOD USING THE SAME}Device and method for generating image data for fire detection training and learning device and method using the same {GENERATING APPARATUS AND METHOD OF IMAGE DATA FOR FIRE DETECTION TRAINING, AND LEARNING APPARATUS AND METHOD USING THE SAME}

본 발명은 건물 실내를 실시간으로 촬영하는 CCTV 영상과 다양한 화재 상황을 모델링한 이미지를 합성하여 양질 및 다량의 화재 검출 훈련용 이미지 데이터를 생성하고 이를 이용한 화재 검출 학습을 수행하는 화재 검출 훈련용 이미지 데이터 생성 장치 및 방법과 이를 이용한 학습 장치 및 방법에 관한 것이다.The present invention generates high-quality and large amounts of image data for fire detection training by combining CCTV images captured in real time inside a building and images modeling various fire situations, and performs fire detection training using the image data for fire detection training. It relates to generation devices and methods and learning devices and methods using the same.

화재는 특성상 발생하면 대형화재로 확대되어 심각한 인명 및 재산 피해를 유발할 가능성이 높다는 점에서 중요한 도시 문제로 떠오르고 있다. 특히, 화재는 초기 대응이 매우 중요한데 초기 대응을 위해선 무엇보다 화재를 미리 감지하는 것이 우선적으로 요구된다.Fires are emerging as an important urban problem in that, due to their nature, when they occur, they are likely to escalate into large-scale fires and cause serious damage to life and property. In particular, early response to fire is very important, and for early response, detecting fire in advance is required first.

이러한 화재 상황을 미리 감지하는 방법으로는 화재 발생 시 필수적으로 수반되는 연기, 열, 적외선 또는 자외선 영역의 복사에너지를 각종 센서들을 이용해 검출하는 방식이 주로 이용되어 왔다.A method of detecting such fire situations in advance has mainly been to detect smoke, heat, and radiant energy in the infrared or ultraviolet rays, which are essential in the event of a fire, using various sensors.

그러나, 센서는 검출 원리에 따라 검출하기 적합한 감시 환경이 다른 특성을 가지기 때문에 감시 환경의 유형에 따라 적절한 센서 장비를 설치하는 경우에만 충분한 검출 성능을 발휘할 수 있고, 다양한 감시 환경에서 용장성이 높은 동시에 초기 검출이 가능한 화재 센서의 실현은 현재 방재 분야에서 아직까지 해결하지 못한 과제로 남아있다.However, since the monitoring environment suitable for detection in sensors has different characteristics depending on the detection principle, sufficient detection performance can be achieved only when appropriate sensor equipment is installed according to the type of monitoring environment, and at the same time, it has high redundancy in various monitoring environments. The realization of a fire sensor capable of early detection remains an unresolved problem in the current disaster prevention field.

한편, 영상 기반의 화재 감지는 전술한 센서 기반의 화재 감지에서 발생하는 여러 문제점들을 해결할 수 있고, 별도의 센서 장비 없이도 기존에 설치된 CCTV를 이용할 수 있어 설치 비용을 최소화할 수 있으며, 경보에 따른 출동 전에 현장의 화재 상태를 미리 확인함으로써 오인 출동의 비율을 줄일 수 있는 장점이 있다.Meanwhile, video-based fire detection can solve many of the problems that arise from the sensor-based fire detection described above, and can use existing CCTV without separate sensor equipment, minimizing installation costs and enabling dispatch based on alarms. There is an advantage in reducing the rate of erroneous dispatch by checking the fire status at the scene in advance.

그러나, 종래의 영상 기반 화재 감지 방법은 단순히 경험적 또는 실험적으로 획득한 임계치를 설정해두고 이를 기준으로 화재 여부를 감지하는 방식에 해당하여 실제 상황에 적용하기 어렵고, 화염과 유사한 개체에 대해 오경보를 발생시킬 수 있다. However, the conventional image-based fire detection method simply sets a threshold obtained empirically or experimentally and detects fire based on this, making it difficult to apply in real situations and may cause false alarms for objects similar to flames. You can.

게다가, 이미지 기반의 심층학습과 같은 방법을 사용하여 정확도를 높이기 위해서는 많은 학습데이터를 필요로 하는데 실제 화재 영상만으로는 다양한 환경에 대한 데이터를 확보할 수 없기 때문에 실질적으로 이미지 학습 기반의 화재 검출을 수행하기가 어려운 실정이다.In addition, a lot of learning data is needed to increase accuracy using methods such as image-based deep learning, but since it is impossible to secure data on various environments with only actual fire images, it is difficult to actually perform fire detection based on image learning. The situation is difficult.

KRKR 10-1806503 10-1806503 B1B1 KRKR 10-2235308 10-2235308 B1B1

본 발명의 목적은 상기 문제점을 해결하기 위한 것으로서, 건물 실내를 실시간으로 촬영하는 CCTV 영상과 다양한 화재 상황을 모델링한 이미지를 합성하여 양질 및 다량의 화재 검출 훈련용 이미지 데이터를 생성하고 이를 이용한 화재 검출 학습을 수행하는 화재 검출 훈련용 이미지 데이터 생성 장치 및 방법과 이를 이용한 학습 장치 및 방법을 제공하는 것을 목적으로 한다.The purpose of the present invention is to solve the above problems, by combining CCTV images captured in real time inside a building and images modeling various fire situations to generate high quality and large amounts of image data for fire detection training, and detecting fires using the same. The purpose is to provide an apparatus and method for generating image data for fire detection training that performs learning, and a learning apparatus and method using the same.

상기와 같은 목적을 달성하기 위한 본 발명의 일면에 따른 화재 검출 훈련용 이미지 데이터 생성 장치는, 실내 공간에서의 화재 검출을 위한 훈련용 이미지 데이터를 생성하는 장치에 있어서, 상기 실내 공간의 서로 다른 지점을 향하여 배치된 복수의 카메라를 통해 해당 지점을 기준으로 촬영된 공간 영역에 대한 RGB 색상 정보 및 깊이 정보를 포함하는 3D 깊이맵 영상을 획득하는 깊이맵 영상 획득부와, 파티클 시스템 기반의 기설정된 복수의 파티클 입자를 이용하여 불꽃 및 연기를 포함하는 화재 현상을 유체 시뮬레이션 렌더링 기법을 통해 모델링함에 따른 파티클 집합체를 구성한 후 이를 상기 깊이맵 영상과 동일한 영역 범위를 가지는 가상 평면상의 서로 다른 좌표 위치에 배치한 복수의 파티클 이미지를 생성하는 파티클 이미지 생성 모듈과, 상기 획득된 깊이맵 영상을 깊이 레벨에 따라 복수의 RGB 이미지로 분할한 깊이 분할 영상을 생성하는 깊이 분할 영상 생성부와, 상기 깊이 분할 영상으로부터 각각의 상기 파티클 이미지상의 상기 파티클 집합체에 대한 픽셀 영역의 깊이값과 인접한 깊이 레벨에 대응되는 한 쌍의 RGB 이미지를 추출하는 RGB 이미지 추출부와, 각각의 상기 파티클 이미지와 이에 대응하여 추출된 상기 한 쌍의 RGB 이미지를 깊이 위치 순서대로 배치하여 합성한 파티클 합성 이미지를 생성하는 합성 이미지 생성부를 포함하는 것을 특징으로 한다.In order to achieve the above object, an apparatus for generating training image data for fire detection training according to one aspect of the present invention is an apparatus for generating training image data for fire detection in an indoor space, at different points in the indoor space. A depth map image acquisition unit that acquires a 3D depth map image including RGB color information and depth information for the spatial region captured based on the point through a plurality of cameras arranged toward the point, and a plurality of preset particle system-based Using particle particles, a particle assembly is formed by modeling fire phenomena including flames and smoke through a fluid simulation rendering technique, and then placed at different coordinate positions on a virtual plane having the same area range as the depth map image. A particle image generation module that generates a plurality of particle images, a depth segmentation image generator that generates a depth segmented image by dividing the acquired depth map image into a plurality of RGB images according to the depth level, and a depth segmented image from the depth segmented image, respectively. An RGB image extraction unit that extracts a pair of RGB images corresponding to the depth value of the pixel area for the particle aggregate on the particle image and the adjacent depth level, and each of the particle images and the pair extracted correspondingly. It is characterized by comprising a composite image generator that generates a composite particle image by arranging the RGB images in depth position order.

또한, 본 발명의 다른 일면에 따른 화재 검출 훈련용 이미지 데이터 생성 방법은, 실내 공간의 서로 다른 지점을 향하여 배치된 복수의 카메라를 통해 해당 지점을 기준으로 촬영된 공간 영역에 대한 RGB 색상 정보 및 깊이 정보를 포함하는 3D 깊이맵 영상을 획득하는 단계와, 파티클 시스템 기반의 기설정된 복수의 파티클 입자를 이용하여 불꽃 및 연기를 포함하는 화재 현상을 유체 시뮬레이션 렌더링 기법을 통해 모델링함에 따른 파티클 집합체를 구성한 후 이를 상기 깊이맵 영상과 동일한 영역 범위를 가지는 가상 평면상의 서로 다른 좌표 위치에 배치한 복수의 파티클 이미지를 생성하는 단계와, 상기 획득된 깊이맵 영상을 깊이 레벨에 따라 복수의 RGB 이미지로 분할한 깊이 분할 영상을 생성하는 단계와, 상기 깊이 분할 영상으로부터 각각의 상기 파티클 이미지상의 상기 파티클 집합체에 대한 픽셀 영역의 깊이값과 인접한 깊이 레벨에 대응되는 한 쌍의 RGB 이미지를 추출하는 단계와, 각각의 상기 파티클 이미지와 이에 대응하여 추출된 상기 한 쌍의 RGB 이미지를 깊이 위치 순서대로 배치하여 합성한 파티클 합성 이미지를 생성하는 단계를 포함하는 것을 특징으로 한다.In addition, the method of generating image data for fire detection training according to another aspect of the present invention includes RGB color information and depth for the spatial area captured based on the point through a plurality of cameras arranged toward different points in the indoor space. After acquiring a 3D depth map image containing information and forming a particle assembly by modeling fire phenomena including flames and smoke through a fluid simulation rendering technique using a plurality of preset particle particles based on a particle system, A step of generating a plurality of particle images by arranging them at different coordinate positions on a virtual plane having the same area range as the depth map image, and dividing the obtained depth map image into a plurality of RGB images according to the depth level. generating a segmented image, extracting a pair of RGB images corresponding to a depth level adjacent to a depth value of a pixel area for the particle aggregate on each particle image from the depth segmented image, and It is characterized in that it includes the step of generating a particle composite image synthesized by arranging the particle image and the pair of RGB images extracted correspondingly in order of depth position.

한편, 전술한 특징을 이용하는 본 발명의 일면에 따른 화재 검출 훈련용 이미지 데이터 학습 장치는, 실내 공간의 서로 다른 지점을 향하여 배치된 복수의 카메라를 통해 촬영된 3D 깊이맵 영상에 기초한 제1 RGB 영상을 배경으로 하여, 파티클 시스템 기반의 유체 시뮬레이션 렌더링 기법을 통해 화재 현상을 모델링한 파티클 집합체에 대응하는 가상 객체를 상기 깊이맵 영상에 포함된 깊이 정보를 기반으로 합성한 후 상기 가상 객체를 라벨링 처리함에 따라 생성된 학습용 이미지 데이터셋을 저장하는 학습 데이터 저장부와, 상기 제1 RGB 영상에 포함된 가상 객체에 대응하는 상기 파티클 집합체의 특징에 대응하여 검출된 픽셀 또는 픽셀들의 조합인 특징점들을 기반으로 하여 생성되는 상기 학습용 이미지 데이터셋에 기초하여 특징 파라미터들을 획득함에 따라 합성곱 신경망에 따른 이미지 분류가 가능하도록 사전 학습된 학습 모델부와, 상기 복수의 카메라 중 어느 하나에 의해 상기 실내 공간의 소정 지점을 기준으로 실시간 촬영된 제2 RGB 영상에 기초한 현재 시점의 RGB 이미지를 평가대상 이미지로서 획득하는 이미지 획득부와, 상기 평가대상 이미지에 포함된 객체로부터 검출되는 특징점 및 윤곽선 정보와 상기 평가대상 이미지를 구성하는 픽셀들에 대한 콘트라스트값에 기초하여 상기 평가대상 이미지가 가지는 이미지 특징 성분들의 상대적 비율을 계산함에 따른 가중치를 연산하는 가중치 연산 모듈과, 상기 평가대상 이미지를 딥러닝 기반 텐서 플로우 기법을 통해 기저장된 상기 학습용 이미지 데이터셋과 동일한 픽셀 사이즈 및 범위로 정규화함에 따른 전처리 이미지를 생성하는 이미지 전처리부와, 상기 전처리 이미지를 상기 학습 모델부의 입력 데이터로 적용하여 상기 가중치를 이용한 합성곱 연산 기반의 이미지 학습이 수행됨에 따라, 화재 현상에 포함되는 불꽃 및 연기를 다양한 위치 및 크기로 모델링함에 따른 상기 파티클 집합체의 특징에 대응하여 기설정된 복수 개의 클래스 중에서 상기 평가대상 이미지에 대응되는 적어도 하나의 클래스에 대한 확률값을 산출하는 확률값 산출부를 포함하는 것을 특징으로 한다.Meanwhile, the image data learning device for fire detection training according to one aspect of the present invention using the above-described features includes a first RGB image based on a 3D depth map image captured through a plurality of cameras arranged toward different points in an indoor space. Against the background, a virtual object corresponding to a particle assembly modeling a fire phenomenon is synthesized based on the depth information included in the depth map image through a particle system-based fluid simulation rendering technique, and then the virtual object is labeled. Based on a learning data storage unit that stores a training image dataset generated according to the data set, and feature points that are a pixel or combination of pixels detected in response to the characteristics of the particle aggregate corresponding to the virtual object included in the first RGB image, A learning model unit pre-trained to enable image classification according to a convolutional neural network by acquiring feature parameters based on the generated training image dataset, and a predetermined point in the indoor space by one of the plurality of cameras An image acquisition unit that acquires an RGB image at the current time based on a second RGB image captured in real time as a reference as an image to be evaluated, and the image to be evaluated is composed of feature points and outline information detected from objects included in the image to be evaluated. a weight calculation module that calculates a weight by calculating the relative ratio of image feature components of the image to be evaluated based on the contrast values of the pixels, and a pre-stored image to be evaluated through a deep learning-based tensor flow technique. An image preprocessor that generates a preprocessed image by normalizing it to the same pixel size and range as the training image dataset, and image learning based on convolution operation using the weights by applying the preprocessed image as input data to the learning model unit. As the process is performed, a probability value for at least one class corresponding to the evaluation target image is generated among a plurality of classes preset in response to the characteristics of the particle aggregate as the flame and smoke included in the fire phenomenon are modeled in various positions and sizes. It is characterized by including a probability value calculation unit that calculates the probability value.

또한, 본 발명의 다른 일면에 따른 화재 검출 훈련용 이미지 데이터 학습 방법은, 실내 공간의 서로 다른 지점을 향하여 배치된 복수의 카메라를 통해 촬영된 3D 깊이맵 영상에 기초한 제1 RGB 영상을 배경으로 하여, 파티클 시스템 기반의 유체 시뮬레이션 렌더링 기법을 통해 화재 현상을 모델링한 파티클 집합체에 대응하는 가상 객체를 상기 깊이맵 영상에 포함된 깊이 정보를 기반으로 합성한 후 상기 가상 객체를 라벨링 처리함에 따라 생성된 학습용 이미지 데이터셋을 저장하는 단계와, 상기 제1 RGB 영상에 포함된 가상 객체에 대응하는 상기 파티클 집합체의 특징에 대응하여 검출된 픽셀 또는 픽셀들의 조합인 특징점들을 기반으로 하여 생성되는 상기 학습용 이미지 데이터셋에 기초하여 특징 파라미터들을 획득함에 따라 합성곱 신경망에 따른 이미지 분류가 가능하도록 사전 학습을 수행하는 단계와, 상기 복수의 카메라 중 어느 하나에 의해 상기 실내 공간의 소정 지점을 기준으로 실시간 촬영된 제2 RGB 영상에 기초한 현재 시점의 RGB 이미지를 평가대상 이미지로서 획득하는 단계와, 상기 평가대상 이미지에 포함된 객체로부터 검출되는 특징점 및 윤곽선 정보와 상기 평가대상 이미지를 구성하는 픽셀들에 대한 콘트라스트값에 기초하여 상기 평가대상 이미지가 가지는 이미지 특징 성분들의 상대적 비율을 계산함에 따른 가중치를 연산하는 단계와, 상기 평가대상 이미지를 딥러닝 기반 텐서 플로우 기법을 통해 기저장된 상기 학습용 이미지 데이터셋과 동일한 픽셀 사이즈 및 범위로 정규화함에 따른 전처리 이미지를 생성하는 단계와, 상기 전처리 이미지를 상기 사전 학습을 수행한 합성곱 신경망 모델의 입력 데이터로 적용하여 상기 가중치를 이용한 합성곱 연산 기반의 이미지 학습이 수행됨에 따라, 화재 현상에 포함되는 불꽃 및 연기를 다양한 위치 및 크기로 모델링함에 따른 상기 파티클 집합체의 특징에 대응하여 기설정된 복수 개의 클래스 중에서 상기 평가대상 이미지에 대응되는 적어도 하나의 클래스에 대한 확률값을 산출하는 단계를 포함하는 것을 특징으로 한다.In addition, a method of learning image data for fire detection training according to another aspect of the present invention uses a first RGB image based on a 3D depth map image captured through a plurality of cameras arranged toward different points in an indoor space as a background. , A virtual object corresponding to a particle assembly modeling a fire phenomenon through a particle system-based fluid simulation rendering technique is synthesized based on the depth information included in the depth map image, and then the virtual object is labeled and created for learning. A step of storing an image data set, and the learning image data set generated based on feature points that are a pixel or combination of pixels detected in response to characteristics of the particle aggregate corresponding to the virtual object included in the first RGB image. performing dictionary learning to enable image classification according to a convolutional neural network by acquiring feature parameters based on Acquiring an RGB image at the current time based on the RGB image as an image to be evaluated, based on feature points and outline information detected from objects included in the image to be evaluated and contrast values for pixels constituting the image to be evaluated. Calculating a weight by calculating the relative ratio of image feature components of the image to be evaluated, and calculating the image to be evaluated through a deep learning-based tensor flow technique to have the same pixel size and range as the training image dataset previously stored. A step of generating a pre-processed image according to normalization, and applying the pre-processed image as input data of a convolutional neural network model that performed the pre-training to perform image learning based on a convolution operation using the weights, thereby producing a fire phenomenon. Comprising the step of calculating a probability value for at least one class corresponding to the evaluation target image among a plurality of classes preset in response to the characteristics of the particle aggregate according to modeling the flame and smoke included in various positions and sizes. It is characterized by

본 발명에 따르면, 파티클 시스템을 기반으로 화재 현상을 시뮬레이션하여 모델링한 가상 화재 이미지를 화재 감지 대상 지역에서 사전 촬영한 영상을 배경으로 합성하는 방식을 통해 학습 데이터를 생성하므로 사용자가 원하는 다양한 장소에 대한 화재 검출 훈련용 학습 데이터를 용이하게 확보할 수 있는 효과가 있다.According to the present invention, learning data is generated by compositing a virtual fire image modeled by simulating a fire phenomenon based on a particle system with a background of a pre-photographed image in the fire detection target area, thereby providing information on various locations desired by the user. This has the effect of easily securing learning data for fire detection training.

또한, 본 발명에 따르면, 학습용 이미지 데이터셋과 동일한 배경 공간에서 획득된 평가대상 이미지를 이용하여 화재 검출 학습을 수행함에 따라 배경 공간의 동일성으로 인해 높은 정확도의 검출 결과를 제공할 수 있는 효과가 있다.In addition, according to the present invention, as fire detection learning is performed using evaluation target images obtained in the same background space as the training image dataset, there is an effect of providing high accuracy detection results due to the identity of the background space. .

또한, 본 발명에 따르면, 다양한 장소에서 발생할 수 있는 화재 상황을 가상으로 연출하여 양질의 학습 데이터를 다량으로 생성할 수 있어 종래의 학습 데이터 부족에 따른 화재 조기 검출 능력의 한계를 극복하고 매우 높은 수준의 검출률을 얻을 수 있는 효과가 있다.In addition, according to the present invention, it is possible to generate a large amount of high-quality learning data by virtually creating a fire situation that may occur in various places, thereby overcoming the limitations of the early fire detection ability due to the lack of conventional learning data and achieving a very high level of fire detection. This has the effect of achieving a detection rate of .

도 1은 본 발명의 일 실시예에 따른 화재 검출 훈련용 이미지 데이터 생성 장치의 구성을 나타낸 블록도이고,
도 2는 도 1의 깊이맵 영상 획득부에 의해 획득된 RGB 색상 정보 및 깊이 정보를 포함하는 3D 깊이맵 영상의 일례를 나타낸 도면이고,
도 3은 도 1의 파티클 이미지 생성 모듈에 의해 구성된 파티클 집합체의 일례를 나타낸 도면이고,
도 4는 도 1의 합성 이미지 생성부에 의해 파티클 합성 이미지를 생성하는 과정을 설명하기 위한 도면이고,
도 5는 도 1의 합성 이미지 생성부에 의해 파티클 이미지와 합성되는 일부 RGB 이미지를 투명 처리하는 과정을 설명하기 위한 도면이고,
도 6은 도 1의 경계상자 생성부 및 경계상자 변환부에 의해 3D 경계상자 및 이에 기초한 2D 경계영역이 생성되는 과정을 설명하기 위한 도면이고,
도 7은 도 1의 라벨링 처리부 및 제어부에 의해 라벨링 이미지를 기설정된 기준 개수만큼 반복 생성하는 과정을 설명하기 위한 도면이고,
도 8은 본 발명의 일 실시예에 따른 화재 검출 훈련용 이미지 데이터 생성 방법을 나타낸 순서도이고,
도 9는 본 발명의 일 실시예에 따른 화재 검출 훈련용 이미지 데이터 학습 장치의 구성을 나타낸 블록도이고,
도 10은 도 9의 출력부에 의해 평가대상 이미지상에 검출영역 및 이에 대응되는 검출 확률값을 표시하는 일례를 나타낸 도면이고,
도 11은 본 발명의 일 실시예에 따른 화재 검출 훈련용 이미지 데이터 학습 방법을 나타낸 순서도이다.
1 is a block diagram showing the configuration of an image data generating device for fire detection training according to an embodiment of the present invention;
Figure 2 is a diagram showing an example of a 3D depth map image including RGB color information and depth information acquired by the depth map image acquisition unit of Figure 1;
FIG. 3 is a diagram showing an example of a particle assembly constructed by the particle image generation module of FIG. 1;
FIG. 4 is a diagram for explaining the process of generating a particle composite image by the composite image generator of FIG. 1;
FIG. 5 is a diagram for explaining the process of transparently processing some RGB images synthesized with particle images by the composite image generator of FIG. 1;
FIG. 6 is a diagram illustrating the process of generating a 3D bounding box and a 2D boundary area based on it by the bounding box generator and bounding box transformer of FIG. 1;
FIG. 7 is a diagram illustrating a process of repeatedly generating labeling images as many as a preset reference number by the labeling processing unit and control unit of FIG. 1;
Figure 8 is a flowchart showing a method for generating image data for fire detection training according to an embodiment of the present invention;
Figure 9 is a block diagram showing the configuration of an image data learning device for fire detection training according to an embodiment of the present invention;
FIG. 10 is a diagram illustrating an example of displaying a detection area and a detection probability value corresponding thereto on an image to be evaluated by the output unit of FIG. 9;
Figure 11 is a flowchart showing a method of learning image data for fire detection training according to an embodiment of the present invention.

이상과 같은 본 발명에 대한 해결하려는 과제, 과제의 해결수단, 발명의 효과를 포함한 구체적인 사항들은 다음에 기재할 실시예 및 도면에 포함되어 있다. 본 발명의 이점 및 특징, 그리고 그것을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예를 참조하면 명확해질 것이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Specific details, including the problem to be solved by the present invention, the means for solving the problem, and the effect of the invention, are included in the examples and drawings described below. The advantages and features of the present invention and how to achieve them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. Like reference numerals refer to like elements throughout the specification.

도 1은 본 발명의 일 실시예에 따른 화재 검출 훈련용 이미지 데이터 생성 장치의 구성을 나타낸 블록도이고, 도 2는 도 1의 깊이맵 영상 획득부에 의해 획득된 RGB 색상 정보 및 깊이 정보를 포함하는 3D 깊이맵 영상의 일례를 나타낸 도면이고, 도 3은 도 1의 파티클 이미지 생성 모듈에 의해 구성된 파티클 집합체의 일례를 나타낸 도면이고, 도 4는 도 1의 합성 이미지 생성부에 의해 파티클 합성 이미지를 생성하는 과정을 설명하기 위한 도면이고, 도 5는 도 1의 합성 이미지 생성부에 의해 파티클 이미지와 합성되는 일부 RGB 이미지를 투명 처리하는 과정을 설명하기 위한 도면이고, 도 6은 도 1의 경계상자 생성부 및 경계상자 변환부에 의해 3D 경계상자 및 이에 기초한 2D 경계영역이 생성되는 과정을 설명하기 위한 도면이고, 도 7은 도 1의 라벨링 처리부 및 제어부에 의해 라벨링 이미지를 기설정된 기준 개수만큼 반복 생성하는 과정을 설명하기 위한 도면이고, 도 8은 본 발명의 일 실시예에 따른 화재 검출 훈련용 이미지 데이터 생성 방법을 나타낸 순서도이다.Figure 1 is a block diagram showing the configuration of an image data generating device for fire detection training according to an embodiment of the present invention, and Figure 2 includes RGB color information and depth information acquired by the depth map image acquisition unit of Figure 1. It is a diagram showing an example of a 3D depth map image, and FIG. 3 is a diagram showing an example of a particle assembly constructed by the particle image generation module of FIG. 1, and FIG. 4 is a diagram showing a particle composite image by the composite image generator of FIG. 1. This is a diagram for explaining the creation process, and FIG. 5 is a diagram for explaining the process of transparently processing some of the RGB images composited with the particle image by the composite image generator of FIG. 1, and FIG. 6 is the bounding box of FIG. 1. It is a diagram to explain the process of generating a 3D bounding box and a 2D boundary area based on it by the generation unit and the bounding box conversion unit, and FIG. 7 shows a labeling image repeated by the labeling processing unit and the control unit of FIG. 1 by a preset reference number. This is a diagram for explaining the generation process, and Figure 8 is a flowchart showing a method of generating image data for fire detection training according to an embodiment of the present invention.

이하, 전술한 도면들을 참조하여 본 발명의 일 실시예에 따른 화재 검출 훈련용 이미지 데이터 생성 장치 및 방법에 대해 설명하도록 한다.Hereinafter, an apparatus and method for generating image data for fire detection training according to an embodiment of the present invention will be described with reference to the above-described drawings.

본 발명의 일 실시예에 따른 이미지 데이터 생성 장치(10)는 실내 공간에서의 화재 검출을 위한 훈련용 이미지 데이터를 생성하는 장치에 관한 것으로서, 도 1에 도시된 바와 같이 크게 깊이맵 영상 획득부(100), 파티클 이미지 생성 모듈(200), 깊이 분할 영상 생성부(120), RGB 이미지 추출부(300) 및 합성 이미지 생성부(400)를 포함하여 구성된다.The image data generating device 10 according to an embodiment of the present invention relates to a device that generates training image data for fire detection in indoor spaces. As shown in FIG. 1, it largely includes a depth map image acquisition unit ( 100), a particle image generation module 200, a depth segmentation image generation unit 120, an RGB image extraction unit 300, and a composite image generation unit 400.

깊이맵 영상 획득부(100)는 실내 공간에 대한 3D 깊이맵 영상(MD)을 획득하기 위한 것이다(S100).The depth map image acquisition unit 100 is used to acquire a 3D depth map image (M D ) for an indoor space (S100).

깊이맵 영상 획득부(100)는 실내 공간의 서로 다른 지점을 향하여 배치된 복수의 카메라(Cam1,Cam2,…,CamN, N은 카메라 수)를 통해 해당 지점을 기준으로 촬영된 공간 영역에 대한 RGB 색상 정보 및 깊이 정보를 포함하는 3D 깊이맵 영상(MD)을 획득할 수 있다.The depth map image acquisition unit 100 uses a plurality of cameras (Cam1, Cam2,..., CamN, where N is the number of cameras) arranged toward different points in the indoor space to capture the RGB of the spatial area captured based on that point. A 3D depth map image (M D ) including color information and depth information can be obtained.

여기서, 상기 카메라는 RGB 센서와 깊이 센서를 포함하는 RGB-D 카메라일 수 있고, 3D 깊이맵 영상(MD)은 상기 RGB 센서에 의해 획득되는 RGB 색정보 영상(도 2a)과 상기 깊이 센서에 의해 획득되는 깊이 정보 영상(도 2b)을 포함할 수 있다.Here, the camera may be an RGB-D camera including an RGB sensor and a depth sensor, and the 3D depth map image (M D ) is divided into an RGB color information image (FIG. 2A) acquired by the RGB sensor and the depth sensor. It may include a depth information image (FIG. 2b) obtained by .

파티클 이미지 생성 모듈(200)은 다양한 크기 및 형상을 가지는 불꽃 또는 연기를 포함하는 가상 화재 현상을 모델링한 파티클 집합체에 대한 복수의 파티클 이미지를 생성한다(S200).The particle image generation module 200 generates a plurality of particle images for a particle assembly modeling a virtual fire phenomenon including flames or smoke having various sizes and shapes (S200).

구체적으로, 파티클 이미지 생성 모듈(200)은 파티클 시스템 기반의 기설정된 복수의 파티클 입자를 이용하여 불꽃 및 연기를 포함하는 화재 현상을 유체 시뮬레이션 렌더링 기법을 통해 모델링함에 따른 파티클 집합체(Pa)를 구성한 후, 이를 상기 깊이맵 영상과 동일한 영역 범위를 가지는 가상 평면상의 서로 다른 좌표 위치에 배치한 복수의 파티클 이미지(Pi)를 생성할 수 있다.Specifically, the particle image generation module 200 configures a particle assembly (Pa) by modeling a fire phenomenon including flame and smoke using a fluid simulation rendering technique using a plurality of preset particle particles based on a particle system. , it is possible to generate a plurality of particle images (Pi) arranged at different coordinate positions on a virtual plane having the same area range as the depth map image.

이와 관련하여, 파티클 이미지 생성 모듈(200)은 특성 정보 입력부(210), 파티클 집합체 구성부(220) 및 파티클 이미지 생성부(230)를 세부 구성으로 포함할 수 있다.In this regard, the particle image generation module 200 may include a characteristic information input unit 210, a particle aggregate configuration unit 220, and a particle image creation unit 230 in detailed configuration.

특성 정보 입력부(210)는 사용자로부터 상기 파티클 입자에 대한 색상, 크기 및 텍스처 좌표를 포함하는 파티클 특성 정보를 입력받는다(S220).The characteristic information input unit 210 receives particle characteristic information including color, size, and texture coordinates for the particle from the user (S220).

여기서, 상기 파티클 특성 정보는 가상 공간상에 사용자가 원하는 시각 효과(VFX; Visual Effect)를 시뮬레이션하는 파티클 시스템 기반 프로그램인 유니티(Unity)를 통해 사용자로부터 입력받는 해당 시각 효과를 구성하는 복수 개의 파티클 입자 각각에 대한 설정값으로서, 가상 공간 내의 파티클 입자의 위치(_position), 크기(_size), 이동 속도(_velocity), 가속도(_acceleration), 색상(_color) 등을 포함할 수 있다.Here, the particle characteristic information is a plurality of particles constituting the visual effect input from the user through Unity, a particle system-based program that simulates the visual effect (VFX; Visual Effect) desired by the user in virtual space. Setting values for each may include the position (_position), size (_size), movement speed (_velocity), acceleration (_acceleration), color (_color), etc. of the particle in the virtual space.

파티클 집합체 구성부(220)는 특성 정보 입력부(210)를 통해 사용자로부터 복수의 상기 파티클 입자 각각에 대응하여 입력된 파티클 특성 정보에 기초하여, 도 3에 도시된 바와 같이 불꽃 및 연기와 같은 유체 엔티티를 다양한 위치 및 크기로 시뮬레이션하여 화재 현상을 모델링함(34)에 따른 복수의 파티클 집합체(31,32,33)를 구성한다(S240).The particle assembly configuration unit 220 generates fluid entities such as flame and smoke, as shown in FIG. 3, based on particle characteristic information input corresponding to each of the plurality of particle particles from the user through the characteristic information input unit 210. A plurality of particle aggregates (31, 32, 33) are formed according to modeling the fire phenomenon (34) by simulating various positions and sizes (S240).

파티클 이미지 생성부(230)는 파티클 집합체(Pa)를 깊이맵 영상(MD)과 동일한 영역 범위를 가지는 가상 평면상의 서로 다른 좌표 위치에 배치한 복수의 파티클 이미지(Pi)를 생성한다(S260).The particle image generator 230 generates a plurality of particle images (Pi) in which the particle aggregate (Pa) is placed at different coordinate positions on a virtual plane having the same area range as the depth map image (M D ) (S260) .

깊이 분할 영상 생성부(120)는 깊이맵 영상 획득부(100)에 의해 획득된 깊이맵 영상(MD)을 깊이 레벨에 따라 복수의 RGB 이미지(IR)로 분할한 깊이 분할 영상(SD)을 생성한다(S400).The depth segmentation image generator 120 divides the depth map image (M D ) acquired by the depth map image acquisition unit 100 into a plurality of RGB images (I R ) according to the depth level (S D ) is created (S400).

RGB 이미지 추출부(300)는 깊이 분할 영상(SD)으로부터 각각의 파티클 이미지(Pi)상의 파티클 집합체(Pa)에 대한 픽셀 영역의 깊이값과 인접한 깊이 레벨에 대응되는 한 쌍의 RGB 이미지(IR1,IR2)를 추출한다(S500). The RGB image extraction unit 300 generates a pair of RGB images (I Extract R1 , I R2 ) (S500).

합성 이미지 생성부(400)는 각각의 파티클 이미지(Pi)와 이에 대응하여 추출된 한 쌍의 RGB 이미지(IR1,IR2)를 깊이 위치 순서대로 배치하여 합성한 파티클 합성 이미지(Ipc)를 생성한다(S600).The composite image generator 400 generates a particle composite image (Ipc) synthesized by arranging each particle image (Pi) and a pair of RGB images (I R1 , I R2 ) extracted corresponding thereto in order of depth position. Do it (S600).

예컨대, 도 4를 참조하면, 파티클 이미지 생성부(230)에 의해 복수의 파티클 이미지(P1,P2,P3)가 생성되고 RGB 이미지 추출부(300)에 의해 각 파티클 이미지의 깊이값과 인접한 깊이 레벨(Depth Level)에 대응되는 복수의 RGB 이미지(41,42,43)가 추출된 경우, 합성 이미지 생성부(400)는 복수의 파티클 이미지(P1,P2,P3) 및 RGB 이미지(41,42,43)를 깊이 위치 순서대로 배치함에 따라 가상 객체인 '화재 파티클'에 대응하는 각 파티클 이미지를 기준으로 전후 위치에 실내 공간을 배경으로 하는 한 쌍의 RGB 이미지를 배치한 후 이를 하나로 합성하여 파티클 합성 이미지(Ipc)를 생성하게 된다.For example, referring to FIG. 4, a plurality of particle images (P1, P2, and P3) are generated by the particle image generator 230, and the depth value and adjacent depth level of each particle image are generated by the RGB image extractor 300. When a plurality of RGB images (41, 42, 43) corresponding to (Depth Level) are extracted, the composite image generator 400 generates a plurality of particle images (P1, P2, P3) and RGB images (41, 42, 43) is placed in order of depth position, a pair of RGB images with an indoor space background are placed before and after each particle image corresponding to the virtual object 'fire particle', and then they are combined into one to synthesize particles. An image (Ipc) is created.

여기서, 합성 이미지 생성부(400)는 도 5에 도시된 바와 같이 파티클 합성 이미지(Ipc)의 생성 시 파티클 이미지(52) 및 이에 대응되는 한 쌍의 RGB 이미지(51,53)를 깊이 위치 순서(Depth Level)에 따라 배치하되, 한 쌍의 RGB 이미지(51,53) 중에서 깊이 위치가 상대적으로 먼 위치에 있는 해당 RGB 이미지(53)상의 픽셀 영역의 RGBA 색상값의 투명도를 조절하여 투명하게 처리한 후 합성할 수 있다.Here, when generating the particle composite image (Ipc), the composite image generator 400, as shown in FIG. 5, uses the particle image 52 and the pair of RGB images 51 and 53 corresponding thereto in depth position order ( Depth Level), but made transparent by adjusting the transparency of the RGBA color value of the pixel area of the corresponding RGB image (53) whose depth position is relatively distant among the pair of RGB images (51,53). It can be synthesized later.

또한, 본 발명의 일 실시예에 따른 이미지 데이터 생성 장치(10)는 전술한 구성들과 더불어 도 1에 도시된 바와 같이 저장부(240), 경계상자 생성부(250), 경계상자 변환부(260), 라벨링 처리부(500), 제어부(520) 및 이미지데이터셋 저장부(540)를 더 포함할 수 있다.In addition, the image data generating device 10 according to an embodiment of the present invention includes a storage unit 240, a bounding box generator 250, and a bounding box conversion unit ( 260), a labeling processing unit 500, a control unit 520, and an image data set storage unit 540 may be further included.

저장부(240)는 파티클 이미지 생성부(230)에 의해 생성된 복수의 파티클 이미지(Pi) 각각에 대응되는 파티클 집합체(Pa)에 대한 픽셀 영역의 크기 및 위치 정보를 각 파티클 이미지별로 저장한다(S320).The storage unit 240 stores the size and position information of the pixel area for the particle aggregate (Pa) corresponding to each of the plurality of particle images (Pi) generated by the particle image generator 230 for each particle image ( S320).

경계상자 생성부(250)는 각각의 파티클 이미지(Pi)에 대응하는 파티클 집합체(Pa)에 대한 픽셀 영역의 크기 및 위치 정보를 기준으로 해당 파티클 집합체를 둘러싸는 최소 부피의 육면체 형상에 대응하는 경계상자(BB; bounding box)를 생성한다(S340).The bounding box generator 250 creates a boundary corresponding to the hexahedral shape of the minimum volume surrounding the particle assembly based on the size and position information of the pixel area for the particle assembly (Pa) corresponding to each particle image (Pi). Create a box (BB; bounding box) (S340).

경계상자 변환부(260)는 경계상자 생성부(250)에 의해 생성된 경계상자(BB)의 각 꼭지점을 2차원 평면상의 좌표로 변환한 결과에 대응하는 점들을 모두 포함하는 최소 크기의 사각형의 경계영역(BA)을 생성한다(S360).The bounding box conversion unit 260 converts each vertex of the bounding box (BB) generated by the bounding box generator 250 into coordinates on a two-dimensional plane and creates a rectangular shape of the minimum size containing all the points corresponding to the result. Create a border area (BA) (S360).

경계상자 변환부(260)는 생성된 경계영역(BA)의 크기 및 위치 정보를 획득하여 이에 대응되는 파티클 이미지(Pi)에 매칭 저장한다.The bounding box conversion unit 260 acquires the size and position information of the generated boundary area BA and stores it in the corresponding particle image Pi.

라벨링 처리부(500)는 각각의 파티클 합성 이미지(Ipc)에 대하여 해당 파티클 합성 이미지의 합성에 사용된 파티클 이미지(Pi)에 대한 경계영역(BA)의 크기 및 위치정보에 대응하는 특정 영역을 캡처해 라벨링 처리한 라벨링 이미지(IL)를 생성한다(S720).The labeling processing unit 500 captures, for each particle composite image (Ipc), a specific area corresponding to the size and position information of the border area (BA) for the particle image (Pi) used to synthesize the corresponding particle composite image. A labeled image (I L ) is generated (S720).

예컨대, 도 6을 참조하면, 복수의 파티클 이미지 각각에 대응하는 파티클 집합체를 둘러싸는 경계상자(B1,B2,B3)가 경계상자 생성부(250)에 의해 생성되면(61), 경계상자 변환부(260)가 경계상자(B1,B2,B3)의 각 꼭지점을 좌표 변환한 경계영역(A1,A2,A3)을 생성한 후(62) 해당 경계영역(A)의 크기 및 위치 정보를 획득하고(63), 라벨링 처리부(500)가 상기 경계영역을 캡처해 라벨링 처리한 라벨링 이미지를 생성하게 되며, 이러한 동작들은 딥러닝 기반 파이썬(Python) 언어를 기반으로 하는 코딩 설계(64)를 통해 구현될 수 있다.For example, referring to FIG. 6, when bounding boxes (B1, B2, B3) surrounding particle aggregates corresponding to each of a plurality of particle images are generated by the bounding box generator 250 (61), the bounding box conversion unit After (260) creates a boundary area (A1, A2, A3) by converting the coordinates of each vertex of the bounding box (B1, B2, B3) (62), size and position information of the boundary area (A) is obtained, (63), the labeling processing unit 500 captures the boundary area and generates a labeled image, and these operations are implemented through a coding design (64) based on the deep learning-based Python language. You can.

제어부(520)는 라벨링 처리부(500)에 의해 생성된 라벨링 이미지(IL)의 개수(Ni)가 기설정된 기준개수(Nr)에 도달할 때까지 라벨링 이미지(71)를 반복해서 생성하도록 라벨링 처리부(500)를 제어한다.The control unit 520 is a labeling processing unit to repeatedly generate the labeling image 71 until the number (Ni) of the labeling images (I L ) generated by the labeling processing unit 500 reaches the preset reference number (Nr). Control 500.

여기서, 제어부(520)는 도 7 및 도 8에 도시된 바와 같이 라벨링 이미지(IL)의 개수(Ni)와 기준개수(Nr)가 일치하는 조건이 충족될 때까지 라벨링 이미지(71)의 생성 단계(S720)를 반복하도록 하는 명령에 대한 제어 알고리즘을 코딩함(72)에 따라 라벨링 처리부(500)를 제어할 수 있다(S740).Here, the control unit 520 generates the labeling image 71 until the condition that the number (Ni) of the labeling images (I L ) matches the reference number (Nr) is met, as shown in FIGS. 7 and 8. The labeling processing unit 500 can be controlled by coding the control algorithm for the command to repeat the step (S720) (72) (S740).

이미지 데이터셋 저장부(540)는 기준개수(Nr)만큼 생성된 라벨링 이미지(IL)를 이용하여 딥러닝 기반 이미지 분류 학습을 수행하기 위한 이미지 데이터셋(Ds)을 생성하여 저장한다.The image dataset storage unit 540 creates and stores an image dataset (Ds) for performing deep learning-based image classification learning using labeling images (I L ) generated as many as the reference number (Nr).

전술한 도 1에 도시된 구성요소들에 대한 설명을 바탕으로 하여 본 발명의 일 실시예에 따른 이미지 데이터 생성 방법을 도 8을 참조하여 설명하면 다음과 같다.Based on the description of the components shown in FIG. 1 above, a method for generating image data according to an embodiment of the present invention will be described with reference to FIG. 8 as follows.

먼저, 복수의 카메라를 통해 실내 공간 영역에 대한 RGB 색상 정보 및 깊이 정보를 포함하는 3D 깊이맵 영상(MD)을 획득하고(S100), 파티클 시스템을 기반으로 화재 현상을 모델링한 파티클 집합체(Pa)를 깊이맵 영상(MD)과 동일한 영역 범위를 가지는 가상 평면상의 서로 다른 좌표 위치에 배치한 복수의 파티클 이미지(Pi)를 생성한다(S200).First, a 3D depth map image (M D ) containing RGB color information and depth information for the indoor space area was acquired through multiple cameras (S100), and a particle assembly (Pa) modeling the fire phenomenon based on a particle system was obtained. ) is placed at different coordinate positions on the virtual plane having the same area range as the depth map image (M D ) to generate a plurality of particle images (Pi) (S200).

구체적으로, 상기 S200 단계는, 사용자로부터 파티클 입자에 대한 파티클 특성 정보를 입력받으면(S220), 상기 입력된 파티클 특성 정보에 기초하여 불꽃 및 연기와 같은 유체 엔티티를 다양한 위치 및 크기로 시뮬레이션함에 따른 파티클 집합체(Pa)를 구성하고(S240), 상기 구성된 파티클 집합체(Pa)를 깊이맵 영상과 동일한 영역 범위를 가지는 가상 평면상의 서로 다른 좌표 위치에 배치한 복수의 파티클 이미지(Pi)를 생성하는 것(S260)일 수 있다.Specifically, in step S200, when particle characteristic information for particle particles is input from the user (S220), particles are generated by simulating fluid entities such as flame and smoke at various positions and sizes based on the input particle characteristic information. Constructing an aggregate (Pa) (S240) and generating a plurality of particle images (Pi) in which the constructed particle assembly (Pa) is placed at different coordinate positions on a virtual plane having the same area range as the depth map image (S240) S260).

다음으로, 상기 S200 단계에 생성된 복수의 파티클 이미지(Pi) 각각에 대응되는 파티클 집합체(Pa)에 대한 픽셀 영역의 크기 및 위치 정보를 각 파티클 이미지별로 저장한 후(S320), 각각의 파티클 이미지(Pi)에 대응하는 파티클 집합체(Pa)에 대한 픽셀 영역의 크기 및 위치 정보를 기준으로 해당 파티클 집합체를 둘러싸는 최소 부피의 육면체 형상에 대응하는 경계상자(BB)를 생성하면(S340), 경계상자(BB)의 각 꼭지점을 2차원 평면상의 좌표로 변환한 결과에 대응하는 점들을 모두 포함하는 최소 크기의 사각형의 경계영역(BA)을 생성하고(S360), 경계영역(BA)의 크기 및 위치 정보를 해당 파티클 이미지에 매칭 저장한다.Next, the size and position information of the pixel area for the particle aggregate (Pa) corresponding to each of the plurality of particle images (Pi) generated in step S200 are stored for each particle image (S320), and then each particle image If a bounding box (BB) corresponding to the hexahedral shape of the minimum volume surrounding the particle assembly is created based on the size and position information of the pixel area for the particle assembly (Pa) corresponding to (Pi) (S340), the boundary box (BB) is generated (S340). A rectangular border area (BA) of the minimum size containing all the points corresponding to the result of converting each vertex of the box (BB) into coordinates on a two-dimensional plane is created (S360), and the size of the border area (BA) and The location information is matched and stored in the corresponding particle image.

다음으로, 상기 S100 단계에 획득된 깊이맵 영상(MD)을 깊이 레벨에 따라 복수의 RGB 이미지(IR)로 분할한 깊이 분할 영상(SD)을 생성한 후(S400), 깊이 분할 영상(SD)으로부터 각각의 파티클 이미지(Pi)상의 파티클 집합체(Pa)에 대한 픽셀 영역의 깊이값과 인접한 깊이 레벨에 대응되는 한 쌍의 RGB 이미지(IR1,IR2)를 추출하면(S500), 상기 추출된 한 쌍의 RGB 이미지(IR1,IR2)와 이에 대응되는 파티클 이미지(Pi)를 깊이 위치 순서대로 배치하여 합성한 파티클 합성 이미지(Ipc)를 생성한다(S600).Next, after generating a depth segmented image (S D) by dividing the depth map image (M D ) obtained in step S100 into a plurality of RGB images ( IR ) according to the depth level ( S400 ), the depth segmented image When extracting a pair of RGB images (I R1 , I R2 ) corresponding to the depth value of the pixel area for the particle assembly (Pa) on each particle image (Pi) and the adjacent depth level from (S D ) (S500) , a particle composite image (Ipc) is generated by arranging the extracted pair of RGB images (I R1 , I R2 ) and the corresponding particle image (Pi) in order of depth position (S600).

다음으로, 각각의 파티클 합성 이미지(Ipc)에 대하여 해당 파티클 합성 이미지의 합성에 사용된 파티클 이미지(Pi)에 대한 경계영역(BA)에 대응하는 특정 영역을 캡처해 라벨링 처리한 라벨링 이미지(IL)를 생성하되(S720), 상기 생성된 라벨링 이미지의 개수(Ni)가 기설정된 기준개수(Nr)에 도달할 때까지 라벨링 이미지(IL)를 반복해서 생성하도록 제어하고(S740), 상기 740 단계가 완료된 후 기준개수(Nr)만큼 생성된 라벨링 이미지(IL)를 이용하여 딥러닝 기반 이미지 분류 학습을 수행하기 위한 이미지 데이터셋(Ds)을 생성하여 저장한다(S760).Next, for each particle composite image (Ipc), a specific area corresponding to the boundary area (BA) of the particle image (Pi) used in the synthesis of the corresponding particle composite image is captured and labeled as a labeling image (I L ) is generated (S720), and controlled to repeatedly generate labeling images (I L ) until the number (Ni) of the generated labeling images reaches a preset reference number (Nr) (S740), and 740 After the step is completed, an image dataset (Ds) for performing deep learning-based image classification learning is created and stored using the labeling images (I L ) generated as many as the reference number (Nr) (S760).

한편, 본 발명은 전술한 화재 검출 훈련용 이미지 데이터 생성 장치(10)에 의해 생성되는 이미지 데이터를 이용하여 화재 검출 훈련을 위한 이미지 분류 학습을 수행하는 학습 장치 및 방법에 대해서도 설명하고자 한다.Meanwhile, the present invention will also describe a learning device and method for performing image classification learning for fire detection training using image data generated by the above-described image data generating device 10 for fire detection training.

이와 관련하여, 도 9는 본 발명의 일 실시예에 따른 화재 검출 훈련용 이미지 데이터 학습 장치의 구성을 나타낸 블록도이고, 도 10은 도 9의 출력부에 의해 평가대상 이미지상에 검출영역 및 이에 대응되는 검출 확률값을 표시하는 일례를 나타낸 도면이고, 도 11은 본 발명의 일 실시예에 따른 화재 검출 훈련용 이미지 데이터 학습 방법을 나타낸 순서도이다.In this regard, FIG. 9 is a block diagram showing the configuration of an image data learning device for fire detection training according to an embodiment of the present invention, and FIG. 10 is a detection area and a detection area on an image to be evaluated by the output unit of FIG. 9. This is a diagram showing an example of displaying the corresponding detection probability value, and Figure 11 is a flowchart showing a method of learning image data for fire detection training according to an embodiment of the present invention.

먼저, 본 발명의 일 실시예에 따른 화재 검출 훈련용 이미지 데이터 학습 장치(80)는 도 9에 도시된 바와 같이 학습데이터 저장부(600), 학습 모델부(620), 이미지 획득부(700), 가중치 연산 모듈(720), 이미지 전처리부(740) 및 확률값 산출부(800)를 포함하여 구성된다.First, the image data learning device 80 for fire detection training according to an embodiment of the present invention includes a learning data storage unit 600, a learning model unit 620, and an image acquisition unit 700, as shown in FIG. 9. , it is configured to include a weight calculation module 720, an image preprocessor 740, and a probability value calculation unit 800.

학습데이터 저장부(600)는 딥러닝 기반 이미지 분류 학습을 수행하기 위한 학습용 이미지 데이터셋(Ds)을 저장하기 위한 것이다.The learning data storage unit 600 is for storing a learning image dataset (Ds) for performing deep learning-based image classification learning.

여기서, 상기 학습용 이미지 데이터셋(Ds)은, 실내 공간의 서로 다른 지점을 향하여 배치된 복수의 카메라(Cam1,Cam2,…,CamN, N은 카메라 수)를 통해 촬영된 3D 깊이맵 영상(MD)에 기초한 제1 RGB 영상(IR-1)을 배경으로 하여, 파티클 시스템 기반의 유체 시뮬레이션 렌더링 기법을 통해 화재 현상을 모델링한 파티클 집합체(Pa)에 대응하는 가상 객체를 깊이맵 영상(MD)에 포함된 깊이 정보를 기반으로 합성한 후 상기 가상 객체를 라벨링 처리함에 따라 생성되는 것일 수 있다.Here, the learning image dataset (Ds) is a 3D depth map image (M D ) Based on the first RGB image (I R-1 ) as the background, a virtual object corresponding to the particle assembly (Pa) modeling the fire phenomenon through a particle system-based fluid simulation rendering technique was created as a depth map image (M D ) may be generated by synthesizing based on the depth information included in and then labeling the virtual object.

학습 모델부(620)는 제1 RGB 영상(IR-1)에 포함된 가상 객체에 대응하는 파티클 집합체(Pa)의 특징에 대응하여 검출된 픽셀 또는 픽셀들의 조합인 특징점들을 기반으로 하여 생성되는 학습용 이미지 데이터셋(Ds)에 기초하여 특징 파라미터들을 획득함에 따라 합성곱 신경망에 따른 이미지 분류가 가능하도록 사전 학습된다.The learning model unit 620 is generated based on feature points that are a pixel or combination of pixels detected in response to the characteristics of the particle assembly (Pa) corresponding to the virtual object included in the first RGB image (I R-1 ). As feature parameters are acquired based on the training image dataset (Ds), they are pre-trained to enable image classification according to a convolutional neural network.

이때, 학습 모델부(620)는 CNN 모델, YOLO 모델, Fast R-CNN 모델 중 어느 하나의 딥러닝 학습 모델에 의해 구현되는 것일 수 있다.At this time, the learning model unit 620 may be implemented by any one of the deep learning learning models among the CNN model, YOLO model, and Fast R-CNN model.

이미지 획득부(700)는 복수의 카메라 중 어느 하나에 의해 3D 깊이맵 영상(MD)과 동일한 실내 공간의 소정 지점을 기준으로 실시간 촬영된 제2 RGB 영상(IR-2)에 기초한 현재 시점의 RGB 이미지를 평가대상 이미지(IE)로서 획득한다.The image acquisition unit 700 is a current viewpoint based on a second RGB image ( IR-2 ) captured in real time based on a predetermined point in the same indoor space as the 3D depth map image (M D ) by one of a plurality of cameras. The RGB image of is acquired as the evaluation target image (I E ).

가중치 연산 모듈(720)은 평가대상 이미지(IE)에 포함된 객체로부터 검출되는 특징점 및 윤곽선 정보와 평가대상 이미지(IE)를 구성하는 픽셀들에 대한 콘트라스트값에 기초하여, 평가대상 이미지(IE)가 가지는 이미지 특징 성분들의 상대적 비율을 계산함에 따른 가중치(w)를 연산한다.The weight calculation module 720 calculates the evaluation target image (I E ) based on the feature point and outline information detected from the object included in the evaluation target image (I E ) and the contrast value for the pixels constituting the evaluation target image (I E). Calculate the weight (w) by calculating the relative ratio of image feature components of I E ).

이미지 전처리부(740)는 평가대상 이미지(IE)를 딥러닝 기반 텐서 플로우 기법을 통해 학습데이터 저장부(600)에 기저장된 학습용 이미지 데이터셋(Ds)과 동일한 픽셀 사이즈 및 범위로 정규화함에 따른 전처리 이미지(Ip)를 생성한다.The image pre-processing unit 740 normalizes the evaluation target image (I E ) to the same pixel size and range as the training image dataset (Ds) previously stored in the learning data storage unit 600 through a deep learning-based tensor flow technique. Create a preprocessed image (Ip).

확률값 산출부(800)는 전처리 이미지(Ip)를 학습 모델부(620)의 입력 데이터로 적용하여 가중치(w)를 이용한 합성곱 연산 기반의 이미지 학습이 수행됨에 따라, 화재 현상에 포함되는 불꽃 및 연기를 다양한 위치 및 크기로 모델링함에 따른 파티클 집합체(Pa)의 특징에 대응하여 기설정된 복수 개의 클래스 중에서 평가대상 이미지(IE)에 대응되는 적어도 하나의 클래스에 대한 검출 확률값을 산출한다.The probability value calculation unit 800 applies the preprocessed image (Ip) as input data to the learning model unit 620 and performs image learning based on convolution operation using weights (w), thereby performing flame and A detection probability value for at least one class corresponding to the evaluation target image (I E ) is calculated from among a plurality of preset classes corresponding to the characteristics of the particle assembly (Pa) resulting from modeling the smoke in various positions and sizes.

또한, 본 발명의 일 실시예에 따른 이미지 데이터 학습 장치(80)는 전술한 구성들과 더불어 도 8에 도시된 바와 같이 위치 데이터 획득부(640), 검출영역 생성부(820) 및 출력부(900)를 더 포함할 수 있다.In addition, the image data learning device 80 according to an embodiment of the present invention includes a location data acquisition unit 640, a detection area generation unit 820, and an output unit ( 900) may further be included.

위치 데이터 획득부(640)는 복수의 카메라 각각의 촬영 위치에 따른 위치값을 기록함에 따른 위치 데이터를 획득한다.The position data acquisition unit 640 acquires position data by recording position values according to the shooting positions of each of the plurality of cameras.

검출영역 생성부(820)는 확률값 산출부(800)에 의해 소정 클래스에 대하여 산출된 검출 확률값이 기설정된 기준값 이상인 경우, 해당 클래스에 대응되는 상기 평가대상 이미지(IE) 내 특정 객체에 대한 윤곽선 정보에 기초한 객체 영역을 둘러싸는 최소 크기의 사각형의 검출영역(DA)을 생성하고 이에 대한 위치 및 크기 정보를 획득한다.When the detection probability value calculated for a certain class by the probability value calculation unit 800 is greater than or equal to a preset reference value, the detection area generator 820 creates a contour for a specific object in the evaluation target image (I E ) corresponding to the class. A detection area (DA) of the minimum size surrounding the object area based on the information is created and location and size information for it is obtained.

출력부(900)는 평가대상 이미지(IE)상에서 검출영역 생성부(820)에 의해 획득된 위치 및 크기 정보에 대응하도록 검출영역(DA)을 강조 표시하되, 확률값 산출부(800)에 의해 검출영역(BA)에 대응하여 산출된 검출 확률값을 해당 검출영역의 경계 주변에 표시한다.The output unit 900 highlights the detection area (DA) to correspond to the position and size information acquired by the detection area generator 820 on the image to be evaluated (I E ), and is generated by the probability value calculation unit 800. The detection probability value calculated in response to the detection area (BA) is displayed around the boundary of the detection area.

출력부(900)는 평가대상 이미지(IE)상에서 검출영역(DA)의 경계 주변에 평가대상 이미지(IE)를 포함하는 제2 RGB 영상(IR-2)이 촬영된 카메라에 대응하여 획득된 위치 데이터를 표시할 수 있다.The output unit 900 corresponds to the camera in which the second RGB image (I R-2 ) including the evaluation target image (I E ) is captured around the boundary of the detection area (DA) on the evaluation target image (I E ). The acquired location data can be displayed.

예컨대, 도 10을 참조하면, 검출영역 생성부(820)에 의해 불꽃을 포함하는 화염 객체를 둘러싸는 검출영역(DA)이 생성될 때, 출력부(900)는 상기 생성된 검출영역(12)을 평가대상 이미지(IE)상에 강조 표시하되, 검출영역(12)의 경계 주변에 해당 검출영역에 대응하는 검출 확률값(0.85) 및 픽셀좌표(X1,Y1)와 평가대상 이미지(IE)에 대응되는 카메라의 위치 데이터(Cam5) 중 적어도 하나를 표시할 수 있다.For example, referring to FIG. 10, when a detection area (DA) surrounding a flame object including a flame is generated by the detection area generator 820, the output unit 900 generates the generated detection area 12. is highlighted on the image to be evaluated (I E ), and around the border of the detection area 12, the detection probability value (0.85) and pixel coordinates (X 1 , Y 1 ) corresponding to the detection area and the image to be evaluated (I At least one of the camera position data (Cam5) corresponding to E ) can be displayed.

전술한 도 9에 도시된 구성요소들에 대한 설명을 바탕으로 하여 본 발명의 일 실시예에 따른 이미지 데이터 학습 방법을 도 11을 참조하여 설명하면 다음과 같다.Based on the description of the components shown in FIG. 9 described above, the image data learning method according to an embodiment of the present invention will be described with reference to FIG. 11 as follows.

먼저, 실내 공간 영역을 촬영한 3D 깊이맵 영상(MD)에 기초한 제1 RGB 영상(IR-1)을 배경으로 하여 파티클 시스템을 기반으로 화재 현상을 모델링한 파티클 집합체(Pa)에 대응하는 가상 객체를 깊이맵 영상(MD)에 포함된 깊이 정보를 기반으로 합성한 후 상기 가상 객체를 라벨링 처리함에 따라 생성된 학습용 이미지 데이터셋(Ds)을 저장하고(S800), 상기 저장된 학습용 이미지 데이터셋(Ds)에 기초하여 특징 파라미터들을 획득함에 따라 합성곱 신경망에 따른 이미지 분류가 가능하도록 사전 학습을 수행한다(S810).First, with the first RGB image (I R-1 ) based on the 3D depth map image (M D ) captured in the indoor space area as the background, a particle assembly (Pa) corresponding to the fire phenomenon modeled based on the particle system was created. After synthesizing a virtual object based on the depth information included in the depth map image (M D ), storing the training image dataset (Ds) generated by labeling the virtual object (S800), and storing the stored training image data As the feature parameters are acquired based on the set (Ds), dictionary learning is performed to enable image classification according to the convolutional neural network (S810).

다음으로, 복수의 카메라 각각의 촬영 위치에 따른 위치값을 기록함에 따른 위치 데이터를 획득하고(S820), 복수의 카메라 중 어느 하나에 의해 상기 실내 공간의 소정 지점을 기준으로 실시간 촬영된 제2 RGB 영상(IR-2)에 기초한 현재 시점의 RGB 이미지를 평가대상 이미지(IE)로서 획득한다(S830).Next, location data is obtained by recording the position value according to the shooting position of each of the plurality of cameras (S820), and the second RGB captured in real time based on a predetermined point in the indoor space by one of the plurality of cameras The current RGB image based on the image ( IR-2 ) is acquired as the evaluation target image (I E ) (S830).

다음으로, 평가대상 이미지(IE)에 포함된 객체로부터 검출되는 특징점 및 윤곽선 정보와 평가대상 이미지(IE)를 구성하는 픽셀들에 대한 콘트라스트값에 기초하여 평가대상 이미지(IE)에 대한 가중치(w)를 연산하고(S840), 평가대상 이미지(IE)를 딥러닝 기반 텐서 플로우 기법을 통해 기저장된 학습용 이미지 데이터셋(Ds)과 동일한 픽셀 사이즈 및 범위로 정규화함에 따른 전처리 이미지(Ip)를 생성한 후(S850), 전처리 이미지(Ip)를 상기 S810 단계에서 사전 학습을 수행한 합성곱 신경망 모델의 입력 데이터로 적용하여 가중치(w)를 이용한 합성곱 연산 기반의 이미지 학습이 수행됨에 따라, 기설정된 복수 개의 클래스 중에서 평가대상 이미지(IE)에 대응되는 적어도 하나의 클래스에 대한 확률값을 산출한다(S900).Next, the evaluation target image (I E ) is evaluated based on the feature points and outline information detected from the object included in the evaluation target image (I E ) and the contrast values for the pixels constituting the evaluation target image (I E ). Preprocessing image (Ip) by calculating the weight (w) (S840) and normalizing the evaluation target image (I E ) to the same pixel size and range as the previously stored training image dataset (Ds) through deep learning-based tensor flow technique. ) is generated (S850), the pre-processed image (Ip) is applied as input data to the convolutional neural network model that performed pre-training in step S810, and image learning based on convolution operation using weights (w) is performed. Accordingly, a probability value for at least one class corresponding to the image to be evaluated (I E ) among the plurality of preset classes is calculated (S900).

다음으로, 상기 S900 단계에 소정 클래스에 대하여 산출된 확률값이 기설정된 기준값 이상인 경우, 해당 클래스에 대응되는 평가대상 이미지(IE) 내 특정 객체에 대한 윤곽선 정보에 기초한 객체 영역을 둘러싸는 최소 크기의 사각형의 검출영역(DA)을 생성하고 이에 대한 위치 및 크기 정보를 획득한 후(S910), 상기 획득된 위치 및 크기 정보에 대응하도록 평가대상 이미지(IE)상에서 검출영역(DA)을 강조 표시한다(S920).Next, if the probability value calculated for a given class in step S900 is greater than or equal to a preset reference value, the minimum size surrounding the object area based on the outline information for a specific object in the evaluation target image (I E ) corresponding to the class is determined. After creating a rectangular detection area (DA) and obtaining its position and size information (S910), the detection area (DA) is highlighted on the image to be evaluated (I E ) to correspond to the obtained position and size information. Do it (S920).

이때, 상기 S920 단계에서는, 해당 검출영역(DA)의 경계 주변에 상기 S900 단계에 검출영역(DA)에 대응하여 산출된 검출 확률값과, 상기 S910 단계에 검출영역(DA)에 대응하여 획득된 픽셀좌표와, 상기 S820 단계에 평가대상 이미지(IE)에 대응하여 획득된 카메라의 위치 데이터 중 적어도 하나를 표시할 수 있다.At this time, in step S920, a detection probability value calculated corresponding to the detection area DA in step S900 is placed around the boundary of the corresponding detection area DA, and a pixel obtained corresponding to the detection area DA in step S910. At least one of coordinates and camera position data obtained in response to the image to be evaluated (I E ) in step S820 may be displayed.

이에 따라, 전술한 본 발명에 의하면, 파티클 시스템을 기반으로 화재 현상을 시뮬레이션하여 모델링한 가상 화재 이미지를 화재 감지 대상 지역에서 사전 촬영한 영상을 배경으로 합성하는 방식을 통해 학습 데이터를 생성하므로 사용자가 원하는 다양한 장소에 대한 화재 검출 훈련용 학습 데이터를 용이하게 확보할 수 있다.Accordingly, according to the present invention described above, learning data is generated by synthesizing a virtual fire image modeled by simulating a fire phenomenon based on a particle system with a background image previously taken in the fire detection target area, so that the user can Learning data for fire detection training for various desired locations can be easily obtained.

또한, 본 발명에 의하면, 학습용 이미지 데이터셋과 동일한 배경 공간에서 획득된 평가대상 이미지를 이용하여 화재 검출 학습을 수행함에 따라 배경 공간의 동일성으로 인해 높은 정확도의 검출 결과를 제공할 수 있다.In addition, according to the present invention, as fire detection learning is performed using an evaluation target image acquired in the same background space as the training image dataset, high accuracy detection results can be provided due to the identity of the background space.

또한, 본 발명에 의하면, 다양한 장소에서 발생할 수 있는 화재 상황을 가상으로 연출하여 양질의 학습 데이터를 다량으로 생성할 수 있어 종래의 학습 데이터 부족에 따른 화재 조기 검출 능력의 한계를 극복하고 매우 높은 수준의 검출률을 얻을 수 있다.In addition, according to the present invention, it is possible to generate a large amount of high-quality learning data by virtually creating a fire situation that may occur in various places, thereby overcoming the limitations of the early fire detection ability due to the lack of conventional learning data and achieving a very high level of fire detection. A detection rate of can be obtained.

이상, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며 특허청구범위 내에서 다양하게 실시될 수 있다.Although the present invention has been described in detail through preferred embodiments, the present invention is not limited thereto and may be implemented in various ways within the scope of the patent claims.

특히, 전술한 내용은 후술할 발명의 청구범위를 더욱 잘 이해할 수 있도록 본 발명의 특징과 기술적 강점을 다소 폭넓게 상술하였으므로, 상술한 본 발명의 개념과 특정 실시예는 본 발명과 유사 목적을 수행하기 위한 다른 형상의 설계나 수정의 기본으로써 즉시 사용될 수 있음이 해당 기술 분야의 숙련된 사람들에 의해 인식되어야 한다.In particular, the foregoing has described the features and technical strengths of the present invention rather broadly to enable a better understanding of the claims of the invention to be described later. Therefore, the concept and specific embodiments of the present invention described above are intended to serve a similar purpose as the present invention. It should be recognized by those skilled in the art that it can be immediately used as a basis for the design or modification of other shapes for use.

또한, 상기에서 기술된 실시예는 본 발명에 따른 하나의 실시예일 뿐이며, 해당 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술적 사상의 범위에서 다양한 수정 및 변경된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 따라서, 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 하고, 이러한 다양한 수정 및 변경 또한 본 발명의 기술적 사상의 범위에 속하는 것으로 전술한 본 발명의 청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.In addition, the embodiment described above is only one embodiment according to the present invention, and can be implemented in various modified and changed forms by those skilled in the art within the scope of the technical idea of the present invention. You will understand. Accordingly, the disclosed embodiments should be considered from an explanatory rather than a limiting perspective, and various modifications and changes thereof are also included in the scope of the technical spirit of the present invention and are indicated in the claims of the present invention, and the scope equivalent thereto is thereto. All differences therein should be construed as being included in the present invention.

10: 이미지 데이터 생성 장치 80: 이미지 데이터 학습 장치
100: 깊이맵 영상 획득부 120: 깊이분할 영상 생성부
200: 파티클 이미지 생성 모듈 210: 특성 정보 입력부
220: 파티클 집합체 구성부 230: 파티클 이미지 생성부
240: 저장부 250: 경계상자 생성부
260: 경계상자 변환부 300: RGB 이미지 추출부
400: 합성 이미지 생성부 500: 라벨링 처리부
520: 제어부 540: 이미지 데이터셋 저장부
600: 학습 데이터 저장부 620: 학습 모델부
640: 위치 데이터 획득부 700: 이미지 획득부
720: 가중치 연산 모듈 740: 이미지 전처리부
800: 확률값 산출부 820: 검출영역 생성부
900: 출력부
10: Image data generation device 80: Image data learning device
100: Depth map image acquisition unit 120: Depth segmentation image generation unit
200: Particle image creation module 210: Characteristic information input unit
220: Particle assembly configuration unit 230: Particle image creation unit
240: storage unit 250: bounding box generation unit
260: Bounding box conversion unit 300: RGB image extraction unit
400: composite image generation unit 500: labeling processing unit
520: Control unit 540: Image data set storage unit
600: Learning data storage unit 620: Learning model unit
640: Location data acquisition unit 700: Image acquisition unit
720: Weight calculation module 740: Image preprocessor
800: Probability value calculation unit 820: Detection area generation unit
900: output unit

Claims (16)

실내 공간에서의 화재 검출을 위한 훈련용 이미지 데이터를 생성하는 장치에 있어서,
상기 실내 공간의 서로 다른 지점을 향하여 배치된 복수의 카메라를 통해 해당 지점을 기준으로 촬영된 공간 영역에 대한 RGB 색상 정보 및 깊이 정보를 포함하는 3D 깊이맵 영상을 획득하는 깊이맵 영상 획득부;
파티클 시스템 기반의 기설정된 복수의 파티클 입자에 대한 색상, 크기 및 텍스처 좌표를 포함하는 파티클 특성 정보를 사용자로부터 입력받는 특성 정보 입력부와, 복수의 상기 파티클 입자 각각에 대응하여 입력된 파티클 특성 정보에 기초하여 불꽃 및 연기와 같은 유체 엔티티를 유체 시뮬레이션 렌더링 기법을 통해 다양한 위치 및 크기로 시뮬레이션하여 화재 현상을 모델링함에 따른 파티클 집합체를 구성하는 파티클 집합체 구성부와, 상기 구성된 파티클 집합체를 상기 깊이맵 영상과 동일한 영역 범위를 가지는 가상 평면상의 서로 다른 좌표 위치에 배치한 복수의 파티클 이미지를 생성하는 파티클 이미지 생성부를 포함하여 구성되는 파티클 이미지 생성 모듈;
상기 획득된 깊이맵 영상을 깊이 레벨에 따라 복수의 RGB 이미지로 분할한 깊이 분할 영상을 생성하는 깊이 분할 영상 생성부;
상기 깊이 분할 영상으로부터 각각의 상기 파티클 이미지상의 상기 파티클 집합체에 대한 픽셀 영역의 깊이값과 인접한 깊이 레벨에 대응되는 한 쌍의 RGB 이미지를 추출하는 RGB 이미지 추출부;
각각의 상기 파티클 이미지와 이에 대응하여 추출된 상기 한 쌍의 RGB 이미지를 깊이 위치 순서대로 배치하여 합성한 파티클 합성 이미지를 생성하는 합성 이미지 생성부;
상기 복수의 파티클 이미지 각각에 대응되는 상기 파티클 집합체에 대한 픽셀 영역의 크기 및 위치 정보를 각 파티클 이미지별로 저장하는 저장부;
각각의 상기 파티클 이미지에 대응하는 상기 파티클 집합체에 대한 픽셀 영역의 크기 및 위치 정보를 기준으로 해당 파티클 집합체를 둘러싸는 최소 부피의 육면체 형상에 대응하는 경계상자를 생성하는 경계상자 생성부; 및
상기 생성된 경계상자의 각 꼭지점을 2차원 평면상의 좌표로 변환한 결과에 대응하는 점들을 모두 포함하는 최소 크기의 사각형의 경계영역을 생성한 후 해당 경계영역의 크기 및 위치 정보를 획득하여 이에 대응되는 상기 파티클 이미지에 매칭 저장하는 경계상자 변환부;를 포함하는 것을 특징으로 하는 화재 검출 훈련용 이미지 데이터 생성 장치.
In a device that generates training image data for fire detection in indoor spaces,
a depth map image acquisition unit that acquires a 3D depth map image including RGB color information and depth information for a spatial region photographed based on a corresponding point through a plurality of cameras arranged toward different points in the indoor space;
A characteristic information input unit that receives particle characteristic information including color, size, and texture coordinates for a plurality of preset particle systems based on a particle system from the user, and a characteristic information input unit based on the particle characteristic information input corresponding to each of the plurality of particle particles. A particle assembly component that constitutes a particle assembly for modeling a fire phenomenon by simulating fluid entities such as flame and smoke in various positions and sizes through a fluid simulation rendering technique, and a particle assembly component that configures the particle assembly identical to the depth map image. A particle image generation module comprising a particle image generation unit that generates a plurality of particle images arranged at different coordinate positions on a virtual plane having an area range;
a depth segmentation image generator that generates a depth segmentation image by dividing the acquired depth map image into a plurality of RGB images according to depth levels;
an RGB image extraction unit that extracts a pair of RGB images corresponding to a depth value adjacent to a depth value of a pixel area for the particle aggregate on each particle image from the depth segmented image;
a composite image generator that generates a composite particle image by arranging each of the particle images and the pair of RGB images extracted corresponding thereto in order of depth position;
a storage unit that stores size and position information of a pixel area for the particle aggregate corresponding to each of the plurality of particle images for each particle image;
a bounding box generator that generates a bounding box corresponding to a hexahedral shape with a minimum volume surrounding the particle assembly based on the size and position information of the pixel area for the particle assembly corresponding to each particle image; and
After converting each vertex of the generated bounding box into coordinates on a two-dimensional plane, a rectangular border area of the minimum size is created containing all the corresponding points, and then the size and position information of the border area are obtained and corresponding to it. An image data generation device for fire detection training, comprising a bounding box conversion unit that matches and stores the particle image.
제1항에 있어서,
상기 합성 이미지 생성부는,
상기 파티클 합성 이미지의 생성 시 상기 파티클 이미지 및 이에 대응되는 상기 한 쌍의 RGB 이미지를 깊이 위치 순서대로 배치하되, 상기 한 쌍의 RGB 이미지 중에서 상기 깊이 위치가 상대적으로 먼 위치에 있는 해당 RGB 이미지상의 픽셀 영역의 RGBA 색상값의 투명도를 조절하여 투명하게 처리한 후 합성하는 것을 특징으로 하는 화재 검출 훈련용 이미지 데이터 생성 장치.
According to paragraph 1,
The composite image generator,
When generating the particle composite image, the particle image and the pair of RGB images corresponding thereto are arranged in order of depth position, and the pixel on the RGB image whose depth position is relatively distant among the pair of RGB images An image data generation device for fire detection training, characterized in that it adjusts the transparency of the RGBA color value of the area, processes it transparently, and then synthesizes it.
삭제delete 삭제delete 제1항에 있어서,
각각의 상기 파티클 합성 이미지에 대하여 해당 파티클 합성 이미지의 합성에 사용된 상기 파티클 이미지에 대한 상기 경계영역의 크기 및 위치정보에 대응하는 특정 영역을 캡처해 라벨링 처리한 라벨링 이미지를 생성하는 라벨링 처리부;
상기 라벨링 이미지의 개수가 기설정된 기준개수에 도달할 때까지 상기 라벨링 이미지를 반복해서 생성하도록 상기 라벨링 처리부를 제어하는 제어부; 및
상기 기준개수만큼 생성된 상기 라벨링 이미지를 이용하여 딥러닝 기반 이미지 분류 학습을 수행하기 위한 이미지 데이터셋을 생성하여 저장하는 이미지 데이터셋 저장부;를 더 포함하는 것을 특징으로 하는 화재 검출 훈련용 이미지 데이터 생성 장치.
According to paragraph 1,
A labeling processing unit that generates a labeled image by capturing and labeling a specific area corresponding to the size and position information of the boundary area for the particle image used in the synthesis of the particle synthesis image for each particle synthesis image;
a control unit that controls the labeling processing unit to repeatedly generate the labeling images until the number of the labeling images reaches a preset standard number; and
Image data for fire detection training, further comprising: an image dataset storage unit that generates and stores an image dataset for performing deep learning-based image classification learning using the labeling images generated by the reference number. Generating device.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 실내 공간의 서로 다른 지점을 향하여 배치된 복수의 카메라를 통해 촬영된 3D 깊이맵 영상에 기초한 제1 RGB 영상을 배경으로 하여, 파티클 시스템 기반의 유체 시뮬레이션 렌더링 기법을 통해 화재 현상을 모델링한 파티클 집합체에 대응하는 가상 객체를 상기 깊이맵 영상에 포함된 깊이 정보를 기반으로 합성한 후 상기 가상 객체를 라벨링 처리함에 따라 생성된 학습용 이미지 데이터셋을 저장하는 학습 데이터 저장부;
상기 제1 RGB 영상에 포함된 가상 객체에 대응하는 상기 파티클 집합체의 특징에 대응하여 검출된 픽셀 또는 픽셀들의 조합인 특징점들을 기반으로 하여 생성되는 상기 학습용 이미지 데이터셋에 기초하여 특징 파라미터들을 획득함에 따라 합성곱 신경망에 따른 이미지 분류가 가능하도록 사전 학습된 학습 모델부;
상기 복수의 카메라 중 어느 하나에 의해 상기 실내 공간의 소정 지점을 기준으로 실시간 촬영된 제2 RGB 영상에 기초한 현재 시점의 RGB 이미지를 평가대상 이미지로서 획득하는 이미지 획득부;
상기 평가대상 이미지에 포함된 객체로부터 검출되는 특징점 및 윤곽선 정보와 상기 평가대상 이미지를 구성하는 픽셀들에 대한 콘트라스트값에 기초하여 상기 평가대상 이미지가 가지는 이미지 특징 성분들의 상대적 비율을 계산함에 따른 가중치를 연산하는 가중치 연산 모듈;
상기 평가대상 이미지를 딥러닝 기반 텐서 플로우 기법을 통해 기저장된 상기 학습용 이미지 데이터셋과 동일한 픽셀 사이즈 및 범위로 정규화함에 따른 전처리 이미지를 생성하는 이미지 전처리부; 및
상기 전처리 이미지를 상기 학습 모델부의 입력 데이터로 적용하여 상기 가중치를 이용한 합성곱 연산 기반의 이미지 학습이 수행됨에 따라, 화재 현상에 포함되는 불꽃 및 연기를 다양한 위치 및 크기로 모델링함에 따른 상기 파티클 집합체의 특징에 대응하여 기설정된 복수 개의 클래스 중에서 상기 평가대상 이미지에 대응되는 적어도 하나의 클래스에 대한 검출 확률값을 산출하는 확률값 산출부;를 포함하는 것을 특징으로 하는 화재 검출 훈련용 이미지 데이터 학습 장치.
With the first RGB image based on a 3D depth map image captured through multiple cameras placed toward different points in the indoor space as the background, a particle assembly modeling the fire phenomenon was created using a particle system-based fluid simulation rendering technique. a learning data storage unit that stores a training image dataset generated by synthesizing a corresponding virtual object based on depth information included in the depth map image and labeling the virtual object;
By acquiring feature parameters based on the learning image dataset generated based on feature points that are a pixel or combination of pixels detected in response to the characteristics of the particle aggregate corresponding to the virtual object included in the first RGB image, A learning model unit pre-trained to enable image classification according to a convolutional neural network;
an image acquisition unit that acquires a current RGB image based on a second RGB image captured in real time based on a predetermined point in the indoor space by one of the plurality of cameras as an image to be evaluated;
Weights for calculating the relative ratio of image feature components of the image to be evaluated based on feature points and outline information detected from objects included in the image to be evaluated and contrast values for pixels constituting the image to be evaluated. a weight calculation module that calculates;
An image preprocessor that generates a preprocessed image by normalizing the evaluation target image to the same pixel size and range as the previously stored learning image dataset through a deep learning-based tensor flow technique; and
As image learning based on convolution calculation using the weight is performed by applying the pre-processed image as input data of the learning model unit, the particle aggregate according to modeling the flame and smoke included in the fire phenomenon in various positions and sizes An image data learning device for fire detection training, comprising: a probability value calculation unit that calculates a detection probability value for at least one class corresponding to the evaluation target image among a plurality of classes preset corresponding to features.
제11항에 있어서,
소정 클래스에 대하여 상기 산출된 검출 확률값이 기설정된 기준값 이상인 경우, 해당 클래스에 대응되는 상기 평가대상 이미지 내 특정 객체에 대한 윤곽선 정보에 기초한 객체 영역을 둘러싸는 최소 크기의 사각형의 검출영역을 생성하고 이에 대한 위치 및 크기 정보를 획득하는 검출영역 생성부; 및
상기 평가대상 이미지상에서 상기 획득된 위치 및 크기 정보에 대응하도록 상기 검출영역을 강조 표시하되, 상기 검출영역에 대응하여 산출된 상기 검출 확률값을 해당 검출영역의 경계 주변에 표시하는 출력부;를 더 포함하는 것을 특징으로 하는 화재 검출 훈련용 이미지 데이터 학습 장치.
According to clause 11,
If the calculated detection probability value for a given class is greater than the preset reference value, a rectangular detection area of the minimum size surrounding the object area is created based on the outline information for the specific object in the evaluation target image corresponding to the class. a detection area generator that obtains location and size information; and
It further includes an output unit that highlights the detection area to correspond to the acquired position and size information on the evaluation target image, and displays the detection probability value calculated in response to the detection area around the boundary of the detection area. An image data learning device for fire detection training, characterized in that.
제12항에 있어서,
상기 복수의 카메라 각각의 촬영 위치에 따른 위치값을 기록함에 따른 위치 데이터를 획득하는 위치 데이터 획득부;를 더 포함하며,
상기 출력부는,
상기 평가대상 이미지상에서 상기 검출영역의 경계 주변에 상기 평가대상 이미지를 포함하는 상기 제2 RGB 영상이 촬영된 카메라에 대응하여 획득된 위치 데이터를 표시하는 것을 특징으로 하는 화재 검출 훈련용 이미지 데이터 학습 장치.
According to clause 12,
It further includes a location data acquisition unit that acquires location data by recording location values according to the shooting positions of each of the plurality of cameras,
The output unit,
An image data learning device for fire detection training, characterized in that it displays location data obtained in response to a camera that captured the second RGB image including the evaluation target image around the boundary of the detection area on the evaluation target image. .
삭제delete 삭제delete 삭제delete
KR1020210184275A 2021-12-21 2021-12-21 Generating apparatus and method of image data for fire detection training, and learning apparatus and method using the same KR102630183B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210184275A KR102630183B1 (en) 2021-12-21 2021-12-21 Generating apparatus and method of image data for fire detection training, and learning apparatus and method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210184275A KR102630183B1 (en) 2021-12-21 2021-12-21 Generating apparatus and method of image data for fire detection training, and learning apparatus and method using the same

Publications (2)

Publication Number Publication Date
KR20230094827A KR20230094827A (en) 2023-06-28
KR102630183B1 true KR102630183B1 (en) 2024-01-25

Family

ID=86994518

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210184275A KR102630183B1 (en) 2021-12-21 2021-12-21 Generating apparatus and method of image data for fire detection training, and learning apparatus and method using the same

Country Status (1)

Country Link
KR (1) KR102630183B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117011355B (en) * 2023-07-27 2024-01-30 三峡大学 Converter station disaster prevention system and method based on digital image processing technology

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020130889A1 (en) * 2000-07-18 2002-09-19 David Blythe System, method, and computer program product for real time transparency-based compositing

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8289327B1 (en) * 2009-01-21 2012-10-16 Lucasfilm Entertainment Company Ltd. Multi-stage fire simulation
KR101806503B1 (en) 2016-02-25 2017-12-07 한국전자통신연구원 Realtime fire sensing method
KR102235308B1 (en) 2019-08-06 2021-04-05 (주)아이리녹스 Indoor space intelligent early fire extinguishing system and method
KR102366396B1 (en) * 2020-05-08 2022-02-22 동명대학교산학협력단 RGB-D Data and Deep Learning Based 3D Instance Segmentation Method and System

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020130889A1 (en) * 2000-07-18 2002-09-19 David Blythe System, method, and computer program product for real time transparency-based compositing

Also Published As

Publication number Publication date
KR20230094827A (en) 2023-06-28

Similar Documents

Publication Publication Date Title
JP7262884B2 (en) Biometric face detection method, device, equipment and computer program
CN105225230B (en) A kind of method and device of identification foreground target object
KR102577472B1 (en) Apparatus and method for generating synthetic learning data for motion recognition
CN105096382B (en) A kind of method and device that real-world object information is associated in video monitoring image
CN109815843B (en) Image processing method and related product
Viraktamath et al. Face detection and tracking using OpenCV
US9218690B2 (en) Method for simulating hyperspectral imagery
US11094134B1 (en) System and method for generating synthetic data
JPH0877356A (en) Method and device for processing three-dimensional multi-view image
CN106033601A (en) Method and apparatus for detecting abnormal situation
Scheck et al. Learning from theodore: A synthetic omnidirectional top-view indoor dataset for deep transfer learning
KR102630183B1 (en) Generating apparatus and method of image data for fire detection training, and learning apparatus and method using the same
CN110909634A (en) Visible light and double infrared combined rapid in vivo detection method
US20180286130A1 (en) Graphical image augmentation of physical objects
Yu et al. Intelligent visual-IoT-enabled real-time 3D visualization for autonomous crowd management
CN117036612A (en) Three-dimensional reconstruction method based on nerve radiation field
KR101890166B1 (en) Three-dimensional monitoring system and method using real-time warping of surveilance videos
Lang et al. Attention-guided digital adversarial patches on visual detection
US20140306953A1 (en) 3D Rendering for Training Computer Vision Recognition
Krispel et al. Automatic texture and orthophoto generation from registered panoramic views
CN115131407A (en) Robot target tracking method, device and equipment for digital simulation environment
Kwak et al. A study on the dynamic image-based dark channel prior and smoke detection using deep learning
Thalhammer et al. Sydd: Synthetic depth data randomization for object detection using domain-relevant background
Siegel et al. Superimposing height-controllable and animated flood surfaces into street-level photographs for risk communication
Wei et al. Unified Adversarial Patch for Visible-Infrared Cross-modal Attacks in the Physical World

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant