KR102364020B1 - Fire analysis method using fire scene footage - Google Patents

Fire analysis method using fire scene footage Download PDF

Info

Publication number
KR102364020B1
KR102364020B1 KR1020210073006A KR20210073006A KR102364020B1 KR 102364020 B1 KR102364020 B1 KR 102364020B1 KR 1020210073006 A KR1020210073006 A KR 1020210073006A KR 20210073006 A KR20210073006 A KR 20210073006A KR 102364020 B1 KR102364020 B1 KR 102364020B1
Authority
KR
South Korea
Prior art keywords
fire
image
analysis
user
analysis target
Prior art date
Application number
KR1020210073006A
Other languages
Korean (ko)
Inventor
남정우
박남규
문병선
공영수
이동규
우승우
김선재
최경원
Original Assignee
대한민국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국 filed Critical 대한민국
Priority to KR1020210073006A priority Critical patent/KR102364020B1/en
Application granted granted Critical
Publication of KR102364020B1 publication Critical patent/KR102364020B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Evolutionary Computation (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a fire analysis method using an image of the scene of a fire. One aspect of the present invention includes the steps of: scanning the scene of a fire to acquire the image of the scene of a fire; acquiring an analysis image of an analysis target included in the scene of a fire; generating a processed image by processing the scene of a fire and the analysis image; storing the processed image; and reading the stored processed image by a user's input and providing it to a user through an image providing unit. Accordingly, various information is efficiently provided to the user.

Description

화재 현장 영상을 활용한 화재 분석 방법{Fire analysis method using fire scene footage}Fire analysis method using fire scene footage

본 발명은 화재 현장 영상을 활용한 화재 분석 방법에 관한 것이다.The present invention relates to a fire analysis method using a fire scene image.

현대사회에서는 다양한 전자제품, 화기, 가연성 물질이 포함된 제품, 폭발성 물질이 포함된 제품 등 다양한 물건이 사용되고 있고, 이에 따라 주택, 상가 등 건물이나 산 등 도처에 언제든 화재가 일어날 수 있는 위험이 도사리고 있다.In modern society, various items such as various electronic products, firearms, products containing inflammable substances, and products containing explosive substances are being used. there is.

이처럼 화재는 언제, 어디서든 일어날 수 있는 재난이지만 한번 발생하고 나면 크나큰 인명적, 경제적 피해를 입히는 경우가 많으므로 화재 발생을 예방하는 것은 매우 중요한 과제라 할 수 있다.As such, fire is a disaster that can occur anytime and anywhere, but once it does occur, it often causes great human and economic damage.

이를 위해, 일반적으로 화재가 발생한 현장에서는 진화작업이 끝난 후 화재의 원인이나 화재의 확산 추이 등 다양한 화재현장검식이 진행된다.To this end, in general, at the site where a fire occurs, various fire site inspections such as the cause of the fire and the spread of the fire are conducted after the firefighting operation is completed.

다만, 화재는 매우 다양한 원인에 의해 발생할 수 있고, 화재의 확산 정도나 확산 속도는 다양한 내/외적 요인에 의해 변동될 수 있으며, 화재분석을 위한 시료와 자료는 진화작업이 끝난 후 현장에서 이미 소실되거나 훼손되는 경우가 많아, 화재분석은 매우 어려운 측면이 있다.However, fire can be caused by a wide variety of causes, and the degree or rate of fire spread can be changed by various internal/external factors. There are many cases of damage, so fire analysis is very difficult.

따라서, 아파트, 상가 건물 등 다중이용시설물이나 주택, 산, 도로 등 다양한 공간에서 다양한 이유로 발생하는 화재에 대해 그 원인이나 피해확산의 요인 등을 용이하고 정확하게 분석할 수 있는 수단의 개발이 요구되고 있는 실정이다.Therefore, the development of a means that can easily and accurately analyze the causes and factors of the spread of damage for fires that occur for various reasons in various spaces such as apartments and commercial buildings, or in various spaces such as houses, mountains, and roads is required. the current situation.

본 발명은 화재 분석을 위한 정보를 용이하게 획득하여 사용자에게 제공할 수 있는 화재 분석 방법을 제공하고자 한다.An object of the present invention is to provide a fire analysis method that can easily obtain information for fire analysis and provide it to a user.

또한, 본 발명은 화재 분석을 위한 다양한 정보를 사용자에게 효율적으로 제공할 수 있는 화재 분석 방법을 제공하고자 한다.Another object of the present invention is to provide a fire analysis method that can efficiently provide various information for fire analysis to a user.

또한, 본 발명은 화재 분석을 위한 다양한 정보를 사실적으로 사용자에게 제공할 수 있는 화재 분석 방법을 제공하고자 한다.In addition, an object of the present invention is to provide a fire analysis method that can realistically provide a variety of information for fire analysis to a user.

다만, 이러한 과제는 예시적인 것으로 이에 의해 본 발명이 해결하고자 하는 과제가 한정되는 것은 아니다.However, these problems are exemplary and the problems to be solved by the present invention are not limited thereto.

상기 목적을 달성하기 위하여, 본 발명의 일 측면은 화재 현장을 스캔하여 화재 현장 영상을 획득하는 단계, 상기 화재 현장에 포함된 분석 대상의 분석 영상을 획득하는 단계, 상기 화재 현장 영상과 상기 분석 영상을 가공하여 가공 영상을 생성하는 단계, 상기 가공 영상을 저장하는 단계 및 상기 저장된 가공 영상을 사용자의 입력에 의해 독출하여 영상 제공부를 통해 상기 사용자에게 제공하는 단계를 포함할 수 있다.In order to achieve the above object, one aspect of the present invention is to scan a fire scene to acquire a fire scene image, acquiring an analysis image of an analysis target included in the fire scene, the fire scene image and the analysis image It may include the steps of generating a processed image by processing, storing the processed image, and reading the stored processed image according to a user's input and providing the processed image to the user through an image providing unit.

또한, 상기 화재 현장에서 특이점이 있는 영역 또는 특이점이 있는 사물을 인식하여 분석 대상으로 선별하는 단계를 더 포함할 수 있다.In addition, the method may further include recognizing a region having a singularity or an object having a singularity at the fire site and selecting the region as an analysis target.

또한, 상기 분석 영상에 상기 분석 대상의 기초 데이터를 입력하는 단계를 더 포함할 수 있다.The method may further include inputting basic data of the analysis target to the analysis image.

또한, 상기 가공 영상은 상기 화재 현장의 공간 데이터에 기초하여 생성된 가상 현실 데이터를 포함할 수 있다.Also, the processed image may include virtual reality data generated based on spatial data of the fire site.

본 발명은 화재 분석을 위한 정보를 용이하게 획득하여 사용자에게 제공하는 화재 분석 방법을 제공할 수 있다.The present invention can provide a fire analysis method for easily acquiring information for fire analysis and providing it to a user.

또한, 본 발명은 화재 분석을 위한 다양한 정보를 사용자에게 효율적으로 제공하는 화재 분석 방법을 제공할 수 있다.In addition, the present invention may provide a fire analysis method for efficiently providing various information for fire analysis to a user.

또한, 본 발명은 화재 분석을 위한 다양한 정보를 사실적으로 사용자에게 제공하는 화재 분석 방법을 제공할 수 있다.In addition, the present invention may provide a fire analysis method for providing a user with a variety of information for fire analysis realistically.

다만, 이러한 효과는 예시적인 것으로, 이에 의해 본 발명의 효과가 한정되는 것은 아니다.However, these effects are exemplary, and the effects of the present invention are not limited thereto.

도 1은 화재 분석 시스템의 사용예를 개략적으로 도시한 도면이다.
도 2는 도 1의 화재 분석 시스템의 일 실시예를 개략적으로 도시한 블록도이다.
도 3은 사용자가 일 실시예에 따른 영상 제공부를 착용한 모습을 개략적으로 도시한 도면이다.
도 4는 영상 제공부를 통해 사용자에게 제공되는 화면의 일 실시예를 도시한 도면이다.
도 5는 도 4의 제2 분석 대상을 설명하기 위한 도면이다.
도 6은 영상 제공부를 통해 사용자에게 제공되는 화면의 다른 실시예를 도시한 도면이다.
도 7은 영상 제공부를 통해 사용자에게 제공되는 화면의 또 다른 실시예를 도시한 도면이다.
도 8은 화재 분석 시스템을 통한 화재 현장 영상을 활용한 화재 분석 방법의 일 실시예를 설명하기 위한 도면이다.
도 9는 화재 분석 시스템을 통한 화재 현장 영상을 활용한 화재 분석 방법의 다른 실시예를 설명하기 위한 도면이다.
도 10은 도 9의 화재 분석 예측 값을 획득하는 단계의 일 실시예를 설명하기 위한 도면이다.
1 is a diagram schematically illustrating an example of use of a fire analysis system.
FIG. 2 is a block diagram schematically illustrating an embodiment of the fire analysis system of FIG. 1 .
3 is a diagram schematically illustrating a state in which a user wears an image providing unit according to an embodiment.
4 is a diagram illustrating an embodiment of a screen provided to a user through an image providing unit.
FIG. 5 is a diagram for explaining a second analysis target of FIG. 4 .
6 is a diagram illustrating another embodiment of a screen provided to a user through an image providing unit.
7 is a diagram illustrating another embodiment of a screen provided to a user through an image providing unit.
8 is a view for explaining an embodiment of a fire analysis method using a fire scene image through a fire analysis system.
9 is a view for explaining another embodiment of a fire analysis method using a fire scene image through a fire analysis system.
FIG. 10 is a diagram for explaining an embodiment of a step of obtaining a fire analysis predicted value of FIG. 9 .

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. Since the present invention can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and when described with reference to the drawings, the same or corresponding components are given the same reference numerals, and the overlapping description thereof will be omitted. .

이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. In the following embodiments, terms such as first, second, etc. are used for the purpose of distinguishing one component from another, not in a limiting sense.

이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. In the following examples, the singular expression includes the plural expression unless the context clearly dictates otherwise.

이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. In the following embodiments, terms such as include or have means that the features or components described in the specification are present, and the possibility that one or more other features or components will be added is not excluded in advance.

도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다. In the drawings, the size of the components may be exaggerated or reduced for convenience of description. For example, since the size and thickness of each component shown in the drawings are arbitrarily indicated for convenience of description, the present invention is not necessarily limited to the illustrated bar.

이하의 실시예에서, x축, y축 및 z축은 직교 좌표계 상의 세 축으로 한정되지 않고, 이를 포함하는 넓은 의미로 해석될 수 있다. 예를 들어, x축, y축 및 z축은 서로 직교할 수도 있지만, 서로 직교하지 않는 서로 다른 방향을 지칭할 수도 있다. In the following embodiments, the x-axis, the y-axis, and the z-axis are not limited to three axes on a Cartesian coordinate system, and may be interpreted in a broad sense including them. For example, the x-axis, y-axis, and z-axis may be orthogonal to each other, but may refer to different directions that are not orthogonal to each other.

어떤 실시예가 달리 구현 가능한 경우에 특정한 공정 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 공정이 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다.In cases where certain embodiments may be implemented otherwise, a specific process sequence may be performed different from the described sequence. For example, two processes described in succession may be performed substantially simultaneously, or may be performed in an order opposite to the order described.

이하에서는, 전술한 원칙에 따라 본 발명에 따른 화재 분석 시스템(10)에 대해 자세하게 설명한다.Hereinafter, the fire analysis system 10 according to the present invention will be described in detail in accordance with the above-described principle.

도 1은 화재 분석 시스템(10)의 사용예를 개략적으로 도시한 도면이다.1 is a diagram schematically illustrating an example of use of the fire analysis system 10 .

도 1을 참조하면, 본 발명의 일 실시예에 따른 화재 분석 시스템(10)은 화재현장으로부터 화재를 분석하기 위해 이용될 수 있다. 예를 들면, 화재 분석 시스템(10)은 진화작업이 종료된 후 화재현장을 조사 및 분석함으로서 화재현장감식을 수행하는데 이용될 수 있다.Referring to FIG. 1 , a fire analysis system 10 according to an embodiment of the present invention may be used to analyze a fire from a fire scene. For example, the fire analysis system 10 may be used to conduct a fire scene detection by investigating and analyzing a fire site after the firefighting operation is finished.

일 실시예로서, 화재 분석 시스템(10)은 화재 현장으로부터 화재를 분석하기 위한 자료를 수집할 수 있다. 즉, 화재 분석 시스템(10)은 화재 현장에 남은 잔해나, 화재가 발생한 건물 또는 장소의 변형 정도, 소실 정도, 잔류하는 물건 등을 통해 화재를 분석하기 위한 자료를 수집할 수 있다.As an embodiment, the fire analysis system 10 may collect data for analyzing a fire from a fire site. That is, the fire analysis system 10 may collect data for analyzing a fire through the debris remaining at the fire site, the degree of deformation of the building or place where the fire occurred, the degree of dissipation, the remaining objects, and the like.

예를 들면, 화재 분석 시스템(10)은 화재 현장으로부터 화재의 원인, 화재의 확산 경로, 화재의 확산 시간, 화재의 확산 정도, 피해의 정도, 피해 확산 또는 피해 감소의 원인, 화재 예방을 위한 방법, 화재 발생 또는 화재 확산의 귀책사유 등 화재와 관련된 다양한 자료를 수집할 수 있다.For example, the fire analysis system 10 may determine the cause of the fire from the fire site, the path of the spread of the fire, the time of the spread of the fire, the degree of spread of the fire, the degree of damage, the cause of the spread of damage or the reduction of the damage, the method for preventing a fire It is possible to collect various data related to fire, such as reasons attributable to fire occurrence or spread of fire.

이 후, 화재 분석 시스템(10)은 수집된 자료에 기초하여 화재 분석 요원 등(이하, 사용자)이 화재의 원인, 화재의 확산 경로, 화재의 확산 시간, 화재의 확산 정도, 피해의 정도, 피해 확산 또는 피해 감소의 원인, 화재 예방을 위한 방법, 화재 발생 또는 화재 확산의 귀책사유 등에 관하여 분석을 수행하는데 도움을 줄 수 있다.Thereafter, the fire analysis system 10 determines the cause of the fire, the spread path of the fire, the spread time of the fire, the degree of spread of the fire, the degree of damage, the damage by the fire analysis agent etc. (hereinafter, the user) based on the collected data. It can help to perform analysis on the causes of spread or damage reduction, methods for fire prevention, and reasons attributable to the occurrence of fire or the spread of fire.

또한, 화재 분석 시스템(10)은 화재와 관련된 다양한 자료를 사용자에게 제공하거나, 또는 화재와 관련된 자료를 통해 분석한 결과를 사용자에게 제공할 수 있다. 따라서, 사용자는 화재와 관련된 자료 또는 분석 결과를 제공받아 화재 분석을 용이하고, 정확하게 수행할 수 있다.In addition, the fire analysis system 10 may provide various data related to fire to the user, or may provide the user with a result of analysis through fire related data. Accordingly, the user can easily and accurately perform fire analysis by receiving fire-related data or analysis results.

도 2는 도 1의 화재 분석 시스템(10)의 일 실시예를 개략적으로 도시한 블록도이다.FIG. 2 is a block diagram schematically illustrating an embodiment of the fire analysis system 10 of FIG. 1 .

도 2를 참조하면, 본 발명의 일 실시예에 따른 화재 분석 시스템(10)은 화재 현장을 스캔하여 화재 현장 영상을 획득하는 현장 영상 획득부(110), 상기 화재 현장에 포함된 분석 대상(AT)의 분석 영상을 획득하는 분석 영상 획득부(130), 상기 현장 영상과 상기 분석 영상을 가공하여 가공 영상(P1)을 생성하는 영상 가공부(150), 상기 가공 영상(P1)을 저장하는 저장부(160) 및 상기 저장부(160)에 저장된 가공 영상(P1)을 사용자의 입력에 의해 독출하여 상기 사용자에게 제공하는 영상 제공부(170)를 포함할 수 있다.Referring to FIG. 2 , the fire analysis system 10 according to an embodiment of the present invention includes a scene image acquisition unit 110 that scans a fire scene to acquire a fire scene image, and an analysis target (AT) included in the fire scene. ), an analysis image acquisition unit 130 that acquires an analysis image of , an image processing unit 150 that processes the on-site image and the analysis image to generate a processed image P1, and a storage that stores the processed image P1 It may include a unit 160 and an image providing unit 170 that reads the processed image P1 stored in the storage unit 160 in response to a user's input and provides it to the user.

현장 영상 획득부(110)는 화재 현장을 스캔하여 화재 현장 영상을 획득하는 수단일 수 있다.The on-site image acquisition unit 110 may be a means for acquiring a fire-site image by scanning a fire scene.

화재 현장은 화재가 발생한 장소일 수 있고, 예를 들면, 화재가 발생한 후 진화 작업이 완료된 주택, 상가 건물 등의 다중이용시설물이나 단독주택, 산, 도로 등의 장소일 수 있다.The fire site may be a place where a fire occurred, for example, a house where firefighting work is completed after a fire occurs, a multi-use facility such as a commercial building, or a place such as a detached house, a mountain, a road, etc.

현장 영상 획득부(110)는 화재 현장을 스캔하기 위한 촬영 장치일 수 있다. 예를 들면, 현장 영상 획득부(110)는 카메라, 3D스캐너, 광학식 스캐너, 레이저 스캐너 중 하나일 수 있다. 다만, 이에 한정되는 것은 아니고 화재 현장을 스캔하여 화재 현장의 현황을 인식하여 스캔할 수 있는 구성이라면 현장 영상 획득부(110)로 이용될 수 있다.The on-site image acquisition unit 110 may be a photographing device for scanning a fire scene. For example, the on-site image acquisition unit 110 may be one of a camera, a 3D scanner, an optical scanner, and a laser scanner. However, the present invention is not limited thereto and may be used as the on-site image acquisition unit 110 if it is a configuration that can scan the fire site to recognize the current state of the fire site and scan it.

현장 영상은 현장 영상 획득부(110)에 의해 획득된 화재 현장의 영상일 수 있다. 예를 들면, 현장 영상은 정적 영상일 수 있고, 동적 영상일 수도 있다. 또는, 현장 영상은 파노라마 영상일 수 있고, 복수의 정적 영상이 프레임별로 연속적으로 촬영된 연속 사진일 수 있다. 또는, 정적 영상과 동적 영상의 조합일 수 있다.The on-site image may be an image of the fire site obtained by the on-site image acquisition unit 110 . For example, the field image may be a static image or a dynamic image. Alternatively, the on-site image may be a panoramic image, or a continuous photo in which a plurality of static images are continuously captured for each frame. Alternatively, it may be a combination of a static image and a dynamic image.

일 실시예로서, 현장 영상은 복수의 영상을 포함하여 구성될 수 있다. 예를 들면, 화재 현장이 건물인 경우에는 현장 영상은 건물의 외측 및 내측의 영상을 포함할 수 있다. 또는, 화재 현장이 도로, 교량 등의 사회기반시설인 경우 해당 사회기반시설의 외측 및 내측의 영상을 포함할 수 있다.As an embodiment, the on-site image may include a plurality of images. For example, when the fire site is a building, the scene image may include images of the outside and the inside of the building. Alternatively, when the fire site is an infrastructure such as a road or a bridge, images of the outside and the inside of the corresponding infrastructure may be included.

자세하게는 현장 영상은 외측의 복수의 면을 각각 스캔하거나 적어도 둘 이상의 면을 연속적으로 스캔한 복수의 영상을 포함할 수 있다. 또한, 내측의 복수의 면을 각각 스캔하거나 적어도 둘 이상의 면을 연속적으로 스캔한 복수의 영상을 포함할 수 있다. 또한, 건물이 복수의 공간으로 구획되는 경우, 즉 다수의 방으로 구획되는 경우에는 현장 영상은 각각의 구획된 공간마다 내측의 복수의 면을 각각 스캔하거나 적어도 둘 이상의 면을 연속적으로 스캔한 복수의 영상을 포함할 수 있다.In detail, the field image may include a plurality of images in which a plurality of external surfaces are scanned, or at least two or more surfaces are continuously scanned. Also, a plurality of images obtained by scanning a plurality of inner surfaces or continuously scanning at least two or more surfaces may be included. In addition, when the building is divided into a plurality of spaces, that is, when the building is divided into a plurality of rooms, the on-site image is a plurality of scans of a plurality of inner surfaces for each partitioned space, or a plurality of continuously scanned at least two or more surfaces. May include video.

따라서, 현장 영상은 복수의 영상을 포함함으로써 화재가 발생한 장소의 영상을 영역마다 전체적으로 구현할 수 있다. 또한, 사용자는 획득한 현장 영상을 통해 화재 분석을 수행하는 과정에서 분석을 원하는 현장 영역의 영상을 선택하여 확인할 수 있다.Accordingly, since the on-site image includes a plurality of images, the image of the place where the fire occurred may be implemented as a whole for each area. In addition, the user can select and check an image of a field area to be analyzed in the process of performing fire analysis through the acquired field image.

분석 영상 획득부(130)는 화재 현장에 포함된 분석 대상(AT)의 분석 영상을 획득하는 수단일 수 있다.The analysis image acquisition unit 130 may be a means for acquiring an analysis image of the analysis target AT included in the fire scene.

분석 대상(AT)은 화재 분석을 위해 분석이 요구되는 물건이나 영역을 의미할 수 있다.The analysis target (AT) may mean an object or area requiring analysis for fire analysis.

예를 들면, 분석 대상(AT)은 화재 현장에 남은 축조물의 잔해, 축조물의 파손된 영역, 그을음, 파편, 화재 현장에 잔류하는 물건, 화재 현장에 있던 물건의 잔해나 부품, 전기 배선 등 화재현장감식을 위해 분석이 요구되는 것을 의미할 수 있다.For example, the target of analysis (AT) is the remains of structures remaining at the fire site, damaged areas of structures, soot, debris, objects remaining at the fire site, remnants or parts of objects at the fire site, electrical wiring, etc. It may mean that analysis is required for identification.

즉, 분석 대상(AT)은 화재감식을 통해 화재의 원인, 화재의 확산 경로, 화재의 확산 시간, 화재의 확산 정도, 피해의 정도, 피해 확산 또는 피해 감소의 원인, 화재 예방을 위한 방법, 화재 발생 또는 화재 확산의 귀책사유 등 화재와 관련된 분석을 위해 분석이 필요한 대상일 수 있다.That is, the analysis target (AT) is the cause of the fire, the spread of the fire, the time of the spread of the fire, the degree of spread of the fire, the extent of the damage, the cause of the spread or reduction of the damage, the method for preventing the fire, the fire It may be a target that needs analysis for analysis related to fire, such as reasons attributable to the occurrence or spread of fire.

분석 영상 획득부(130)는 분석 대상(AT)을 촬영하기 위한 장치일 수 있다. 예를 들면, 분석 영상 획득부(130)는 카메라, 3D스캐너, 광학식 스캐너, 레이저 스캐너 중 하나일 수 있다. 다만, 이에 한정되는 것은 아니고 분석 대상(AT)을 촬영하여 분석 대상(AT)을 인식하여 영상으로서 획득할 수 있는 구성이라면 분석 영상 획득부(130)로 이용될 수 있다.The analysis image acquisition unit 130 may be a device for photographing the analysis target AT. For example, the analysis image acquisition unit 130 may be one of a camera, a 3D scanner, an optical scanner, and a laser scanner. However, the present invention is not limited thereto, and may be used as the analysis image acquiring unit 130 if it is a configuration that can capture the analysis target AT and recognize the analysis target AT and acquire it as an image.

선택적 실시예로서, 분석 영상 획득부(130)는 분석 대상(AT)을 구성하는 각 구성별로 세부 영상을 획득할 수 있다. 세부 영상은 분석 대상(AT)을 구성하는 각 구성의 영상일 수 있다. 예를 들면, 분석 대상(AT)이 사물인 경우 분석 영상 획득부(130)는 해당 사물을 부품별로 분해하여 각 부품별로 촬영을 진행하여 세부 영상을 획득할 수 있다. 또는, 분석 대상(AT)이 영역인 경우 분석 영상 획득부(130)는 해당 영역을 복수의 영역으로 구획하여 각 구획마다 별도로 촬영을 진행하여 세부 영상을 획득할 수 있다.As an optional embodiment, the analysis image acquisition unit 130 may acquire a detailed image for each component constituting the analysis target AT. The detailed image may be an image of each component constituting the analysis target AT. For example, when the analysis target AT is an object, the analysis image acquisition unit 130 may disassemble the object into parts and photograph each part to obtain a detailed image. Alternatively, when the analysis target AT is an area, the analysis image acquisition unit 130 may divide the corresponding area into a plurality of areas and separately photograph each area to obtain a detailed image.

후술하는 바와 같이, 분석 영상 획득부(130)를 통해 획득된 세부 영상은 추후 사용자의 선택에 따라 해당 분석 대상(AT)에 대한 세부 정보로서 사용자에게 제공될 수 있다.As will be described later, the detailed image acquired through the analysis image acquiring unit 130 may be provided to the user as detailed information on the corresponding analysis target AT according to the user's selection later.

화재 현장에는 화재의 원인이 되는 사물이나 영역이 있을 수 있고, 화재의 확산이나 피해의 확산에 영향을 미치는 사물이나 영역이 있을 수 있다. 반면, 화재 현장에는 이뿐만이 아니라 다른 발화원으로부터 단순히 화염이 옮겨 붙어 소실되는 사물이나 영역도 존재할 수 있다.There may be objects or areas that cause fire, and objects or areas that affect the spread of fire or damage. On the other hand, not only this, but also objects or areas that are lost by simply transferring flames from other ignition sources may exist at the site of a fire.

따라서, 화재 현장에 존재하는 모든 영역이나 사물을 모두 분석하는 것은 비용적, 시간적으로 비효율적일 수 있다. 이를 해결하기 위해, 화재 현장에 존재하는 사물이나 영역 중 분석의 필요성이 있는 사물이나 영역을 인식하고, 이를 중점적으로 분석하는 것이 바람직할 수 있다. 즉, 화재 현장에 존재하는 영역이나 사물 중 분석이 필요한 것을 선택하여 이를 분석 대상(AT)으로 선별하는 것이 요구될 수 있다.Therefore, it may be inefficient in terms of cost and time to analyze all areas or objects existing at the fire scene. In order to solve this problem, it may be desirable to recognize the objects or areas that need analysis among the objects or areas existing at the fire site, and to analyze them intensively. That is, it may be required to select an area or object that needs to be analyzed among areas or objects existing at the fire site and select it as an analysis target (AT).

이러한 요구에 의거하여, 선택적 실시예로서 화재 분석 시스템(10)은 화재 현장에서 특이점이 있는 영역 또는 특이점이 있는 사물을 인식하여 분석 대상(AT)으로 선별하는 분석 대상 선별부(120)를 더 포함할 수 있다.Based on this request, as an optional embodiment, the fire analysis system 10 further includes an analysis target selection unit 120 that recognizes an area with a singularity or an object with a singularity at the fire site and selects it as an analysis target (AT). can do.

예를 들면, 분석 대상 선별부(120)는 화재 현장에 특이점이 있는 영역 또는 사물을 인식하여 이를 분석 대상(AT)으로 선별하고, 이를 사용자에게 제공하는 수단일 수 있다.For example, the analysis target selection unit 120 may be a means for recognizing a region or object having a singularity at the fire site, selecting it as an analysis target (AT), and providing it to the user.

일 실시예로서, 분석 대상 선별부(120)는 현장 영상 획득부(110)가 현장 영상을 획득하는 도중 화재 현장에 위치한 특이점이 있는 영역이나 사물을 인식하고, 인식된 영역이나 사물이 분석이 필요한 것인지 여부를 판단할 수 있다. 예를 들면, 현장 영상 획득부(110)가 현장 영상을 획득하는 도중 분석 대상 선별부(120)는 특이점이 있는 영역이나 사물의 파손의 정도, 파손의 경향, 소훼의 정도, 그을음의 방향, 주변 사물의 배치, 화재 당일의 날씨, 화재 당일의 습도, 화재 당일의 건물이나 시설의 온도나 습도, 화재 당일의 전력 소비량 등을 고려하여 특이점이 있는 영역이나 사물 중에서 분석 대상(AT)을 선별할 수 있다.As an embodiment, the analysis target selection unit 120 recognizes an area or object with a singularity located at the fire scene while the field image acquisition unit 110 acquires the field image, and the recognized area or object requires analysis It can be determined whether or not For example, while the on-site image acquisition unit 110 acquires the on-site image, the analysis target selection unit 120 determines the area with a singularity or the degree of damage to the object, the tendency of damage, the degree of fire, the direction of soot, and the surrounding area. The analysis target (AT) can be selected from areas or objects with singularities in consideration of the arrangement of objects, the weather on the day of the fire, the humidity on the day of the fire, the temperature or humidity of the building or facility on the day of the fire, and the power consumption on the day of the fire. there is.

다른 실시예로서, 분석 대상 선별부(120)는 현장 영상 획득부(110)가 현장 영상을 획득한 후 화재 현장에 위치한 특이점이 있는 영역이나 사물을 인식하고, 인식된 영역이나 사물이 분석이 필요한 것인지 여부를 판단할 수 있다. 예를 들면, 현장 영상 획득부(110)가 현장 영상을 획득한 후 분석 대상 선별부(120)는 획득된 현장 영상을 통해 특이점이 있는 영역이나 사물의 파손의 정도, 파손의 경향, 소훼의 정도, 그을음의 방향, 주변 사물의 배치, 화재 당일의 날씨, 화재 당일의 습도, 화재 당일의 건물이나 시설의 온도나 습도, 화재 당일의 전력 소비량 등을 고려하여 특이점이 있는 영역이나 사물 중에서 분석 대상(AT)을 선별할 수 있다.As another embodiment, the analysis target selection unit 120 recognizes an area or object with a singularity located at the fire site after the field image acquisition unit 110 acquires the field image, and the recognized area or object requires analysis. It can be determined whether or not For example, after the on-site image acquisition unit 110 acquires the on-site image, the analysis target selection unit 120 uses the acquired on-site image to determine the degree of damage, the tendency of damage, and the degree of damage to the area or object having a singularity. , the direction of the soot, the arrangement of surrounding objects, the weather on the day of the fire, the humidity on the day of the fire, the temperature and humidity of the building or facility on the day of the fire, the power consumption on the day of the fire, etc. AT) can be selected.

선택적 실시예로서, 분석 대상 선별부(120)는 후술하는 바와 같이 기계학습을 통해 분석 대상(AT)을 선별할 수 있다. 자세한 내용은 후술한다.As an optional embodiment, the analysis target selection unit 120 may select the analysis target AT through machine learning, as will be described later. Details will be described later.

일 실시예로서, 화재 분석 시스템(10)은 분석 영상에 분석 대상(AT)의 기초 데이터(ad)를 입력하는 데이터 입력부(140)를 포함할 수 있다.As an embodiment, the fire analysis system 10 may include the data input unit 140 for inputting basic data ad of the analysis target AT to the analysis image.

데이터 입력부(140)는 분석 대상(AT)에 대해 화재와 관련이 있는 사항을 입력하는 수단일 수 있다.The data input unit 140 may be a means for inputting matters related to fire with respect to the analysis target AT.

기초 데이터는 미리 저장된 데이터일 수 있고, 외부에 구비된 별도의 서버로부터 제공받는 데이터일 수도 있으나, 이에 한정되지 않는다.The basic data may be data stored in advance or data provided from a separate server provided outside, but is not limited thereto.

선택적 실시예로서, 데이터 입력부(140)는 분석 영상에 분석 대상(AT) 자체의 특성에 관한 데이터를 입력할 수 있다. 예를 들면, 데이터 입력부(140)는 분석 대상(AT)의 재질, 제한전력, 발화점, 폭발 가능성, 불량률, 화재에 취약한 정도 등의 정보를 분석 영상에 입력할 수 있다. 또는, 데이터 입력부(140)는 해당 분석 대상(AT)이 직접적인 발화 원인이 되는 경우, 발화 전과 후의 모습을 비교한 정보일 수 있다.As an optional embodiment, the data input unit 140 may input data regarding the characteristics of the analysis target AT itself to the analysis image. For example, the data input unit 140 may input information such as the material of the analysis target AT, limited power, ignition point, explosion potential, defect rate, and fire vulnerability to the analysis image. Alternatively, when the corresponding analysis target AT is the direct cause of the utterance, the data input unit 140 may be information obtained by comparing the appearance before and after the utterance.

다른 선택적 실시예로서, 데이터 입력부(140)는 분석 영상에 분석 대상(AT)에 관한 참고 자료나 통계 자료 등을 입력할 수 있다. 예를 들면, 데이터 입력부(140)는 분석 영상에 타 화재 현장에서 해당 분석 대상(AT)이 화재 원인이 된 사례, 원인, 빈도, 확률이나 화재를 확산시키는 요인이 된 사례, 원인, 빈도, 확률, 또는 화재의 원인이 될 뻔한 상황에 대한 신고 사례나 횟수 등의 정보를 입력할 수 있다.As another optional embodiment, the data input unit 140 may input reference data or statistical data regarding the analysis target AT to the analysis image. For example, the data input unit 140 may include a case, cause, frequency, probability, or cause, frequency, probability of the corresponding analysis target (AT) causing a fire or a factor causing the fire to spread at another fire site in the analysis image. , or information such as the number of reports of situations that may have caused a fire can be entered.

또 다른 선택적 실시예로서, 데이터 입력부(140)는 세부 영상에 분석 대상(AT)을 구성하는 각 구성 자체의 특성에 관한 데이터를 입력할 수 있다. 예를 들면, 데이터 입력부(140)는 분석 대상(AT)을 구성하는 각 부품의 불량률, 화재 가능성, 발화점, 폭발 가능성, 제한 전력, 재질, 화재에 취약한 정도 등의 정보를 세부 영상에 입력할 수 있다. 또는, 데이터 입력부(140)는 해당 분석 대상(AT)을 이루는 구성이 직접적인 발화 원인이 되는 경우, 발화 전과 후의 모습을 비교한 정보일 수 있다.As another optional embodiment, the data input unit 140 may input data regarding the characteristics of each component constituting the analysis target AT in the detailed image. For example, the data input unit 140 may input information such as the defective rate of each part constituting the analysis target (AT), the fire possibility, the ignition point, the explosion possibility, the limited power, the material, and the degree of vulnerability to fire into the detailed image. there is. Alternatively, when the configuration constituting the corresponding analysis target AT is the direct cause of the utterance, the data input unit 140 may be information comparing the appearance before and after the utterance.

또 다른 선택적 실시예로서, 데이터 입력부(140)는 세부 영상에 분석 대상(AT)을 구성하는 각 구성에 관한 참고 자료나 통계 자료 등을 입력할 수 있다. 예를 들면, 데이터 입력부(140)는 세부 영상에 해당 분석 대상(AT)을 구성하는 구성, 예컨대 부품이나 재료 등과 관련하여 화재 원인이 된 사례, 원인, 빈도, 확률이나 화재를 확산시키는 요인이 된 사례, 원인, 빈도, 확률, 또는 화재의 원인이 될 뻔한 상황에 대한 신고 사례나 횟수 등의 정보를 입력할 수 있다.As another optional embodiment, the data input unit 140 may input reference data or statistical data regarding each component constituting the analysis target AT in the detailed image. For example, the data input unit 140 is a component constituting the corresponding analysis target (AT) in the detailed image, for example, a case, cause, frequency, probability, or factor that causes a fire in relation to parts or materials, etc. You can enter information such as cases, causes, frequency, probability, or reported cases or number of situations that may have caused a fire.

분석 영상 또는 세부 영상에 입력된 기초 데이터(ad)는 추후 화재 분석을 수행하는 사용자에게 제공될 수 있다. 예를 들면, 기초 데이터(ad)는 사용자에게 자동으로 제공될 수 있고, 또는 사용자의 선택에 따라 제공될 수 있다. 자세한 내용은 후술한다.The basic data (ad) input to the analysis image or the detailed image may be provided to a user who performs a fire analysis later. For example, the basic data ad may be automatically provided to the user, or may be provided according to the user's selection. Details will be described later.

영상 가공부(150)는 현장 영상과 분석 영상을 가공하여 가공 영상(P1)을 생성하는 수단일 수 있다.The image processing unit 150 may be a means for generating the processed image P1 by processing the field image and the analysis image.

일 실시예로서, 영상 가공부(150)는 현장 영상과 분석 영상을 정합할 수 있다. 예를 들면, 영상 가공부(150)는 현장 영상에 포함된 분석 대상(AT)에 분석 영상을 정합하여 화재 현장에 분석 대상(AT)에 관한 분석 영상이나 분석 대상(AT)의 정보가 오버랩되도록 가공 영상(P1)을 생성할 수 있다.As an embodiment, the image processing unit 150 may match the field image and the analysis image. For example, the image processing unit 150 matches the analysis image to the analysis target (AT) included in the on-site image so that the analysis image on the analysis target (AT) or information on the analysis target (AT) overlaps with the fire scene. A processed image P1 may be generated.

선택적 실시예로서, 가공 영상(P1)은 화재 현장의 공간 데이터에 기초하여 생성된 가상 현실 데이터를 포함할 수 있다. 예를 들면, 가공 영상(P1)은 현장 영상과 공간 데이터에 기초하여 화재 현장의 실제 모습을 영상으로 구현한 것일 수 있다. 이때, 공간 데이터는 해당 건물이나 시설의 설계도나 시방서, 위성 영상, 기타 시공 정보 등을 포함할 수 있다. 즉, 영상 가공부(150)는 현장 영상과 공간 데이터를 이용하여 실제 화재 현장의 모습을 시각적으로 구현할 수 있고, 사용자에게 화재 현장이 아닌 다른 장소에서도 해당 화재 현장에서 직접 현장을 관찰하는 것 같은 느낌을 제공할 수 있다.As an optional embodiment, the processed image P1 may include virtual reality data generated based on spatial data of a fire scene. For example, the processed image P1 may be implemented as an image of the actual scene of the fire based on the scene image and spatial data. In this case, the spatial data may include design drawings or specifications of the corresponding building or facility, satellite images, and other construction information. That is, the image processing unit 150 can visually implement the appearance of the actual fire site using the field image and spatial data, and gives the user a feeling of directly observing the scene at the fire site in a place other than the fire site. can provide

공간 데이터는 미리 저장된 데이터일 수 있고, 외부에 구비된 별도의 서버로부터 제공받는 데이터일 수도 있으나, 이에 한정되지 않는다.The spatial data may be data stored in advance or data provided from a separate server provided outside, but is not limited thereto.

일 실시예로서, 영상 가공부(150)는 현장 영상과 분석 영상을 정합하되, 분석 영상은 선택적으로 나타나도록 가공 영상(P1)을 생성할 수 있다. 예를 들면, 영상 가공부(150)는 사용자가 특정 분석 대상(AT)을 선택한 경우에만 분석 영상이 나타나도록 가공 영상(P1)을 생성할 수 있다.As an embodiment, the image processing unit 150 may generate the processed image P1 such that the field image and the analysis image are matched, and the analysis image is selectively displayed. For example, the image processing unit 150 may generate the processed image P1 so that the analyzed image appears only when the user selects a specific analysis target AT.

또 다른 실시예로서, 영상 가공부(150)는 현장 영상과 세부 영상 또는 기초 데이터(ad)를 정합할 수 있다. 또한, 영상 가공부(150)는 세부 영상과 기초 데이터(ad)가 선택적으로 나타나도록 가공 영상(P1)을 생성할 수 있다. 예를 들면, 영상 가공부(150)는 사용자가 특정 옵션을 선택한 경우에만 분석 대상(AT)의 세부 영상이나 기초 데이터(ad)가 나타나도록 가공 영상(P1)을 생성할 수 있다. 이에 대한 자세한 내용은 후술한다.As another embodiment, the image processing unit 150 may match the field image with the detailed image or basic data ad. Also, the image processing unit 150 may generate the processed image P1 so that the detailed image and the basic data ad are selectively displayed. For example, the image processing unit 150 may generate the processed image P1 so that a detailed image or basic data ad of the analysis target AT appears only when the user selects a specific option. Details on this will be described later.

저장부(160)는 가공 영상(P1)을 저장하는 수단일 수 있다. 예를 들면, 영상 가공부(150)를 통해 생성된 가공 영상(P1)은 저장부(160)에 저장될 수 있고, 가공 영상(P1)은 사용자의 선택에 따라 독출되어 사용자에게 제공될 수 있다.The storage unit 160 may be a means for storing the processed image P1. For example, the processed image P1 generated by the image processing unit 150 may be stored in the storage 160 , and the processed image P1 may be read out according to a user's selection and provided to the user. .

저장부(160)는 임의의 데이터를 지속적으로 저장할 수 있는 비-휘발성(non-volatile) 저장 매체를 통해 구현될 수 있다. 예를 들어, 저장부(160)는 디스크, 광학(optical) 디스크 및 광자기(magneto-optical) 저장 디바이스뿐만 아니라 플래시 메모리 및/또는 배터리-백업 메모리에 기초한 저장 디바이스를 포함할 수 있으며, 이에 한정되지 않는다.The storage unit 160 may be implemented through a non-volatile storage medium capable of continuously storing arbitrary data. For example, storage 160 may include, but is not limited to, disks, optical disks, and magneto-optical storage devices, as well as storage devices based on flash memory and/or battery-backed memory. doesn't happen

또한, 저장부(160)는 메모리를 포함할 수 있다. 메모리는 동적 램(DRAM, dynamic random access memory), 정적 램(SRAM, static random access memory) 등의 랜덤 액세스 메모리(RAM)와 같은, 프로세서가 직접 접근하는 주된 저장 장치로서 전원이 꺼지면 저장된 정보가 순간적으로 지워지는 휘발성(volatile) 저장 장치를 의미할 수 있지만, 이들로 한정되는 것은 아니다.Also, the storage unit 160 may include a memory. Memory is the main storage device directly accessed by the processor, such as random access memory (RAM), such as dynamic random access memory (DRAM) and static random access memory (SRAM). It may mean a volatile storage device that is erased by a , but is not limited thereto.

한편, 본 실시예에 따른 화재 분석 시스템(10)은 제어부를 더 포함할 수 있다. 제어부는 화재 분석 시스템(10)의 동작을 제어할 수 있다. 예를 들면, 제어부는 현장 영상 획득부(110), 분석 영상 획득부(130), 분석 대상 선별부(120), 데이터 입력부(140), 영상 가공부(150), 저장부(160) 및 영상 제공부(170) 중 적어도 하나의 동작을 제어할 수 있다.Meanwhile, the fire analysis system 10 according to the present embodiment may further include a control unit. The control unit may control the operation of the fire analysis system 10 . For example, the control unit includes the on-site image acquisition unit 110 , the analysis image acquisition unit 130 , the analysis target selection unit 120 , the data input unit 140 , the image processing unit 150 , the storage unit 160 , and the image. At least one operation of the providing unit 170 may be controlled.

제어부는 하나의 프로세서로 구현될 수 있고, 복수의 프로세서로 구현될 수 있다. 제어부가 복수의 프로세서로 구현된 경우, 복수의 프로세서 중 적어도 일부는 물리적으로 이격된 거리에 위치할 수 있다. 또한, 제어부는 이에 한정되지 않고 다양한 방식으로 구현될 수 있다.The control unit may be implemented with one processor, or may be implemented with a plurality of processors. When the controller is implemented with a plurality of processors, at least some of the plurality of processors may be located at physically separated distances. Also, the control unit is not limited thereto and may be implemented in various ways.

예를 들면, 제어부는 하나 또는 복수 개의 프로세서에 해당할 수 있다. 프로세서는 다수의 논리 게이트들의 어레이로 구현될 수도 있고, 범용적인 마이크로 프로세서와 이 마이크로 프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다. 또한, 다른 형태의 하드웨어로 구현될 수도 있음을 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.For example, the control unit may correspond to one or a plurality of processors. The processor may be implemented as an array of a plurality of logic gates, or may be implemented as a combination of a general-purpose microprocessor and a memory in which a program executable in the microprocessor is stored. In addition, it can be understood by those skilled in the art that the present embodiment may be implemented in other types of hardware.

도 3은 사용자가 일 실시예에 따른 영상 제공부(170)를 착용한 모습을 개략적으로 도시한 도면이다.3 is a diagram schematically illustrating a state in which a user wears the image providing unit 170 according to an embodiment.

영상 제공부(170)는 저장부(160)에 저장된 가공 영상(P1)을 사용자의 입력에 의해 독출하여 사용자에게 제공하는 수단일 수 있다.The image providing unit 170 may be a means for reading the processed image P1 stored in the storage 160 according to a user's input and providing it to the user.

일 실시예로서, 영상 제공부(170)는 VR(virtual reality, 가상 현실)을 이용하여 사용자에게 가공 영상(P1)을 제공할 수 있다. 예를 들면, 영상 제공부(170)는 VR을 통해 사용자에게 실제 화재 현장에서 감식을 수행하는 것 같은 느낌을 제공할 수 있다.As an embodiment, the image providing unit 170 may provide the processed image P1 to the user by using virtual reality (VR). For example, the image providing unit 170 may provide the user with a feeling of performing identification at an actual fire scene through VR.

전술한 바와 같이, VR은 현장 영상, 분석 영상, 가공 영상(P1), 세부 영상, 기초 데이터(ad) 및 공간 데이터 중 적어도 하나 이상이 포함되어 구현된 가상 현실일 수 있다.As described above, VR may be a virtual reality implemented by including at least one of a field image, an analysis image, a processed image P1, a detailed image, basic data ad, and spatial data.

선택적 실시예로서, 영상 제공부(170)는 표시 장치(171)와 입력 장치(172)를 포함할 수 있다.As an optional embodiment, the image providing unit 170 may include a display device 171 and an input device 172 .

표시 장치(171)는 사용자에게 가공 영상(P1)을 표시하는 수단일 수 있다. 예를 들면, 표시 장치(171)는 HMD(Head mounted display)일 수 있다. 즉, 표시 장치(171)는 사용자의 눈 근처에 장착되어 사용자에게 가공 영상(P1)을 표시하는 디스플레이를 포함할 수 있다.The display device 171 may be a means for displaying the processed image P1 to the user. For example, the display device 171 may be a head mounted display (HMD). That is, the display device 171 may include a display mounted near the user's eyes to display the processed image P1 to the user.

다만, 이에 한정되는 것은 아니고 화재 현장이 구현된 가상 현실을 사용자에게 제공할 수 있는 수단이라면 표시 장치(171)로 이용될 수 있다.However, the present invention is not limited thereto and may be used as the display device 171 as long as it is a means capable of providing a user with a virtual reality in which a fire scene is implemented.

입력 장치(172)는 표시 장치(171)와 연동되어 표시 장치(171)를 제어하는 수단일 수 있다. 예를 들면, 사용자는 입력 장치(172)를 통해 표시 장치(171)에 가공 영상(P1)이 표시되도록 제어할 수 있고, 가공 영상(P1)에 세부 영상이나 기초 데이터(ad)가 표시되도록 제어할 수 있다.The input device 172 may be a means for controlling the display device 171 by interworking with the display device 171 . For example, the user may control to display the processed image P1 on the display device 171 through the input device 172 , and control to display a detailed image or basic data ad on the processed image P1 . can do.

일 실시예로서, 입력 장치(172)는 조이스틱 타입, 키보드 타입, 버튼 타입, 모션 인식 타입, 터치 스크린 타입, 음성 인식 타입, 시야 인식 타입 중 어느 하나일 수 있다.As an embodiment, the input device 172 may be any one of a joystick type, a keyboard type, a button type, a motion recognition type, a touch screen type, a voice recognition type, and a view recognition type.

다만, 이에 한정되는 것은 아니고 표시 장치(171)로 표시되는 가공 영상(P1)을 제어할 수 있는 수단이라면 입력 장치(172)로 이용될 수 있다.However, the present invention is not limited thereto, and any means capable of controlling the processed image P1 displayed on the display device 171 may be used as the input device 172 .

이하에서는, 도 4 내지 7을 참조하여 화재 분석 시스템(10)의 이용예를 상세하게 설명한다. 설명의 편의를 위해 전술한 내용과 중복되는 내용은 생략하거나 간략하게 설명하기로 한다.Hereinafter, an example of use of the fire analysis system 10 will be described in detail with reference to FIGS. 4 to 7 . For convenience of description, the content overlapping with the above will be omitted or briefly described.

도 4는 영상 제공부(170)를 통해 사용자에게 제공되는 화면의 일 실시예를 도시한 도면이다.4 is a diagram illustrating an embodiment of a screen provided to a user through the image providing unit 170 .

도 4를 참조하면 영상 제공부(170)는 사용자에게 가공 영상(P1)을 제공할 수 있다.Referring to FIG. 4 , the image providing unit 170 may provide a processed image P1 to the user.

일 실시예로서, 가공 영상(P1)은 현장 영상과 분석 영상이 정합된 영상일 수 있고, 선택적 실시예로서, 세부 영상 또는 기초 데이터(ad)가 추가된 영상일 수 있다.As an embodiment, the processed image P1 may be an image in which an on-site image and an analysis image are registered, and as an optional embodiment, a detailed image or an image to which basic data ad is added.

일 실시예로서, 가공 영상(P1)은 화재 현장의 공간 데이터에 기초하여 실제 화재 현장이 영상으로서 구현된 영상일 수 있다.As an embodiment, the processed image P1 may be an image of an actual fire site implemented as an image based on spatial data of the fire site.

가공 영상(P1)은 적어도 하나의 분석 대상(AT)이 포함되도록 구성될 수 있다. 예를 들면, 분석 대상(AT)은 특이점이 있는 영역 또는 사물일 수 있다.The processed image P1 may be configured to include at least one analysis target AT. For example, the analysis target AT may be an area or an object having a singularity.

일 실시예로서, 제1 분석 대상(AT1)은 그을음일 수 있고, 제2 분석 대상(AT2), 제3 분석 대상(AT3), 제4 분석 대상(AT4)은 화재 현장에 남아있는 사물일 수 있고, 제5 분석 대상(AT5)은 축조물의 파손된 영역일 수 있고, 제6 분석 대상(AT6)은 화재 현장에 배치된 콘센트일 수 있고, 제7 분석 대상(AT7)은 축조물의 잔해일 수 있다.As an embodiment, the first analysis object AT1 may be soot, and the second analysis object AT2 , the third analysis object AT3 , and the fourth analysis object AT4 may be objects remaining at the fire site. There, the fifth analysis target (AT5) may be a damaged area of the structure, the sixth analysis target (AT6) may be an outlet disposed at the fire site, and the seventh analysis target (AT7) may be the remains of the structure there is.

도 5는 도 4의 제2 분석 대상(AT2)을 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining the second analysis target AT2 of FIG. 4 .

도 5를 참조하면, 영상 제공부(170)는 제2 분석 대상(AT2)에 대해 제2 분석 대상(AT2)을 이루는 각 구성의 세부 영상을 사용자에게 제공할 수 있다. Referring to FIG. 5 , the image providing unit 170 may provide a detailed image of each configuration constituting the second analysis target AT2 to the second analysis target AT2 to the user.

또한, 선택적 실시예로서 영상 제공부(170)는 사용자의 자동으로 또는 사용자의 선택에 의해 데이터 입력부(140)를 통해 입력된 제2 분석 대상(AT2)을 이루는 각 구성들에 관한 각각의 기초 데이터(ad)를 표시할 수 있다.In addition, as an optional embodiment, the image providing unit 170 provides each basic data regarding each component constituting the second analysis target AT2 input through the data input unit 140 automatically or by the user's selection. (ad) can be indicated.

예를 들면, 사용자가 제2 분석 대상(AT2)의 세부적인 구성을 보고 싶은 경우 제2 분석 대상(AT2)을 선택할 수 있고, 영상 제공부(170)는 제2 분석 대상(AT2)을 이루는 각 구성의 세부 영상을 사용자에게 제공할 수 있다.For example, when the user wants to view the detailed configuration of the second analysis object AT2, the user may select the second analysis object AT2, and the image providing unit 170 provides each of the second analysis objects AT2. A detailed image of the configuration may be provided to the user.

또한, 사용자가 제2 분석 대상(AT2)을 이루는 각 구성의 기초 데이터(ad)가 보고 싶은 경우, 각 구성 또는 전체 구성을 선택할 수 있고, 영상 제공부(170)는 제2 분석 대상(AT2)을 이루는 각 구성의 기초 데이터(ad)를 표시하여 사용자에게 제공할 수 있다.In addition, if the user wants to view the basic data ad of each configuration constituting the second analysis target AT2, each configuration or the entire configuration can be selected, and the image providing unit 170 provides the second analysis target AT2. The basic data (ad) of each configuration constituting the display may be provided to the user.

도 5는 제2 분석 대상(AT2)을 기초로 도시하였으나, 나머지 분석 대상(AT)에 대해서도 전술한 과정이 수행될 수 있음은 물론이다.Although FIG. 5 is illustrated based on the second analysis object AT2, it goes without saying that the above-described process may be performed on the remaining analysis objects AT.

도 6은 영상 제공부(170)를 통해 사용자에게 제공되는 화면의 다른 실시예를 도시한 도면이다.6 is a diagram illustrating another embodiment of a screen provided to a user through the image providing unit 170 .

도 6을 참조하면, 영상 제공부(170)는 사용자의 선택에 의해 적어도 하나의 분석 대상(AT)에 관한 기초 데이터(ad)를 표시하여 사용자에게 제공할 수 있다.Referring to FIG. 6 , the image providing unit 170 may display basic data ad related to at least one analysis target AT by the user's selection and provide it to the user.

선택적 실시예로서, 분석 대상(AT)은 사용자가 선택한 대상이거나 또는 분석 대상 선별부(120)에 의해 선별된 대상일 수 있다.As an optional embodiment, the analysis target AT may be a target selected by a user or a target selected by the analysis target selection unit 120 .

예를 들면, 사용자가 제1 분석 대상(AT1), 제2 분석 대상(AT2), 제4 분석 대상(AT4) 및 제5 분석 대상(AT5)에 관한 기초 데이터(ad)를 보고 싶은 경우 해당 분석 대상(AT)을 선택할 수 있고, 영상 제공부(170)는 사용자에 의해 선택된 분석 대상(AT)의 기초 데이터(ad)를 표시하여 사용자에게 제공할 수 있다.For example, when the user wants to view basic data ad regarding the first analysis object AT1, the second analysis object AT2, the fourth analysis object AT4, and the fifth analysis object AT5, the corresponding analysis The target AT may be selected, and the image providing unit 170 may display and provide basic data ad of the analysis target AT selected by the user to the user.

도 7은 영상 제공부(170)를 통해 사용자에게 제공되는 화면의 또 다른 실시예를 도시한 도면이다.7 is a diagram illustrating another embodiment of a screen provided to a user through the image providing unit 170 .

도 7을 참조하면, 영상 제공부(170)는 화재 현장이 구현된 가상 현실에서 특정 분석 대상(AT)에 관한 세부적인 정보를 보고 싶은 경우 해당 분석 대상(AT)을 선택하여 해당 분석 대상(AT)에 관한 세부 영상 및 세부적인 정보가 화재 현장에 오버랩 되도록 가공 영상(P1)을 표시하여 제공할 수 있다.Referring to FIG. 7 , the image providing unit 170 selects the corresponding analysis target (AT) to view detailed information on the specific analysis target (AT) in virtual reality in which a fire scene is implemented, and the corresponding analysis target (AT) is selected. ) can be provided by displaying the processed image P1 so that the detailed image and detailed information about it overlap the fire scene.

예를 들면, 사용자가 제2 분석 대상(AT2)에 관한 세부적인 정보를 보고 싶은 경우 제2 분석 대상(AT2)을 선택할 수 있고, 영상 제공부(170)는 제2 분석 대상(AT2)을 이루는 구성 요소의 세부 영상 및 각 구성 요소의 기초 데이터(ad)를 오버랩하여 사용자에게 제공할 수 있다. 여기서, 제공되는 구성 요소 및 기초 데이터(ad)는 도 5를 참조하여 설명한 것일 수 있다.For example, when the user wants to view detailed information on the second analysis object AT2, the user may select the second analysis object AT2, and the image providing unit 170 configures the second analysis object AT2. The detailed image of the component and the basic data (ad) of each component may be overlapped and provided to the user. Here, the provided components and basic data ad may be those described with reference to FIG. 5 .

이상, 설명한 화재 분석 시스템(10)에 의하면, 사용자는 실제 화재 현장이 구현된 가상 현실에서 화재현장감식 작업을 수행할 수 있다.According to the fire analysis system 10 described above, a user can perform a fire scene detection operation in a virtual reality in which an actual fire scene is implemented.

또한, 가상 현실 내에는 화재 현장에 있던 사물이나 화재 현장의 각 영역에 대한 정보가 반영되어 있으며, 각 사물 등은 실제 화재 현장에서의 위치와 대응되는 곳에 구현되어 있으므로, 사용자는 더욱 용이하고 정확하게 화재 분석을 수행할 수 있다.In addition, in the virtual reality, information about objects or areas of the fire site are reflected in the virtual reality, and each object is implemented in a place corresponding to the location at the actual fire site, so users can more easily and accurately fire the fire. analysis can be performed.

또한, 사용자는 특정 분석 대상(AT)에 대해 세부적인 정보를 보고 싶은 경우, 해당 분석 대상(AT)의 분석 영상이나 세부 영상이 눈 앞에 표시되므로 화재 분석을 직관적으로 수행할 수 있어 더욱 용이하고 정확하게 수행할 수 있다.In addition, when the user wants to view detailed information about a specific analysis target (AT), the analysis image or detailed image of the analysis target (AT) is displayed in front of them, so fire analysis can be performed intuitively, making it easier and more accurate can be done

또한, 현장 영상, 분석 영상, 세부 영상, 기초 데이터(ad)가 반영된 가공 영상(P1)은 저장부(160)에 저장되므로, 사용자는 언제든 가공 영상(P1)을 독출하여 화재 분석을 수행할 수 있다.In addition, the field image, the analysis image, the detailed image, and the processed image P1 reflecting the basic data ad are stored in the storage unit 160, so the user can read the processed image P1 at any time and perform fire analysis. there is.

도 8은 화재 분석 시스템을 통한 화재 현장 영상을 활용한 화재 분석 방법의 일 실시예를 설명하기 위한 도면이다.8 is a view for explaining an embodiment of a fire analysis method using a fire scene image through a fire analysis system.

설명의 편의를 위해 도 1 내지 7을 이용하여 설명한 화재 분석 시스템(10)과 중복되는 내용은 생략하거나 간략하게 설명하도록 한다.For convenience of description, the content overlapping with the fire analysis system 10 described with reference to FIGS. 1 to 7 will be omitted or briefly described.

도 8을 참조하면, 일 실시예에 따른 화재 현장 영상을 활용한 화재 분석 방법은 화재 현장을 스캔하여 화재 현장 영상을 획득하는 단계(S110), 상기 화재 현장에 포함된 분석 대상(AT)의 분석 영상을 획득하는 단계(S130), 상기 화재 현장 영상과 상기 분석 영상을 가공하여 가공 영상(P1)을 생성하는 단계(S150), 상기 가공 영상(P1)을 저장하는 단계(S160) 및 상기 저장된 가공 영상(P1)을 사용자의 입력에 의해 독출하여 영상 제공부(170)를 통해 상기 사용자에게 제공하는 단계(S170)를 포함할 수 있다.Referring to FIG. 8 , a fire analysis method using a fire scene image according to an embodiment includes the steps of acquiring a fire scene image by scanning a fire site (S110), and analysis of an analysis target (AT) included in the fire scene Obtaining an image (S130), generating a processed image (P1) by processing the fire scene image and the analyzed image (S150), storing the processed image (P1) (S160), and the stored processing It may include a step (S170) of reading the image P1 according to the user's input and providing it to the user through the image providing unit 170 .

화재 현장 영상을 획득하는 단계(S110)는 화재 현장을 스캔하여 화재 현장 영상을 획득하는 단계(S110)일 수 있다.The step of obtaining the fire scene image (S110) may be the step of acquiring the fire site image by scanning the fire site (S110).

화재 현장은 화재가 발생한 장소일 수 있고, 예를 들면, 화재가 발생한 후 진화 작업이 완료된 주택, 상가 건물 등의 다중이용시설물이나 단독주택, 산, 도로 등의 장소일 수 있다.The fire site may be a place where a fire occurred, for example, a house where firefighting work is completed after a fire occurs, a multi-use facility such as a commercial building, or a place such as a detached house, a mountain, a road, etc.

화재 현장 영상을 획득하는 단계(S110)는 현장 영상 획득부(110)를 통해 수행될 수 있다.The step of acquiring the fire scene image ( S110 ) may be performed through the on-site image acquisition unit 110 .

예를 들면, 현장 영상 획득부(110)는 화재 현장을 스캔하여 화재 현장의 영상을 획득할 수 있고, 현장 영상은 정적 영상이거나 동적 영상이거나 정적 영상과 동적 영상의 조합일 수 있다. 또는, 현장 영상은 파노라마 영상일 수 있고, 복수의 정적 영상이 프레임별로 연속적으로 촬영된 연속 사진일 수 있다. 또는, 정적 영상과 동적 영상의 조합일 수 있다.For example, the on-site image acquisition unit 110 may acquire an image of the fire site by scanning the fire site, and the on-site image may be a static image, a dynamic image, or a combination of a static image and a dynamic image. Alternatively, the on-site image may be a panoramic image, or a continuous photo in which a plurality of static images are continuously captured for each frame. Alternatively, it may be a combination of a static image and a dynamic image.

본 실시예에 따른 화재 현장 영상을 활용한 화재 분석 방법은 현장 영상을 획득함으로써 화재 현장을 영상으로 구현할 수 있고, 사용자는 현장 영상을 통해 화재 분석을 수행하는 과정에서 분석을 원하는 현장 영역의 영상을 선택하여 확인할 수 있다.The fire analysis method using the fire scene image according to this embodiment can realize the fire scene as an image by acquiring the scene image, and the user can view the image of the field area that he wants to analyze in the process of performing fire analysis through the scene image. You can check it by selecting it.

선택적 실시예로서, 본 실시예에 따른 화재 현장 영상을 활용한 화재 분석 방법은 분석 대상(AT)을 선별하는 단계(S120)를 더 포함할 수 있다. 예를 들면, 분석 대상(AT)을 선별하는 단계(S120)는 화재 현장에서 특이점이 있는 영역 또는 특이점이 있는 사물을 인식하여 분석 대상(AT)으로 선별하는 단계(S120)를 포함할 수 있다.As an optional embodiment, the fire analysis method using the fire scene image according to the present embodiment may further include the step (S120) of selecting an analysis target (AT). For example, the step of selecting the analysis target (AT) (S120) may include a step (S120) of recognizing an area having a singularity or an object with a singularity at the fire site and selecting the target for analysis AT (S120).

화재 현장에는 화재의 원인이 되는 사물이나 영역이 있을 수 있고, 화재의 확산이나 피해의 확산에 영향을 미치는 사물이나 영역이 있을 수 있다. 반면, 화재 현장에는 이뿐만이 아니라 다른 발화원으로부터 단순히 화염이 옮겨 붙어 소실되는 사물이나 영역도 존재할 수 있다.There may be objects or areas that cause fire, and objects or areas that affect the spread of fire or damage. On the other hand, not only this, but also objects or areas that are lost by simply transferring flames from other ignition sources may exist at the site of a fire.

따라서, 화재 현장에 존재하는 모든 영역이나 사물을 모두 분석하는 것은 비용적, 시간적으로 비효율적일 수 있다.Therefore, it may be inefficient in terms of cost and time to analyze all areas or objects existing at the fire scene.

이를 위해, 화재 현장에 존재하는 영역이나 사물 중 분석이 요구되는 것을 선별하여 이를 선택적으로 분석할 수 있다. 이처럼, 특이점이 있는 영역이나 사물을 인식하여 분석 대상(AT)으로 선별하는 단계(S120)는 분석 대상 선별부(120)를 통해 수행될 수 있다.To this end, it is possible to selectively analyze areas or objects that exist at the fire site by selecting those requiring analysis. In this way, the step (S120) of recognizing a region or object having a singularity and selecting it as an analysis target (AT) may be performed through the analysis target selection unit 120 .

예를 들면, 분석 대상 선별부(120)는 화재 현장에 특이점이 있는 영역 또는 사물을 인식하여 이를 분석 대상(AT)으로 선별하고, 이를 사용자에게 제공할 수 있다.For example, the analysis target selection unit 120 may recognize an area or object having a singularity at the fire site, select it as an analysis target (AT), and provide it to the user.

구체적으로, 분석 대상(AT)을 선별하는 단계(S120)는 현장 영상을 획득하는 단계(S110)와 동시에 수행되거나, 현장 영상을 획득하는 단계(S110)가 수행된 후에 수행될 수 있다.Specifically, the step of selecting the analysis target AT ( S120 ) may be performed simultaneously with the step of acquiring the on-site image ( S110 ), or may be performed after the step of acquiring the on-site image ( S110 ) is performed.

예를 들면, 현장 영상 획득부(110)가 현장 영상을 획득하는 도중 분석 영상 획득부(130)는 특이점이 있는 영역이나 사물의 파손의 정도, 파손의 경향, 소실의 정도, 그을음의 방향, 주변 사물의 배치, 화재 당일의 날씨, 화재 당일의 습도, 화재 당일의 건물이나 시설의 온도나 습도, 화재 당일의 전력 소비량 등을 고려하여 특이점이 있는 영역이나 사물 중에서 분석 대상(AT)을 선별할 수 있고, 이를 사용자에게 제공할 수 있다.For example, while the on-site image acquisition unit 110 acquires the on-site image, the analysis image acquisition unit 130 detects the area with a singularity or the degree of damage to the object, the tendency of damage, the degree of loss, the direction of soot, and the surrounding area. The analysis target (AT) can be selected from areas or objects with singularities in consideration of the arrangement of objects, the weather on the day of the fire, the humidity on the day of the fire, the temperature or humidity of the building or facility on the day of the fire, and the power consumption on the day of the fire. and it can be provided to the user.

또는, 현장 영상 획득부(110)가 현장 영상을 획득한 후 분석 영상 획득부(130)는 획득된 현장 영상을 통해 특이점이 있는 영역이나 사물의 파손의 정도, 파손의 경향, 소실의 정도, 그을음의 방향, 주변 사물의 배치, 화재 당일의 날씨, 화재 당일의 습도, 화재 당일의 건물이나 시설의 온도나 습도, 화재 당일의 전력 소비량 등을 고려하여 특이점이 있는 영역이나 사물 중에서 분석 대상(AT)을 선별할 수 있고, 이를 사용자에게 제공할 수 있다.Alternatively, after the on-site image acquisition unit 110 acquires the on-site image, the analysis image acquisition unit 130 performs the analysis image acquisition unit 130 through the acquired on-site image to the degree of damage, the tendency of damage, the degree of loss, and soot in the area or object having a singularity. Analysis target (AT) among areas or objects with a singularity in consideration of the direction of can be selected, and can be provided to the user.

이 경우, 사용자는 제공된 분석이 필요한 대상에 대해 분석 영상을 획득할 것인지 여부를 선택할 수 있다. 즉, 사용자는 분석 대상 선별부(120)에 의해 선택된 분석 대상(AT) 중 적어도 하나를 선택하여 분석 영상을 획득할 수 있다.In this case, the user may select whether to acquire the analysis image for the provided analysis-necessary object. That is, the user may acquire an analysis image by selecting at least one of the analysis targets AT selected by the analysis target selection unit 120 .

선택적 실시예로서, 사용자는 분석 대상 선별부(120)가 선별하여 제공하지는 않았으나 분석이 필요하다고 생각되는 영역이나 사물이 존재하는 경우 이를 선택하여 이에 대한 분석 영상을 획득할 수 있다.As an optional embodiment, if there is an area or object that is not selected and provided by the analysis target selection unit 120 but is considered to be analyzed, the user may select it and obtain an analysis image for the region or object.

분석 영상을 획득하는 단계(S130)는 화재 현장에 포함된 분석 대상(AT)의 분석 영상을 획득하는 단계(S130)일 수 있다.The step of acquiring the analysis image (S130) may be the step of acquiring the analysis image of the analysis target AT included in the fire scene (S130).

분석 대상(AT)은 화재 분석을 위해 분석이 요구되는 사물이나 영역을 의미할 수 있다. 예를 들면, 분석 대상(AT)은 화재 현장에 남은 축조물의 잔해, 축조물의 파손된 영역, 그을음, 파편, 화재 현장에 잔류하는 물건, 화재 현장에 있던 물건의 잔해나 부품, 전기 배선 등 화재현장감식을 위해 분석이 요구되는 것을 의미할 수 있다.The analysis target (AT) may mean an object or area requiring analysis for fire analysis. For example, the target of analysis (AT) is the remains of structures remaining at the fire site, damaged areas of structures, soot, debris, objects remaining at the fire site, remnants or parts of objects at the fire site, electrical wiring, etc. It may mean that analysis is required for identification.

분석 영상을 획득하는 단계(S130)는 분석 영상 획득부(130)를 통해 수행될 수 있다.The step of acquiring the analysis image ( S130 ) may be performed through the analysis image acquisition unit 130 .

예를 들면, 분석 영상 획득부(130)는 분석 대상 선별부(120)에 의해 제공되거나 또는 사용자에 의해 선택된 분석 대상(AT)에 관하여 분석 영상을 획득할 수 있다.For example, the analysis image acquisition unit 130 may acquire the analysis image with respect to the analysis target AT provided by the analysis target selection unit 120 or selected by the user.

선택적 실시예로서, 분석 영상 획득부(130)는 분석 대상(AT)을 구성하는 각 구성별로 세부 영상을 획득할 수 있다. 예를 들면, 분석 대상(AT)이 복수의 구성이 조합된 사물인 경우, 분석 영상 획득부(130)는 해당 분석 대상(AT)을 부품별로 분해하여 각 부품별로 촬영을 진행하여 세부 영상을 획득할 수 있다. 또는, 분석 대상(AT)이 영역인 경우 분석 영상 획득부(130)는 해당 영역을 복수의 영역으로 구획하여 각 구획마다 별도로 촬영을 진행하여 세부 영상을 획득할 수 있다.As an optional embodiment, the analysis image acquisition unit 130 may acquire a detailed image for each component constituting the analysis target AT. For example, when the analysis target AT is an object in which a plurality of components are combined, the analysis image acquisition unit 130 decomposes the analysis target AT into parts and takes pictures for each part to obtain a detailed image. can do. Alternatively, when the analysis target AT is an area, the analysis image acquisition unit 130 may divide the corresponding area into a plurality of areas and separately photograph each area to obtain a detailed image.

일 실시예로서, 본 실시예에 따른 화재 현장 영상을 활용한 화재 분석 방법은 분석 대상(AT)의 기초 데이터(ad)를 입력하는 단계(S140)를 더 포함할 수 있다.As an embodiment, the fire analysis method using the fire scene image according to the present embodiment may further include inputting basic data ad of the analysis target AT ( S140 ).

예를 들면, 기초 데이터(ad)를 입력하는 단계(S140)는 분석 영상 또는 세부 영상에 분석 대상(AT)의 기초 데이터(ad)를 입력하는 단계(S140)일 수 있다. 기초 데이터(ad)는 분석 대상(AT)에 대해 화재와 관련이 있는 데이터일 수 있다.For example, the step of inputting the basic data ad ( S140 ) may be the step of inputting the basic data ad of the analysis target AT into the analysis image or the detailed image ( S140 ). The basic data ad may be data related to a fire for the analysis target AT.

기초 데이터(ad)를 입력하는 단계(S140)는 데이터 입력부(140)를 통해 수행될 수 있다.The step of inputting the basic data ad ( S140 ) may be performed through the data input unit 140 .

일 실시예로서, 데이터 입력부(140)는 분석 영상에 분석 대상(AT) 자체의 특성에 관한 데이터를 입력할 수 있다.As an embodiment, the data input unit 140 may input data regarding the characteristics of the analysis target AT itself to the analysis image.

다른 실시예로서, 데이터 입력부(140)는 분석 영상에 분석 대상(AT)에 관한 참고 자료나 통계 자료 등을 입력할 수 있다.As another embodiment, the data input unit 140 may input reference data or statistical data regarding the analysis target AT to the analysis image.

또 다른 실시예로서, 데이터 입력부(140)는 세부 영상에 분석 대상(AT)을 구성하는 각 구성 자체의 특성에 관한 데이터를 입력할 수 있다.As another embodiment, the data input unit 140 may input data regarding the characteristics of each component constituting the analysis target AT in the detailed image.

또 다른 실시예로서, 데이터 입력부(140)는 세부 영상에 분석 대상(AT)을 구성하는 각 구성에 관한 참고 자료나 통계 자료 등을 입력할 수 있다.As another embodiment, the data input unit 140 may input reference data or statistical data regarding each component constituting the analysis target AT in the detailed image.

가공 영상(P1)을 생성하는 단계(S150)는 화재 현장 영상과 분석 영상을 가공하여 가공 영상(P1)을 생성하는 단계(S150)일 수 있다.The step of generating the processed image P1 ( S150 ) may be a step of generating the processed image P1 by processing the fire scene image and the analysis image ( S150 ).

가공 영상(P1)을 생성하는 단계(S150)는 영상 가공부(150)를 통해 수행될 수 있다.The operation of generating the processed image P1 ( S150 ) may be performed through the image processing unit 150 .

일 실시예로서, 영상 가공부(150)는 현장 영상과 분석 영상을 정합할 수 있다. 예를 들면, 영상 가공부(150)는 현장 영상에 분석 영상을 정합할 수 있다.As an embodiment, the image processing unit 150 may match the field image and the analysis image. For example, the image processing unit 150 may match the analysis image to the field image.

선택적 실시예로서, 가공 영상(P1)은 화재 현장의 공간 데이터에 기초하여 생성된 가상 현실 데이터를 포함할 수 있다. 예를 들면, 가공 영상(P1)은 현장 영상과 공간 데이터에 기초하여 화재 현장의 실제 모습을 영상으로 구현한 것일 수 있다.As an optional embodiment, the processed image P1 may include virtual reality data generated based on spatial data of a fire scene. For example, the processed image P1 may be implemented as an image of the actual scene of the fire based on the scene image and spatial data.

일 실시예로서, 가공 영상(P1)은 현장 영상과 분석 영상이 정합되되, 분석 영상 은 선택적으로 나타나도록 가공된 영상일 수 있다. 예를 들면, 영상 가공부(150)는 사용자가 특정 분석 대상(AT)을 선택한 경우에만 분석 영상이 나타나도록 가공 영상(P1)을 생성할 수 있다.As an embodiment, the processed image P1 may be an image processed so that the field image and the analysis image are matched, and the analysis image is selectively displayed. For example, the image processing unit 150 may generate the processed image P1 so that the analyzed image appears only when the user selects a specific analysis target AT.

또 다른 실시예로서, 가공 영상(P1)은 세부 영상과 기초 데이터(ad)가 정합된 것일 수 있다. 또한, 가공 영상(P1)은 세부 영상과 기초 데이터(ad)가 선택적으로 표시되도록 가공된 영상일 수 있다. 예를 들면, 세부 영상과 기초 데이터(ad)는 사용자가 특정 옵션을 선택한 경우에만 나타날 수 있다.As another embodiment, the processed image P1 may be a combination of the detailed image and the basic data ad. In addition, the processed image P1 may be an image processed so that the detailed image and the basic data ad are selectively displayed. For example, the detailed image and basic data ad may appear only when the user selects a specific option.

가공 영상(P1)을 저장하는 단계(S160)는 가공 영상(P1)이 저장부(160)에 저장되는 단계일 수 있다. 따라서, 저장부(160)에 저장된 가공 영상(P1)은 추후 사용자의 선택에 따라 독출되어 사용자에게 제공될 수 있다.The step of storing the processed image P1 ( S160 ) may be a step of storing the processed image P1 in the storage unit 160 . Accordingly, the processed image P1 stored in the storage 160 may be read out later according to the user's selection and provided to the user.

가공 영상(P1)을 제공하는 단계(S170)는 가공 영상(P1)을 사용자의 입력에 의해 독출하여 영상 제공부(170)를 통해 사용자에게 제공하는 단계(S170)일 수 있다.The step of providing the processed image P1 ( S170 ) may be a step ( S170 ) of reading the processed image P1 according to a user's input and providing the processed image P1 to the user through the image providing unit 170 .

일 실시예로서, 가공 영상(P1)을 제공하는 단계(S170)는 가상 현실 기술(VR)을 통해 수행될 수 있고, 예를 들면 표시 장치(171)와 입력 장치(172)를 포함하는 영상 제공부(170)를 통해 수행될 수 있다.As an embodiment, the step of providing the processed image P1 ( S170 ) may be performed through virtual reality technology (VR), for example, an image system including a display device 171 and an input device 172 . This can be done through the study 170 .

가공 영상(P1)을 제공하는 단계(S170)는 표시 장치(171)를 통해 사용자에게 가공 영상(P1)을 제공하고, 사용자는 입력 장치(172)를 통해 가공 영상(P1)을 제어할 수 있다. 예를 들면, 사용자는 표시 장치(171)에 가공 영상(P1)이 표시되도록 하거나, 가공 영상(P1)에 세부 영상이나 기초 데이터(ad)가 표시되도록 제어할 수 있다.In the step of providing the processed image P1 ( S170 ), the processed image P1 is provided to the user through the display device 171 , and the user may control the processed image P1 through the input device 172 . . For example, the user may control to display the processed image P1 on the display device 171 , or to display a detailed image or basic data ad on the processed image P1 .

도 9는 화재 분석 시스템(10)을 통한 화재 현장 영상을 활용한 화재 분석 방법의 다른 실시예를 설명하기 위한 도면이고, 도 10은 도 9의 화재 분석 예측 값을 획득하는 단계의 일 실시예를 설명하기 위한 도면이다.9 is a view for explaining another embodiment of a fire analysis method using a fire scene image through the fire analysis system 10, and FIG. 10 is an embodiment of the step of obtaining the fire analysis predicted value of FIG. It is a drawing for explanation.

도 9 및 도 10을 참조하여, 다른 실시예에 관한 화재 현장 영상을 활용한 화재 분석 방법을 설명하기로 한다. 다만, 설명의 편의를 위하여 전술한 내용과 중복되는 내용은 간략하게 설명하거나 생략한다.A fire analysis method using a fire scene image according to another embodiment will be described with reference to FIGS. 9 and 10 . However, for convenience of description, the content overlapping with the above will be briefly described or omitted.

본 실시예에 따른 화재 현장 영상을 활용한 화재 분석 방법은 기계학습을 이용하여 화재 분석을 수행할 수 있다.The fire analysis method using the fire scene image according to the present embodiment may perform fire analysis using machine learning.

일 실시예에 따른 화재 현장 영상을 활용한 화재 분석 방법은, 기계학습을 이용한 화재 현장 영상을 활용한 화재 분석 방법으로서, 화재 현장을 스캔하여 화재 특징을 추출하는 단계(S210), 상기 추출된 화재 특징을 기계학습 모델에 입력하여 화재 분석 예측 값을 획득하는 단계(S220) 및 상기 획득한 상기 화재 분석 예측 값을 사용자에게 제공하는 단계(S230)를 포함할 수 있다. The fire analysis method using a fire scene image according to an embodiment is a fire analysis method using a fire scene image using machine learning, and includes the steps of scanning a fire scene and extracting fire characteristics (S210), the extracted fire It may include inputting the characteristics into the machine learning model to obtain a fire analysis predicted value (S220) and providing the obtained fire analysis predicted value to a user (S230).

이때, 기계학습 모델은 화재 현장의 상황에 따라 화재 원인 등을 예측하도록 학습된 기계학습 모델 데이터를 포함할 수 있다. 예를 들면, 기계학습 모델은 화재 현장의 상황을 인식하고, 이를 기초로 화재의 원인, 화재의 확산, 피해의 정도, 피해의 확산, 화재 예방책 등에 관한 예측 값을 도출하여 사용자에게 제공할 수 있다. 이때, 사용자는 제공된 예측 값을 기초로 화재 분석을 수행함으로써, 화재 분석을 용이하고 정확하게 수행할 수 있으며, 시행착오가 줄어 분석에 소요되는 시간이 경감될 수 있다.In this case, the machine learning model may include machine learning model data learned to predict the cause of the fire, etc. according to the situation of the fire site. For example, the machine learning model recognizes the situation at the fire site, and based on this, predicts values for the cause of the fire, the spread of the fire, the degree of damage, the spread of the damage, the fire prevention measures, etc. can be derived and provided to the user. . In this case, the user may perform the fire analysis based on the provided predicted value, so that the fire analysis can be easily and accurately performed, and the time required for the analysis can be reduced by reducing trial and error.

화재 현장을 스캔하여 화재 특징을 추출하는 단계(S210)는 화재 현장으로부터 화재의 특징, 예를 들면 화재의 발생 원인, 확산 경로, 피해의 확산 정도, 화재의 예방 방법을 추출하여 어떤 대상을 중점적으로 분석해야 하는지 여부를 선택하기 위한 단계일 수 있다.The step of extracting fire characteristics by scanning the fire site (S210) is to extract the characteristics of the fire from the fire site, for example, the cause of the fire, the path of spread, the degree of spread of damage, and the prevention method of the fire to focus on a certain target. It can be a step to choose whether or not it should be analyzed.

일 실시예로서, 화재 특징을 추출하는 단계(S210)는 현장 영상 획득부(110)를 통해 화재 현장을 스캔함으로써 수행될 수 있다. 예를 들면, 제어부는 현장 영상 획득부(110)를 통해 화재 현장을 스캔하면서, 시설물의 파손의 정도, 시설물의 파손의 경향, 그을음의 경향, 그을음의 정도, 전소율 등의 정보를 인식할 수 있고, 이를 기초로 화재의 특징을 추출할 수 있다.As an embodiment, the step of extracting the fire characteristics ( S210 ) may be performed by scanning the fire scene through the scene image acquisition unit 110 . For example, the control unit can recognize information such as the degree of damage of facilities, the tendency of damage to facilities, the tendency of soot, the degree of soot, and the rate of burning while scanning the fire scene through the on-site image acquisition unit 110. And based on this, the characteristics of fire can be extracted.

선택적 실시예로서, 제어부는 현장 영상 획득부(110)를 통해 시설물의 파손의 정도, 시설물의 파손의 경향, 그을음의 경향, 그을음의 정도, 전소율 등을 인식할 수 있고, 이를 기계학습 모델에 입력하여 이와 매칭되는 화재의 특징을 추출할 수 있다. 이후, 제어부는 추출된 화재의 특징을 사용자에게 제공할 수 있다.As an optional embodiment, the control unit can recognize the degree of damage of the facility, the tendency of the damage of the facility, the tendency of the soot, the degree of soot, the burnout rate, etc. through the on-site image acquisition unit 110, and apply this to the machine learning model By inputting it, it is possible to extract the characteristics of the fire that match it. Thereafter, the control unit may provide the user with the characteristics of the extracted fire.

이 경우, 사용자는 제공되는 화재의 특징을 참고하여 실제 화재의 특징을 예측하고 화재의 특징에 기초하여 화재에 관해 분석할 수 있다.In this case, the user may predict the characteristics of the actual fire with reference to the provided characteristics of the fire and analyze the fire based on the characteristics of the fire.

화재 분석 예측 값을 획득하는 단계(S220)는 추출된 화재 특징을 기계학습 모델에 입력하여 화재 분석 예측 값을 획득하는 단계일 수 있다.The step of obtaining the fire analysis prediction value ( S220 ) may be a step of obtaining the fire analysis prediction value by inputting the extracted fire characteristics into the machine learning model.

예를 들면, 화재 분석 예측 값을 획득하는 단계(S220)는 추출된 화재 특징에 기초하여 화재의 발생 원인, 화재의 확산 원인, 화재의 전개 경향, 피해 확산의 원인, 화재를 예방할 수 있었던 방법 등에 관한 화재에 관련된 분석 예측 값을 획득하는 단계일 수 있다.For example, the step of obtaining a fire analysis prediction value (S220) is based on the extracted fire characteristics, the cause of the fire, the cause of the spread of the fire, the tendency of the fire to develop, the cause of the spread of damage, the method of preventing the fire, etc. It may be a step of obtaining an analysis prediction value related to the fire.

예측된 분석 예측 값은 사용자에게 제공될 수 있다. 이 경우, 사용자는 제공되는 분석 예측 값을 참고하여 실제 화재의 분석 결과를 예측하거나, 이에 기초하여 추가 분석 또는 심층적 분석을 수행할 수 있다.The predicted analysis prediction value may be provided to the user. In this case, the user may predict the analysis result of the actual fire with reference to the provided analysis prediction value, or perform additional analysis or in-depth analysis based on this.

일 실시예로서, 화재 분석 예측 값을 획득하는 단계(S220)는 추출된 화재 특징에 기초하여 분석이 필요한 분석 대상(AT)을 선별하여 사용자에게 제공하는 단계(S221)를 포함할 수 있다.As an embodiment, the step of obtaining the fire analysis predicted value ( S220 ) may include selecting an analysis target (AT) requiring analysis based on the extracted fire characteristics and providing the selected analysis target (AT) to the user ( S221 ).

예를 들면, 분석 대상(AT)을 선별하여 사용자에게 제공하는 단계(S221)는 추출된 화재 특징에 기초하여 그 화제 분석을 위해 분석이 요구되는 분석 대상(AT)을 선별하고, 선별 결과를 사용자에게 제공하는 단계일 수 있다.For example, the step (S221) of selecting an analysis target (AT) and providing it to a user selects an analysis target (AT) requiring analysis for the topic analysis based on the extracted fire characteristics, and provides the selection result to the user It may be a step to provide

선택적 실시예로서, 제어부는 추출된 화재 특징을 기계학습 모델에 입력하고 이와 매칭되는 분석 대상(AT)을 선별할 수 있다.As an optional embodiment, the control unit may input the extracted fire characteristics to the machine learning model and select an analysis target (AT) matching the same.

예를 들면, 제어부는 특정한 화재 특징을 갖는 화재 현장은 특정 요인에 의해 발생한 화재의 흔적이라는 매칭 결과에 기초하여 사용자에게 현장 영상에 포함된 영역이나 사물 중 분석이 필요한 분석 대상(AT)을 선별하여 사용자에게 제공할 수 있다. 이를 위해, 기계학습 모델은 특정 요인에 의해 발생한 화재는 화재 현장에 어떠한 특징을 남기는지에 대한 기계학습 데이터를 포함할 수 있다.For example, the control unit selects the analysis target (AT) that needs analysis among the areas or objects included in the on-site image to the user based on the matching result that a fire site having a specific fire characteristic is a trace of a fire caused by a specific factor. can be provided to users. To this end, the machine learning model may include machine learning data on what characteristics a fire caused by a specific factor leaves on the fire scene.

또 다른 예로서, 제어부는 특정한 화재 특징을 갖는 화재 현장은 특정 원인에 의해 화재가 확산된 것이라는 매칭 결과에 기초하여 사용자에게 현장 영상에 포함된 영역이나 사물 중 분석이 필요한 분석 대상(AT)을 선별하여 사용자에게 제공할 수 있다. 이를 위해, 기계학습 모델은 특정 요인에 의해 확산된 화재는 화재 현장에 어떠한 특징을 남기는지에 대한 기계학습 데이터를 포함할 수 있다.As another example, the control unit selects an analysis target (AT) that needs analysis among areas or objects included in the on-site image to the user based on the matching result that a fire site having a specific fire characteristic has a fire spread due to a specific cause can be provided to the user. To this end, the machine learning model may include machine learning data on what characteristics a fire spread by a specific factor leaves on a fire scene.

다만, 이에 한정되는 것은 아니고 기계학습 모델은 화재의 전개 경항과 화재의 특징이 매칭된 데이터, 피해 확산의 원인과 화재 특징이 매칭된 데이터, 화재 트징과 화재를 예방할 수 있는 방법 매칭된 데이터, 화재의 징후와 화재의 특징이 매칭된 데이터 등을 더 포함할 수 있다.However, the machine learning model is not limited thereto, and the machine learning model is data that matches fire development and fire characteristics, data that matches the cause of damage and fire characteristics, data that matches fire detection and fire prevention methods, and fire It may further include data such that the signs of the fire and the characteristics of the fire are matched.

다른 선택적 실시예로서, 화재 분석 예측 값을 획득하는 단계(S220)는 선별된 분석 대상(AT) 중 상기 사용자에 의해 선택된 분석 대상(AT)의 분석 영상을 획득하는 단계(S222)를 더 포함할 수 있다.As another optional embodiment, the step (S220) of obtaining the predictive value of the fire analysis may further include the step (S222) of obtaining an analysis image of the analysis target (AT) selected by the user from among the selected analysis targets (AT) can

예를 들면, 사용자는 분석이 필요한 분석 대상(AT) 리스트를 제공받을 수 있고, 분석 영상 획득부(130)는 사용자의 선택에 의해 선택된 분석 대상(AT)을 촬영하여 분석 영상을 획득할 수 있다.For example, the user may be provided with a list of analysis objects (ATs) that require analysis, and the analysis image acquisition unit 130 may acquire an analysis image by photographing the analysis objects (ATs) selected by the user's selection. .

일 실시예로서, 사용자는 제공 받은 분석 대상(AT) 리스트에 포함된 모든 분석 대상(AT)의 분석 영상을 모두 획득하도록 제어부를 제어할 수 있다. 또는, 사용자는 제공 받은 분석 대상(AT) 리스트에 포함된 분석 대상(AT) 중 분석 영상의 획득이 필요하다고 생각하는 분석 대상(AT)만을 선택하여 이들의 분석 영상만을 획득하도록 제어부를 제어할 수도 있다.As an embodiment, the user may control the controller to acquire all the analysis images of all the analysis objects (ATs) included in the provided analysis object (AT) list. Alternatively, the user may control the controller to select only the analysis subjects (ATs), which are considered to require acquisition of analysis images, from among the analysis subjects (ATs) included in the provided analysis target (AT) list to acquire only their analysis images. there is.

또 다른 선택적 실시예로서, 화재 분석 예측 값을 획득하는 단계(S222)는 분석 대상(AT)이 선택되어 분석 영상이 획득되면, 선택된 분석 대상(AT)과 분석 영상을 기계학습 모델에 입력하여 분석 대상(AT)의 화재 인과 가능성의 예측 값을 획득하고, 획득된 화재 인과 가능성의 예측 값을 사용자에게 제공하는 단계(S223)를 포함할 수 있다.As another optional embodiment, in the step (S222) of obtaining a fire analysis prediction value, when an analysis target (AT) is selected and an analysis image is obtained, the selected analysis target (AT) and the analysis image are input to the machine learning model and analyzed The method may include obtaining a predicted value of the fire causality of the target AT and providing the obtained predicted value of the fire causality to the user ( S223 ).

예를 들면, 선택된 분석 대상(AT)과 분석 영상을 기계학습 모델에 입력하면 그러한 분석 대상(AT)에 의해 화재가 발생한 경우 해당 분석 대상(AT)은 어떠한 형태로 남게 되는지 도출하고, 이를 실제 획득된 분석 영상과 비교하여 해당 분석 대상(AT)에 의해 화재가 발생할 확률이 어느정도 되는지를 계산하여 사용자에게 제공할 수 있다. 이를 위해, 기계학습 모델은 특정 분석 대상(AT)을 화재의 원인이 된 경우 해당 분석 대상(AT)은 어떠한 형태로 화재 현장에 남게 되는지에 관한 데이터를 더 포함할 수 있다.For example, if the selected analysis target (AT) and the analysis image are input into the machine learning model, when a fire occurs by the analysis target (AT), the shape of the analysis target (AT) is derived, and it is actually acquired Compared with the analyzed image, it is possible to calculate what the probability of a fire occurring by the corresponding analysis target (AT) is, and provide it to the user. To this end, the machine learning model may further include data on how the specific analysis target (AT) will remain at the fire site when the specific analysis target (AT) is the cause of the fire.

또 다른 예로서, 선택된 분석 대상(AT)과 분석 영상을 기계학습 모델에 입력하면 그러한 분석 대상(AT)에 의해 화재가 확산되는 경우 해당 분석 대상(AT)은 어떠한 형태로 남게 되는지 도출하고, 이를 실제 획득된 분석 영상과 비교하여 해당 분석 대상(AT)에 의해 화재가 확산될 확률이 어느정도 되는지를 계산하여 사용자에게 제공할 수 있다. 이를 위해, 기계학습 모델은 특정 분석 대상(AT)이 화재 확산의 원인이 되는 경우 해당 분석 대상(AT)은 어떠한 형태로 화재 현장에 남게 되는지에 관한 데이터를 더 포함할 수 있다.As another example, if the selected analysis target (AT) and the analysis image are input to the machine learning model, if the fire is spread by the analysis target (AT), what shape the analysis target (AT) remains, and It is possible to calculate what the probability of a fire spreading by the corresponding analysis target (AT) is compared with the actually acquired analysis image and provide it to the user. To this end, the machine learning model may further include data on how the specific analysis target (AT) remains at the fire site when the specific analysis target (AT) is the cause of the fire spread.

다만, 이에 한정되는 것은 아니고 기계학습 모델은 화재의 전개 경향과 분석 대상(AT)이 매칭된 데이터, 피해 확산의 원인과 분석 대상(AT)이 매칭된 데이터, 화재의 징후와 분석 대상(AT)이 매칭된 데이터 등을 더 포함할 수 있다.However, the machine learning model is not limited thereto, and the machine learning model is data in which the development trend of fire and the analysis target (AT) are matched, the cause of damage spread and the analysis target (AT) are matched, and the signs of fire and the analysis target (AT) are matched. It may further include the matched data and the like.

사용자는 이를 통해, 화재 현장을 감식함에 있어 어떠한 분석 대상(AT)에 의해 화재가 발생하는지, 화재가 확산되는지, 피해가 확산되는지 등에 관한 예측을 할 수 있고, 이에 기초하여 더욱 신속하고 용이하며 정확하게 화재 분석을 수행할 수 있다.Through this, the user can predict whether a fire occurs, spreads, or spreads damage by which analysis target (AT) in recognizing a fire site through this, and based on this, more quickly, easily and accurately A fire analysis can be performed.

화재 분석 예측 값을 사용자에게 제공하는 단계(S230)는 기계학습 모델로부터 추출된 화재 분석 예측 값을 사용자에게 제공하는 단계일 수 있다.The step of providing the fire analysis prediction value to the user ( S230 ) may be a step of providing the fire analysis prediction value extracted from the machine learning model to the user.

일 실시예로서, 화재 분석 값을 제공하는 단계(S230)는 전술한 바와 같이, 가공 영상(P1)을 제공하는 단계(S170)와 동시에 수행될 수 있다.As an embodiment, the step (S230) of providing the fire analysis value may be performed simultaneously with the step (S170) of providing the processed image P1, as described above.

예를 들면, 사용자는 영상 제공부(170)를 통해 가공 영상(P1)을 제공받을 수 있고, 가공 영상(P1)을 통해 분석 영상, 세부 영상 및 기초 데이터(ad) 등을 제공받을 수 있고, 이와 동시에 화재 분석 예측 값도 사용자에게 제공될 수 있다.For example, the user may be provided with the processed image P1 through the image providing unit 170, and may be provided with an analysis image, detailed image, and basic data ad through the processed image P1, At the same time, a fire analysis prediction value may also be provided to the user.

선택적 실시예로서, 획득된 화재 분석 예측 값은 도 5 내지 도 6을 참고하여 설명한 바와 같이, 해당 분석 대상(AT)이나 분석 대상(AT)을 이루는 구성에 대한 기초 데이터(ad) 중 하나로서 제공될 수도 있다.As an optional embodiment, the obtained fire analysis prediction value is provided as one of the basic data (ad) for the configuration constituting the corresponding analysis target (AT) or the analysis target (AT), as described with reference to FIGS. 5 to 6 . it might be

예를 들면, 사용자가 가공 영상(P1) 중에서 특정 분석 대상(AT)을 선택하여 이에 대한 분석 영상을 제공받는 경우 해당 분석 대상(AT)에 대한 기초 데이터(ad)로서 기계학습 모델을 통해 도출된 화재 분석 예측 값이 동시에 사용자에게 제공될 수 있다.For example, when a user selects a specific analysis target (AT) from among the processed images P1 and receives an analysis image for it, it is derived through a machine learning model as basic data (ad) for the corresponding analysis target (AT). A fire analysis predicted value may be provided to the user at the same time.

이와 같이 본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.As such, the present invention has been described with reference to the embodiments shown in the drawings, which are merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. . Accordingly, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

실시예에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 실시 예의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, "필수적인", "중요하게" 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the embodiment are only embodiments, and do not limit the scope of the embodiment in any way. For brevity of the specification, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of lines between the components shown in the drawings illustratively represent functional connections and/or physical or circuit connections, and in an actual device, various functional connections, physical connections that are replaceable or additional may be referred to as connections, or circuit connections. In addition, unless there is a specific reference such as "essential", "importantly", etc., it may not be a necessary component for the application of the present invention.

실시예의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 실시 예에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 실시 예에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 실시 예들이 한정되는 것은 아니다. 실시 예에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 실시 예를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 실시 예의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In the specification of embodiments (especially in the claims), the use of the term “the” and similar referential terms may be used in both the singular and the plural. In addition, when a range is described in the embodiment, it includes the invention to which individual values belonging to the range are applied (unless there is a description to the contrary), and each individual value constituting the range is described in the detailed description. . Finally, the steps constituting the method according to the embodiment may be performed in an appropriate order, unless the order is clearly stated or there is no description to the contrary. The embodiments are not necessarily limited according to the description order of the steps. The use of all examples or exemplary terms (eg, etc.) in the embodiment is merely for describing the embodiment in detail, and unless it is limited by the claims, the scope of the embodiment is limited by the examples or exemplary terminology. it is not In addition, those skilled in the art will appreciate that various modifications, combinations, and changes may be made in accordance with design conditions and factors within the scope of the appended claims or their equivalents.

10: 화재 분석 시스템
110: 현장 영상 획득부
120: 분석 대상 선별부
130: 분석 영상 획득부
140: 데이터 입력부
150: 영상 가공부
160: 저장부
170: 영상 제공부
P1: 가공 영상
AT: 분석 대상
10: fire analysis system
110: field image acquisition unit
120: analysis target selection unit
130: analysis image acquisition unit
140: data input unit
150: image processing unit
160: storage
170: video providing unit
P1: Machining video
AT: analysis target

Claims (4)

진화작업이 종료된 화재 현장의 감식을 위한 화재 분석 방법으로서,
화재 현장을 스캔하여 화재 현장 영상을 획득하는 단계;
상기 화재 현장에서 파손의 정도, 파손의 경향, 소훼의 정도, 그을음의 방향, 주변 사물의 배치, 화재 당일의 날씨, 화재 당일의 습도 및 화재 당일의 전력 소비량 중 적어도 하나에 기초하여 특이점이 있는 영역 또는 특이점이 있는 사물을 인식하여 인식된 영역 또는 사물을 분석 대상으로 선별하는 단계;
상기 화재 현장에 포함된 분석 대상의 분석 영상을 획득하는 단계;
상기 화재 현장 영상과 상기 분석 영상을 가공하여 가공 영상을 생성하는 단계;
상기 가공 영상을 저장하는 단계; 및
상기 저장된 가공 영상을 사용자의 입력에 의해 독출하여 영상 제공부를 통해 상기 사용자에게 제공하는 단계;를 포함하고,
상기 분석 영상을 획득하는 단계는 상기 분석 대상이 사물인 경우 상기 사물을 부품별로 분해하여 각 부품에 대응되는 세부 영상을 획득하고, 상기 분석 대상이 영역인 경우 상기 영역을 복수의 영역으로 구획하여 각 영역에 대응되는 세부 영상을 획득하는 단계;를 포함하고,
상기 가공 영상을 생성하는 단계는 상기 가공 영상에 상기 분석 대상에 대응되는 상기 세부 영상을 정합하는 단계;를 포함하는, 화재 현장 영상을 활용한 화재 분석 방법.
As a fire analysis method for identification of a fire site where firefighting work has been completed,
acquiring a fire scene image by scanning the fire scene;
An area having a singularity based on at least one of the degree of damage, the tendency of the fire, the degree of fire, the direction of soot, the arrangement of surrounding objects, the weather on the day of the fire, the humidity on the day of the fire, and the power consumption on the day of the fire or recognizing an object having a singularity and selecting the recognized area or object as an analysis target;
acquiring an analysis image of an analysis target included in the fire scene;
generating a processed image by processing the fire scene image and the analysis image;
storing the processed image; and
Including; reading the stored processed image by a user's input and providing it to the user through an image providing unit;
In the obtaining of the analysis image, when the analysis target is an object, the object is decomposed into parts to obtain a detailed image corresponding to each part, and when the analysis target is an area, the area is divided into a plurality of areas and each Including; acquiring a detailed image corresponding to the region;
The generating of the processed image includes matching the detailed image corresponding to the analysis target to the processed image; including, a fire analysis method using a fire scene image.
제1항에 있어서,
상기 영상 제공부는,
상기 사용자가 특정 분석 대상을 선택하는 경우 상기 선택된 분석 대상과 대응되는 상기 세부 영상을 상기 화재 현장 영상에 오버랩시켜 상기 사용자에게 제공하는, 화재 현장 영상을 활용한 화재 분석 방법.
According to claim 1,
The video providing unit,
When the user selects a specific analysis target, the detailed image corresponding to the selected analysis target is overlapped with the fire scene image and provided to the user.
제1항에 있어서,
상기 분석 영상에 상기 분석 대상의 기초 데이터를 입력하는 단계;를 더 포함하는, 화재 현장 영상을 활용한 화재 분석 방법.
According to claim 1,
Inputting the basic data of the analysis target to the analysis image; further comprising, a fire analysis method using a fire scene image.
제1항에 있어서,
상기 가공 영상은 상기 화재 현장의 공간 데이터에 기초하여 생성된 가상 현실 데이터를 포함하는, 화재 현장 영상을 활용한 화재 분석 방법.
According to claim 1,
The processed image includes virtual reality data generated based on spatial data of the fire site, a fire analysis method using a fire scene image.
KR1020210073006A 2021-06-04 2021-06-04 Fire analysis method using fire scene footage KR102364020B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210073006A KR102364020B1 (en) 2021-06-04 2021-06-04 Fire analysis method using fire scene footage

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210073006A KR102364020B1 (en) 2021-06-04 2021-06-04 Fire analysis method using fire scene footage

Publications (1)

Publication Number Publication Date
KR102364020B1 true KR102364020B1 (en) 2022-02-17

Family

ID=80493140

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210073006A KR102364020B1 (en) 2021-06-04 2021-06-04 Fire analysis method using fire scene footage

Country Status (1)

Country Link
KR (1) KR102364020B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114664048A (en) * 2022-05-26 2022-06-24 环球数科集团有限公司 Fire monitoring and fire early warning method based on satellite remote sensing monitoring
KR102571217B1 (en) * 2022-11-16 2023-08-29 주식회사 위니드소프트 Incident analysis system using metaverse in which incident site status information is recorded
KR102615927B1 (en) * 2023-05-24 2023-12-21 대한민국 Training method for fire investigation using fire investigation training system utilizing machine learning

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101931649B1 (en) * 2017-01-06 2018-12-21 한국과학기술원 Method and system for making training program based on virtual reality
KR102160591B1 (en) * 2019-07-24 2020-09-28 동아대학교 산학협력단 Fire situation generation system and its optimization method for fire situation detection model

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101931649B1 (en) * 2017-01-06 2018-12-21 한국과학기술원 Method and system for making training program based on virtual reality
KR102160591B1 (en) * 2019-07-24 2020-09-28 동아대학교 산학협력단 Fire situation generation system and its optimization method for fire situation detection model

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114664048A (en) * 2022-05-26 2022-06-24 环球数科集团有限公司 Fire monitoring and fire early warning method based on satellite remote sensing monitoring
KR102571217B1 (en) * 2022-11-16 2023-08-29 주식회사 위니드소프트 Incident analysis system using metaverse in which incident site status information is recorded
WO2024106736A1 (en) * 2022-11-16 2024-05-23 주식회사 위니드소프트 Incident analysis system using metaverse having incident site state information recorded therein
KR102615927B1 (en) * 2023-05-24 2023-12-21 대한민국 Training method for fire investigation using fire investigation training system utilizing machine learning

Similar Documents

Publication Publication Date Title
KR102364020B1 (en) Fire analysis method using fire scene footage
CN109902630B (en) Attention judging method, device, system, equipment and storage medium
US10769843B1 (en) 3D scene engineering simulation and real-life scene fusion system
US10965913B2 (en) Monitoring apparatus, monitoring system and monitoring method
WO2019128137A1 (en) Online three-dimensional editing systems and methods
Wang et al. Contextualized videos: Combining videos with environment models to support situational understanding
EP2494525A2 (en) A method for automatic material classification and texture simulation for 3d models
US11410390B2 (en) Augmented reality device for visualizing luminaire fixtures
CN110704915B (en) Sight line analysis method, device, computer equipment and storage medium
KR102364028B1 (en) Fire analysis method using machine learning
RU2713876C1 (en) Method and system for detecting alarm events when interacting with self-service device
WO2023142434A1 (en) Rendering engine testing method and apparatus, device, system, storage medium, computer program and computer program product
CN114387400A (en) Three-dimensional scene display method, display device, electronic equipment and server
WO2019164830A1 (en) Apparatus, systems, and methods for tagging building features in a 3d space
WO2019105003A1 (en) Data analysis systems and methods
CN115639981A (en) Digital archive implementation method and system based on 3DGIS
WO2022252688A1 (en) Augmented reality data presentation method and apparatus, electronic device, and storage medium
JP2004532441A (en) System and method for extracting predetermined points of an object in front of a computer-controllable display captured by an imaging device
KR102364022B1 (en) Fire analysis system using VR
JP2023503862A (en) Predictive virtual reconfiguration of physical environments
CN116484448A (en) Industrial model interaction method, system and equipment based on meta universe
KR20080052378A (en) Cad system for building
US20200226833A1 (en) A method and system for providing a user interface for a 3d environment
CN113836337A (en) BIM display method, device, equipment and storage medium
JP2018013878A (en) System, method, and program for supporting information sharing

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant