KR102263029B1 - Risk level estimation method for fire damaged structure - Google Patents

Risk level estimation method for fire damaged structure Download PDF

Info

Publication number
KR102263029B1
KR102263029B1 KR1020180088019A KR20180088019A KR102263029B1 KR 102263029 B1 KR102263029 B1 KR 102263029B1 KR 1020180088019 A KR1020180088019 A KR 1020180088019A KR 20180088019 A KR20180088019 A KR 20180088019A KR 102263029 B1 KR102263029 B1 KR 102263029B1
Authority
KR
South Korea
Prior art keywords
fire
computer device
risk
source image
cracks
Prior art date
Application number
KR1020180088019A
Other languages
Korean (ko)
Other versions
KR20200017588A (en
Inventor
김희선
강제원
류은미
이지은
Original Assignee
이화여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이화여자대학교 산학협력단 filed Critical 이화여자대학교 산학협력단
Priority to KR1020180088019A priority Critical patent/KR102263029B1/en
Publication of KR20200017588A publication Critical patent/KR20200017588A/en
Application granted granted Critical
Publication of KR102263029B1 publication Critical patent/KR102263029B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads

Abstract

화재 피해를 입은 구조물(50)의 위험도 추정 방법은, 컴퓨터 장치(120)가 화재 피해를 입은 구조물(50)에 대한 소스 영상을 획득하는 단계, 상기 컴퓨터 장치(120)가 상기 구조물(50)의 설계 정보(I), 상기 구조물(50)의 처짐값(D) 및 화재발생시간(T)을 획득하는 단계, 상기 컴퓨터 장치(120)가 상기 소스 영상으로부터 상기 구조물(50) 표면의 균열의 양(C)을 계산하는 단계 및 상기 컴퓨터 장치(120)가 상기 계산된 구조물(50) 표면의 균열의 양(C), 상기 구조물(50)의 설계 정보(I), 상기 구조물(50)의 처짐값(D) 및 상기 화재발생시간(T)에 기초하여, 상기 화재 피해를 입은 구조물(50)의 위험도 값을 계산하는 단계를 포함한다.The method of estimating the risk of the structure 50 that has been damaged by fire includes the steps of, by the computer device 120 , acquiring a source image of the structure 50 that has suffered fire damage, and the computer device 120 is the structure 50 of the structure 50 . obtaining design information (I), a deflection value (D) of the structure (50), and a fire time (T), the computer device 120 determines the amount of cracks on the surface of the structure 50 from the source image ( calculating C) and the computer device 120 calculates the calculated amount of cracks on the surface of the structure 50 (C), the design information (I) of the structure (50), and the deflection value of the structure (50) ( D) and, based on the fire occurrence time (T), calculating a risk value of the structure 50 that is damaged by the fire.

Description

화재 피해를 입은 구조물의 위험도 추정 방법{RISK LEVEL ESTIMATION METHOD FOR FIRE DAMAGED STRUCTURE}RISK LEVEL ESTIMATION METHOD FOR FIRE DAMAGED STRUCTURE

본 개시는 구조물의 위험도를 추정하는 기법에 관한 것이다.The present disclosure relates to a technique for estimating the risk of a structure.

화재 발생 후에는 화재에 노출된 구조물이 안전한 지 여부를 파악하는 것이 중요하다. 구조물에 GPS, 가속도계 등과 같은 장비를 부착하여 실시간으로 구조물을 모니터링하는 기법 등이 연구되고 있다.After a fire, it is important to determine whether the structures exposed to the fire are safe. A technique for monitoring a structure in real time by attaching a device such as a GPS or an accelerometer to the structure is being studied.

한편 화재 피해를 입은 구조물 재사용 및 보강여부 파악을 위해서는 구조물의 위험도 정도를 빠르고 정확하게 판단하는 것이 중요하다. 화재 피해를 입은 구조물의 위험도 정도를 파악하기 위해서 구조물이 노출된 온도를 유추해 내는 방법, X-ray 또는 초음파와 같은 비파괴 검사 장비를 이용하여 구조물의 손상 정도를 유추해 내는 검사 방법 등이 연구되어 왔다.On the other hand, it is important to quickly and accurately determine the degree of risk of a structure in order to determine whether to reuse and reinforce a structure damaged by fire. In order to determine the degree of risk of a structure damaged by fire, a method of inferring the temperature to which a structure is exposed and an inspection method of inferring the degree of damage to a structure using non-destructive testing equipment such as X-ray or ultrasound have been studied. come.

(특허문헌 1) 한국공개특허 제10-2010-0026004호(Patent Document 1) Korean Patent Publication No. 10-2010-0026004

(특허문헌 2) 한국공개특허 제10-2016-0091709호(Patent Document 2) Korean Patent Publication No. 10-2016-0091709

(특허문헌 3) 한국공개특허 제10-2014-0049410호(Patent Document 3) Korean Patent Laid-Open No. 10-2014-0049410

본 개시의 일 목적은 카메라(110) 등으로 획득한 구조물 영상, 구조물의 설계 정보, 구조물의 처짐값, 화재발생시간 등에 기초하여, 화재 피해를 입은 구조물의 위험도를 추정하는 방법을 제공하는 것이다.An object of the present disclosure is to provide a method of estimating the risk of a structure damaged by fire, based on an image of a structure obtained with a camera 110 , design information of a structure, a deflection value of a structure, a fire occurrence time, and the like.

상기와 같은 과제를 해결하기 위한 본 발명의 일 실시예는, (a) 컴퓨터 장치(120)가 화재 피해를 입은 구조물(50)에 대한 소스 영상을 획득하는 단계; (b) 상기 컴퓨터 장치(120)가 상기 구조물(50)의 설계 정보(I), 상기 구조물(50)의 처짐값(D) 및 화재발생시간(T)을 획득하는 단계; (c) 상기 컴퓨터 장치(120)가 상기 소스 영상으로부터 기 설정된 방법에 의하여 상기 구조물(50) 표면의 균열의 양(C)을 계산하는 단계; 및 (d) 상기 컴퓨터 장치(120)가 상기 계산된 구조물(50) 표면의 균열의 양(C), 상기 구조물(50)의 설계 정보(I), 상기 구조물(50)의 처짐값(D) 및 상기 화재발생시간(T)에 기초하여, 상기 화재 피해를 입은 구조물(50)의 위험도 값을 계산하는 단계를 포함하는, 화재 피해를 입은 구조물의 위험도 추정 방법을 제공한다.An embodiment of the present invention for solving the above problems, (a) the computer device 120, acquiring a source image of the fire damage to the structure 50; (b) obtaining, by the computer device 120, design information (I) of the structure (50), a deflection value (D) of the structure (50), and a fire occurrence time (T); (c) calculating, by the computer device 120, an amount (C) of cracks on the surface of the structure 50 from the source image by a preset method; and (d) the calculated amount of cracks (C) on the surface of the structure (50) by the computer device (120), the design information (I) of the structure (50), the deflection value (D) of the structure (50) and Based on the fire occurrence time (T), it provides a method for estimating the risk of the fire-damaged structure, comprising the step of calculating the risk value of the fire-damaged structure (50).

또한, 상기 설계 정보(I)는, 상기 구조물(50)의 하중, 재질, 부재, 구조 또는 설계 공법에 대한 정보를 포함하는 것이 바람직하다.In addition, the design information (I), it is preferable to include information about the load, material, member, structure or design method of the structure (50).

또한, 상기 설계 정보(I)에 기초하여 기 설정된 방법에 의하여 상기 구조물(50)의 공칭강도가 결정되는 것이 바람직하다.In addition, it is preferable that the nominal strength of the structure 50 is determined by a preset method based on the design information (I).

또한, 상기 구조물(50)의 하중 및 상기 구조물(50)의 공칭강도에 기초하여, 기 설정된 방법에 의하여 상기 구조물(50)의 하중비(L)가 결정되는 것이 바람직하다.In addition, based on the load of the structure 50 and the nominal strength of the structure 50, it is preferable that the load ratio (L) of the structure 50 is determined by a preset method.

또한, 상기 (d) 단계는, 상기 컴퓨터 장치(120)가 상기 계산된 구조물(50) 표면의 균열의 양(C), 상기 구조물(50)의 하중비(L), 상기 구조물(50)의 처짐값(D), 상기 화재발생시간(T) 각각에 계수를 부여한 값에 기초하여, 상기 화재 피해를 입은 구조물(50)의 위험도 값을 계산하는 단계를 포함하는 것이 바람직하다.In addition, in step (d), the computer device 120 calculates the amount of cracks on the surface of the structure 50 (C), the load ratio (L) of the structure 50, and the It is preferable to include the step of calculating the risk value of the fire-damaged structure 50 based on the value given the coefficient to each of the deflection value (D) and the fire occurrence time (T).

또한, 상기 계수는, 상기 구조물(50)에 가해진 하중 및 상기 구조물(50)의 공칭강도에 기초하여 연산되는 것이 바람직하다.In addition, the coefficient is preferably calculated based on the load applied to the structure 50 and the nominal strength of the structure 50 .

또한, 상기 계수는, 상기 구조물(50)의 공칭강도 대비 상기 구조물(50)에 가해진 하중의 비율(L)에 기초하여 연산되는 것이 바람직하다.In addition, the coefficient is preferably calculated based on a ratio (L) of the load applied to the structure 50 to the nominal strength of the structure 50 .

또한, 상기 계수는, 상기 구조물(50)의 공칭강도 대비 상기 구조물(50)에 가해진 하중의 비율(L)의 범위에 따라 연산되는 것이 바람직하다.In addition, the coefficient is preferably calculated according to the range of the ratio (L) of the load applied to the structure 50 to the nominal strength of the structure (50).

또한, 상기 (c) 단계는, (c1) 상기 컴퓨터 장치(120)가 상기 소스 영상을 사전에 마련된 CNN(Convolutional Neural Network)에 입력하여 상기 구조물(50) 표면의 균열의 양(C)을 계산하는 단계를 포함하는 것이 바람직하다.In addition, in step (c), (c1) the computer device 120 inputs the source image to a pre-prepared CNN (Convolutional Neural Network) to calculate the amount (C) of cracks on the surface of the structure 50 It is preferable to include the step of

또한, 상기 (c1) 단계는, (c11) 상기 컴퓨터 장치(120)가 상기 소스 영상을 사전에 마련된 CNN에 입력하여 상기 소스 영상에서 균열로 인식되는 부분을 추출하는 단계; 및 (c12) 상기 추출된 균열로 인식되는 부분의 픽셀의 수를 합하는 단계를 포함하는 것이 바람직하다.In addition, the step (c1) may include: (c11) extracting, by the computer device 120, a portion recognized as a crack in the source image by inputting the source image to a CNN provided in advance; and (c12) summing the number of pixels in the portion recognized as the extracted crack.

또한, 상기 (c1) 단계는, 상기 소스 영상에 대한 에지 검출을 수행한 전처리 영상이 상기 컴퓨터 장치(120)에 의해 상기 CNN에 더 입력되는 단계를 포함하며, 상기 (c) 단계는, 상기 컴퓨터 장치(120)가 상기 전처리 영상을 사전에 마련된 CNN에 입력하여 상기 구조물(50) 표면의 균열의 양(C)을 계산하는 단계를 포함하는 것이 바람직하다.In addition, the step (c1) includes the step of further inputting a preprocessed image obtained by performing edge detection on the source image to the CNN by the computer device 120, wherein the step (c) includes the computer The apparatus 120 preferably includes the step of inputting the pre-processed image into a CNN prepared in advance to calculate the amount of cracks C on the surface of the structure 50 .

상기와 같은 과제를 해결하기 위한 본 발명의 다른 실시예는, (a') 컴퓨터 장치(120)가 화재 피해를 입은 구조물(50)에 대한 소스 영상을 획득하는 단계; (b') 상기 컴퓨터 장치(120)가 상기 구조물(50)의 설계 정보(I) 및 화재발생시간(T)을 획득하는 단계; (c') 상기 컴퓨터 장치(120)가 상기 소스 영상으로부터 상기 구조물(50)의 처짐값(D)을 계산하는 단계; (d') 상기 컴퓨터 장치(120)가 상기 소스 영상으로부터 상기 구조물(50) 표면의 균열의 양(C)을 계산하는 단계; 및 (e') 상기 컴퓨터 장치(120)가 상기 계산된 구조물(50) 표면의 균열의 양(C), 상기 구조물(50)의 설계 정보(I), 상기 구조물(50)의 처짐값(D) 및 상기 화재발생시간(T)에 기초하여, 상기 화재 피해를 입은 구조물(50)의 위험도 값을 계산하는 단계를 포함하는, 화재 피해를 입은 구조물의 위험도 추정 방법을 제공한다.Another embodiment of the present invention for solving the above problems, (a') the computer device 120, acquiring a source image of the fire damage to the structure 50; (b') obtaining, by the computer device 120, design information (I) and a fire time (T) of the structure (50); (c') calculating, by the computer device 120, a deflection value D of the structure 50 from the source image; (d') calculating, by the computer device 120, the amount (C) of cracks on the surface of the structure (50) from the source image; and (e') the calculated amount of cracks (C) on the surface of the structure (50) by the computer device (120), design information (I) of the structure (50), and a deflection value (D) of the structure (50) And based on the fire occurrence time (T), it provides a method for estimating the risk of the fire-damaged structure, comprising the step of calculating the risk value of the fire-damaged structure (50).

적어도 하나의 실시예에 따르면, 구조물의 영상에 포함된 손상 정보(균열 내지 폭렬), 구조물의 설계 정보, 화재발생시간, 구조물의 처짐값 등을 이용하여 구조물의 위험도를 빠르고 정확하게 추정할 수 있다.According to at least one embodiment, it is possible to quickly and accurately estimate the risk of a structure using damage information (cracks or explosions) included in the image of the structure, design information of the structure, the time of fire, the deflection value of the structure, and the like.

도 1은 본 개시의 일 실시예에 따른 구조물의 위험도를 추정하는 시스템에 대한 블록도이다.
도 2는 본 개시의 일 실시예에 따른 구조물에 대한 소스 영상 및 전처리 영상에 대한 예이다.
도 3은 본 개시의 일 실시예에 따른 컴퓨터 장치)가 소스 영상으로부터 균열로 인식되는 부분을 추출하는 데 사용될 수 있는 딥러닝 네트워크의 구조도의 예이다
도 4는 본 개시의 일 실시예에 따른 컴퓨터 장치가 소스 영상으로부터 균열로 인식되는 부분을 추출하는 방법에 대한 예이다.
도 5는 본 개시의 일 실시예에 따른 화재 피해를 입은 구조물의 위험도 추정 방법의 흐름도이다.
도 6은 본 개시의 다른 실시예에 따른 화재 피해를 입은 구조물의 위험도 추정 방법의 흐름도이다.
1 is a block diagram of a system for estimating the risk of a structure according to an embodiment of the present disclosure.
2 is an example of a source image and a pre-processed image of a structure according to an embodiment of the present disclosure.
3 is an example of a structural diagram of a deep learning network that can be used by a computer device according to an embodiment of the present disclosure to extract a part recognized as a crack from a source image
4 is an example of a method of extracting, by a computer device, a portion recognized as a crack from a source image according to an embodiment of the present disclosure.
5 is a flowchart of a method for estimating the risk of a structure damaged by fire according to an embodiment of the present disclosure.
6 is a flowchart of a method for estimating the risk of a structure damaged by fire according to another embodiment of the present disclosure.

이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the technology to be described below may have various changes and may have various embodiments, specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the technology described below to specific embodiments, and it should be understood to include all changes, equivalents, or substitutes included in the spirit and scope of the technology described below.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components are not limited by the above terms, and only for the purpose of distinguishing one component from other components. used only as For example, a first component may be named as a second component, and similarly, a second component may also be referred to as a first component without departing from the scope of the technology to be described below. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설시된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.In terms of the terms used herein, the singular expression should be understood to include a plural expression unless the context clearly dictates otherwise, and terms such as "comprises" refer to the described feature, number, step, operation, and element. , parts or combinations thereof are to be understood, but not to exclude the possibility of the presence or addition of one or more other features or numbers, step operation components, parts or combinations thereof.

도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.Prior to a detailed description of the drawings, it is intended to clarify that the classification of the constituent parts in the present specification is merely a division according to the main function that each constituent unit is responsible for. That is, two or more components to be described below may be combined into one component, or one component may be divided into two or more for each more subdivided function. In addition, each of the constituent units to be described below may additionally perform some or all of the functions of other constituent units in addition to the main function it is responsible for. Of course, it may be carried out by being dedicated to it.

또한, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, in performing the method or method of operation, each process constituting the method may occur differently from the specified order unless a specific order is clearly described in context. That is, each process may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

이하 설명하는 기술은 화재로 인한 피해를 받은 구조물에 대한 위험도를 추정하는 기법이다. "구조물"은 건물, 교량, 터널 등과 같은 건축 구조물 및 토목 구조물을 포함할 수 있다. A technique to be described below is a technique for estimating the degree of risk for a structure damaged by a fire. “Structure” may include architectural and civil structures such as buildings, bridges, tunnels, and the like.

이하 설명하는 기술은 구조물 외부 영역에 발생하는 손상 정보를 기준으로 해당 구조물의 위험도를 평가하는 기법이다. 구조물의 외부영역은 구조물 중 밖으로 드러난 부분을 의미한다. 예컨대, 구조물의 외부 영역은 외벽면, 보 표면 등과 같이 육안으로 확인 가능한 부분을 의미한다. 구조물 외부 영역에 발생하는 손상은 균열(crack) 내지 처짐(deflection)과 같이 육안으로 확인 가능한 손상을 의미할 수 있다. 화재로 인하여 구조물에 발생한 균열 내지 처짐을 이하 "화재 손상"이라고 명명한다.The technique to be described below is a technique for evaluating the risk of the structure based on damage information occurring in the area outside the structure. The outer area of the structure means the part exposed outside the structure. For example, the outer region of the structure means a portion that can be visually confirmed, such as an outer wall surface, a beam surface, and the like. Damage occurring in the area outside the structure may mean damage that can be confirmed with the naked eye, such as cracks or deflections. Cracks or sags occurring in a structure due to a fire are hereinafter referred to as "fire damage".

이하 설명하는 기술은 카메라로 획득한 영상을 분석하여 구조물의 위험도를 추정한다. 카메라로 획득한 영상에 포함된 화재 손상에 대한 영상 정보를 이하 "화재 손상 정보"라고 명명한다. 이하 도면을 참조하면서 화재 손상을 입은 구조물의 위험도를 추정하는 기법에 대해 설명한다.The technology to be described below estimates the risk of a structure by analyzing an image acquired with a camera. Image information about fire damage included in the image acquired by the camera is hereinafter referred to as "fire damage information". Hereinafter, a technique for estimating the risk of fire-damaged structures will be described with reference to the drawings.

도 1은 본 개시의 일 실시예에 따른 구조물(50)의 위험도를 추정하는 시스템에 대한 블록도이다. 구조물(50)의 위험도 추정 시스템(100)은 구조물(50)에 설치된 카메라(110), 컴퓨터 장치(120) 및 설계 DB(130)를 포함할 수 있다.1 is a block diagram of a system for estimating the risk of a structure 50 according to an embodiment of the present disclosure. The system 100 for estimating the risk of the structure 50 may include a camera 110 installed in the structure 50 , a computer device 120 , and a design DB 130 .

구조물(50)은 화재로 인한 손상을 받은 상태라고 가정한다. 카메라(110)는 구조물(50)의 영상을 획득할 수 있다. 카메라(110)는 구조물(50)의 외부 영역에 대한 영상을 획득할 수 있다. 카메라(110)는 구조물(50)의 외부에 발생한 화재 손상을 촬영할 수 있는 장비이다. 카메라(110)는 화재 손상 정보 분석이 가능한 영상을 생성할 수 있다. 예컨대, 카메라(110)는 HD 급 이상의 영상을 생성하는 장치일 수 있다. 카메라(110)는 구조물(50)과의 거리 등을 고려하여 알맞는 하드웨어 성능을 갖출 수 있다. 카메라(110)는 CCTV, 캠코더, 디지털 카메라(110), 스마트폰 카메라(110) 등일 수 있다. 카메라(110)는 일반 카메라(110) 외에도 적외선 카메라(110) 등을 이용할 수 있다. 카메라(110)가 획득하는 영상을 소스 영상이라고 명명한다. 소스 영상은 구조물(50)의 화재 손상 정보를 포함할 수 있다.It is assumed that the structure 50 is damaged by fire. The camera 110 may acquire an image of the structure 50 . The camera 110 may acquire an image of an external area of the structure 50 . The camera 110 is an equipment capable of photographing fire damage that occurred outside the structure 50 . The camera 110 may generate an image capable of analyzing fire damage information. For example, the camera 110 may be a device that generates an HD level or higher image. The camera 110 may have appropriate hardware performance in consideration of a distance from the structure 50 and the like. The camera 110 may be a CCTV, a camcorder, a digital camera 110 , a smartphone camera 110 , and the like. The camera 110 may use an infrared camera 110 in addition to the general camera 110 . An image acquired by the camera 110 is called a source image. The source image may include fire damage information of the structure 50 .

설계 DB(130)는 구조물(50)에 대한 설계 정보(I)를 보유할 수 있다. 설계 정보(I)는 구조물(50)의 하중, 재질, 부재, 구조, 설계 공법 등에 대한 정보를 포함할 수 있다. 일 실시예에서, 설계 정보(I)에 기초하여 구조물(50)의 공칭강도가 결정될 수 있다. 설계 DB(130)는 구조물(50)의 설계 정보(I)에 기반한 내구도 정보를 보유할 수도 있다. 구조물(50)의 설계 정보(I)에 기반한 내구도를 "기본 내구도"라고 명명한다.The design DB 130 may retain design information I for the structure 50 . The design information I may include information about a load, a material, a member, a structure, a design method, and the like of the structure 50 . In one embodiment, the nominal strength of the structure 50 may be determined based on the design information I. The design DB 130 may retain durability information based on the design information I of the structure 50 . Durability based on the design information I of the structure 50 is called "basic durability".

한편 도 1은 설계 DB(130)를 별도의 객체로 도시하였으나, 설계 DB(130)는 컴퓨터 장치(120)에 포함된 구성일 수도 있다. 예컨대, 컴퓨터 장치(120)가 구조물(50)의 설계 정보(I) 내지 내구도에 대한 정보를 저장 장치에 보유할 수도 있다.Meanwhile, although FIG. 1 illustrates the design DB 130 as a separate object, the design DB 130 may be a component included in the computer device 120 . For example, the computer device 120 may retain information about the design information (I) and durability of the structure 50 in the storage device.

컴퓨터 장치(120)는 수집한 정보를 기반으로 구조물(50)에 대한 위험도를 추정할 수 있다. 컴퓨터 장치(120)는 수집한 정보를 처리하여 구조물(50)의 위험도에 대한 정보를 산출하는 장치이다. 컴퓨터 장치(120)는 연산을 위한 프로세서 및 메모리 등을 포함한다. 예컨대, 컴퓨터 장치(120)는 PC, 노트북, 스마트폰, 서버 등일 수 있다. 컴퓨터 장치(120)는 카메라(110)가 획득한 소스 영상 및 설계 DB(130)가 보유한 설계 정보(I)(또는 기본 내구도)를 수집하여 구조물(50)에 대한 위험도를 평가한다.The computer device 120 may estimate the degree of risk to the structure 50 based on the collected information. The computer device 120 is a device that processes the collected information to calculate information on the risk level of the structure 50 . The computer device 120 includes a processor and a memory for arithmetic operations. For example, the computer device 120 may be a PC, a notebook computer, a smart phone, a server, or the like. The computer device 120 evaluates the risk to the structure 50 by collecting the source image acquired by the camera 110 and the design information I (or basic durability) possessed by the design DB 130 .

컴퓨터 장치(120)는 유선 또는 무선으로 카메라(110) 및 설계 DB(130)로부터 데이터를 전달받을 수 있다. 또는 컴퓨터 장치(120)는 카메라(110) 및 설계 DB(130)가 측정하거나 보유한 정보를 별도의 저장 매체(하드디스크, 플래시 메모리 등)를 통해 입력받을 수도 있다.The computer device 120 may receive data from the camera 110 and the design DB 130 by wire or wirelessly. Alternatively, the computer device 120 may receive information measured or held by the camera 110 and the design DB 130 through a separate storage medium (hard disk, flash memory, etc.).

이하 컴퓨터 장치(120)가 구조물(50)의 위험도를 추정하기 위하여 필요한 정보를 이용하여 위험도를 추정하는 과정에 대해 설명한다.Hereinafter, a process of estimating the risk by using the information necessary for the computer device 120 to estimate the risk of the structure 50 will be described.

먼저 컴퓨터 장치(120)는 구조물(50)의 화재 손상 정보를 포함하는 소스 영상을 입력받을 수 있다. 도 2는 본 개시의 일 실시예에 따른 구조물(50)에 대한 소스 영상 및 전처리 영상에 대한 예이다. 도 2(a)는 소스 영상에 대한 예이다. 소스 영상은 구조물(50)의 외부 영역에 대한 영상으로 균열 등 화재 손상 정보를 가질 수 있다.First, the computer device 120 may receive a source image including fire damage information of the structure 50 . 2 is an example of a source image and a pre-processed image of the structure 50 according to an embodiment of the present disclosure. 2(a) is an example of a source image. The source image is an image of the external region of the structure 50 and may have information on fire damage such as cracks.

한편 컴퓨터 장치(120)는 소스 영상을 일정하게 전처리한 전처리 영상을 추가로 이용할 수도 있다. "전처리 영상"은 소스 영상에서 화재 손상 정보를 강조한 영상이다. 컴퓨터 장치(120)는 소스 영상에서 에지 탐색을 수행하여 전처리 영상을 생성할 수 있다. 물론 에지 탐색은 현재 공개된 다양한 알고리즘을 사용할 수 있다. 도 2(b)는 도 2(a)의 소스 영상을 이용하여 생성한 전처리 영상에 대한 예이다. 한편 컴퓨터 장치(120)는 소스 영상으로부터 전처리 영상을 생성하지 않고, 별도의 객체로부터 사전에 마련된 전처리 영상을 수신할 수도 있다.Meanwhile, the computer device 120 may additionally use a pre-processed image obtained by uniformly pre-processing the source image. "Pre-processed image" is an image that emphasizes fire damage information in the source image. The computer device 120 may generate a preprocessed image by performing edge search on the source image. Of course, edge search can use various currently published algorithms. FIG. 2(b) is an example of a preprocessed image generated using the source image of FIG. 2(a). Meanwhile, the computer device 120 may receive a pre-processed image prepared in advance from a separate object without generating a pre-processed image from the source image.

도 3은 본 개시의 일 실시예에 따른 컴퓨터 장치(120)가 소스 영상으로부터 균열로 인식되는 부분을 추출하는 데 사용될 수 있는 딥러닝 네트워크의 구조도의 예이다. 예를 들어, 컴퓨터 장치(120)는 딥 러닝 기법 중 하나인 CNN(Convolutional Neural Network)을 이용하여 소스 영상에서 균열로 인식되는 부분을 추출할 수 있다. CNN은 하나 또는 여러 개의 콘벌루션 계층(convolution layer)과 그 위에 올려진 일반적인 인공 신경망 계층들로 이루어 질 수 있으며, 가중치와 풀링 계층(pooling layer)들을 추가로 활용할 수 있다. 콘벌루션 계층의 역할은 깊이에 따라 학습한 특징정보 맵을 추출하는 것이다. 예를 들어서, 입력으로부터 가까운 깊이에서의 콘벌루션 계층은 경계와 선과 같은 기본적인 입력 이미지 특징을 학습할 수 있다. 반면에 네트워크의 종단 부분에 가까운 콘벌루션 계층은 입력 이미지를 보다 더 추상적으로 표현할 수 있는 특징을 학습할 수 있다. 균열은 선과 모서리의 집합으로 이루어지므로 저층의 특징정보들이 균열의 감지에 유용하게 사용될 수 있다. 균열을 효과적으로 묘사하는 특징정보는 콘크리트, 보에 섞인 잡음이나 중요하지 않은 미세한 균열 등에도 민감하게 반응할 수 있다.3 is an example of a structural diagram of a deep learning network in which the computer device 120 according to an embodiment of the present disclosure may be used to extract a portion recognized as a crack from a source image. For example, the computer device 120 may extract a part recognized as a crack from the source image using a Convolutional Neural Network (CNN), which is one of deep learning techniques. A CNN may consist of one or several convolutional layers and general artificial neural network layers mounted thereon, and may additionally utilize weights and pooling layers. The role of the convolutional layer is to extract the learned feature information map according to the depth. For example, a convolutional layer at a depth close to the input can learn basic input image features such as boundaries and lines. On the other hand, a convolutional layer close to the end of the network can learn features that can represent the input image more abstractly. Since a crack consists of a set of lines and edges, the characteristic information of the lower layer can be usefully used to detect cracks. Feature information that effectively describes cracks can respond sensitively to noise mixed in concrete, beams, or insignificant microcracks.

일 실시예에서, CNN은 두 개의 스트림(stream)의 딥러닝 네트워크 구조를 가질 수 있다. 이러한 두 개의 스트림(stream)의 딥러닝 네트워크 구조를 통해 의미 있는 균열만을 구분해낼 수 있다. 예를 들어, CNN은 저레벨 네트워크(low-level 네트워크)와 웨이팅 네트워크(weighting 네트워크)를 포함할 수 있다. 저레벨 네트워크는 저층의 특징을 추출할 수 있고, 웨이팅 네트워크는 콘크리트 보 등 구조물(50)에서 균열의 위치를 대략적으로 탐색할 수 있어, 이러한 네트워크들을 결합한 CNN은 해당 관심 영역에서의 균열만을 찾아낼 수 있다. 저레벨 네트워크는 에지와 같은 이미지 기본 특징을 검출하는 역할을 할 수 있다. 웨이팅 네트워크는 주요 균열이 위치한 부분에는 높은 가중치를, 그렇지 않은 부분에는 낮은 가중치를 부여하여 잡음을 억제할 수 있다. 최종적으로 네트워크의 출력은 두 네트워크에서 출력한 특징 맵의 곱셈을 사용하여 두 네트워크를 통해 얻어진 특징 맵을 결합할 수 있다. 결과적으로 네트워크에 캡처된 모든 특징 중에서 화재 피해 정도와 유의미한 상관관계가 있는 중요한 균열만 표시되도록 할 수 있다.In one embodiment, CNN may have a deep learning network structure of two streams. Only meaningful cracks can be distinguished through the deep learning network structure of these two streams. For example, the CNN may include a low-level network (low-level network) and a weighting network (weighting network). The low-level network can extract the features of the low floor, and the weighting network can roughly search the location of cracks in the structure 50 such as concrete beams, so the CNN combining these networks can only find cracks in the region of interest. have. The low-level network may serve to detect image basic features such as edges. The weighting network can suppress noise by giving high weights to areas where major cracks are located and low weights to areas where major cracks are not. Finally, the output of the network can combine the feature maps obtained through the two networks by using the multiplication of the feature maps output from the two networks. As a result, of all the features captured in the network, it is possible to show only the critical cracks that have a significant correlation with the degree of fire damage.

저레벨 네트워크와 웨이팅 네트워크의 콘벌루션 계수는 임의의 값으로 설정될 수 있으며, 예를 들어, 3으로 설정될 수 있다. 일 실시예에서, 모든 콘볼루션 계층의 필터 크기를 3x3으로 설정하여 필터 커널이 더욱 세밀한 이미지의 특징을 학습 할 수 있도록 할 수 있다. 웨이팅 네트워크는 이전의 콘볼루션 계층의 특징 맵과 엘리먼트 별로 합한 결과를 사용하여 학습하도록 하여 피쳐맵이 일련의 콘볼루션 계층과 디콘볼루션(deconvolution) 계층을 통과하더라도 낮은 레벨에서 학습된 이미지의 세밀한 특징들을 잃지 않도록 할 수 있다. 이러한 방식으로, CNN은 네트워크가 깊어짐에도 균열을 검출하기 위해 세밀한 이미지의 특징들을 사용할 수 있다.The convolution coefficients of the low-level network and the weighting network may be set to an arbitrary value, for example, may be set to three. In an embodiment, the filter size of all convolutional layers may be set to 3x3 so that the filter kernel can learn more detailed image features. The weighting network learns using the feature map of the previous convolutional layer and the summation result for each element, so that even if the feature map passes a series of convolutional and deconvolutional layers, the detailed features of the image learned at a low level You can make sure you don't lose them In this way, CNNs can use features of fine-grained images to detect cracks even as the network deepens.

도 4는 본 개시의 일 실시예에 따른 컴퓨터 장치(120)가 소스 영상으로부터 균열로 인식되는 부분을 추출하는 방법에 대한 예이다. 컴퓨터 장치(120)는 소스 영상을 사전에 마련된 CNN에 입력하여 소스 영상으로부터 균열로 인식되는 부분을 효과적으로 추출할 수 있다.4 is an example of a method in which the computer device 120 extracts a portion recognized as a crack from a source image according to an embodiment of the present disclosure. The computer device 120 may effectively extract a part recognized as a crack from the source image by inputting the source image to a CNN prepared in advance.

일 실시예에서, CNN은 사전에 학습될 수 있다. 소스 영상에 대한 CNN은 화재 손상을 입은 구조물(50)의 영상 데이터를 사용하여 사전학습할 수 있다. 또한 DRIVE(Digital Retinal Images for Vessel Extraction) 영상 데이터, BSDS500(The Berkely Segmentation Dataset and Benchmark) 영상 데이터 등을 추가하여 CNN을 사전학습할 수 있다. 다른 실시예에서, 소스 영상에 대한 CNN은 화재 손상을 입은 구조물(50)의 영상과 이에 대한 위험도 영상(색상 또는 수치로 표현됨)을 결과로 하는 학습 과정을 거칠 수 있다. CNN은 학습 단계를 거쳐 최적의 파라미터들이 설정된 모델을 사용할 수 있다. 도 4의 첫 번째 열은 원본 소스 영상을 보여준다. 두 번째 및 세 번째 열은 각각 저레벨 네트워크 및 웨이팅 네트워크의 결과를 나타낸다. 마지막 열은 저레벨 네트워크와 웨이팅 네트워크의 조합으로 얻어지는 최종 결과 영상을 보여준다. 그림의 네 번째 열에서 확인할 수 있듯이 두 네트워크의 결과를 결합한 최종 결과 영상은 화재 후 콘크리트의 균열 정보만을 강조하여 보인다. 예를 들어서, 패치 1과 패치 2의 최종 출력에서는 균열이 포착된 결과를 보여주지만, 균열은 없고 잡음만 있는 패치 3에서는 빈 이미지를 보여준다.In one embodiment, the CNN may be trained in advance. The CNN for the source image may be pre-trained using the image data of the fire-damaged structure 50 . In addition, by adding DRIVE (Digital Retinal Images for Vessel Extraction) image data and BSDS500 (The Berkely Segmentation Dataset and Benchmark) image data, CNN can be pre-trained. In another embodiment, the CNN for the source image may undergo a learning process resulting in an image of the fire-damaged structure 50 and a risk image (expressed in color or numerical value) therefor. A CNN can use a model with optimal parameters set through a learning phase. The first column of FIG. 4 shows the original source image. The second and third columns show the results of the low-level network and the weighting network, respectively. The last column shows the final result image obtained by the combination of the low-level network and the weighting network. As can be seen in the fourth column of the figure, the final result video combining the results of the two networks emphasizes only the crack information of the concrete after the fire. For example, the final output of patch 1 and patch 2 shows cracks captured, but patch 3 with no cracks and only noise shows a blank image.

도 5는 본 개시의 일 실시예에 따른 화재 피해를 입은 구조물(50)의 위험도 추정 방법의 흐름도(500)이다.5 is a flowchart 500 of a method for estimating the risk of a structure 50 that has suffered fire damage according to an embodiment of the present disclosure.

단계(510)에서, 컴퓨터 장치(120)는 화재 피해를 입은 구조물(50)에 대한 소스 영상을 획득할 수 있다.In operation 510 , the computer device 120 may acquire a source image of the structure 50 damaged by fire.

단계(520)에서, 컴퓨터 장치(120)는 구조물(50)의 설계 정보(I), 구조물(50)의 처짐값(D) 및 화재발생시간(T)을 획득할 수 있다. 여기서, 구조물(50)의 처짐값(D)은 구조물(50)이 하중을 받아 변형된 값을 의미하고, 화재발생시간(T)은 화재가 발생하여 구조물(50)이 고온 등에 노출된 시간을 의미한다.In step 520 , the computer device 120 may obtain design information I of the structure 50 , a deflection value D of the structure 50 , and a fire occurrence time T. Here, the deflection value (D) of the structure 50 means a value that the structure 50 is deformed by receiving a load, and the fire occurrence time (T) means the time when a fire occurs and the structure 50 is exposed to high temperature, etc. do.

단계(530)에서, 컴퓨터 장치(120)는 소스 영상으로부터 구조물(50) 표면의 균열의 양(C)을 계산할 수 있다.In operation 530 , the computer device 120 may calculate an amount C of cracks on the surface of the structure 50 from the source image.

일 실시예에서, 컴퓨터 장치(120)는 소스 영상을 사전에 마련된 CNN에 입력하여 구조물(50) 표면의 균열의 양(C)을 계산할 수 있다. 예를 들어, 컴퓨터 장치(120)는, 소스 영상을 사전에 마련된 CNN에 입력하여 소스 영상에서 균열로 인식되는 부분을 추출할 수 있다. 여기서, CNN에는 도 3에 도시된 딥러닝 네트워크 등이 사용될 수 있다. 소스 영상에 대한 에지 검출을 수행한 전처리 영상이 컴퓨터 장치(120)에 의해 CNN에 더 입력될 수 있다. 소스 영상에서 균열로 인식되는 부분이 추출되면, 추출된 균열로 인식되는 부분의 픽셀의 수를 합하여 구조물(50) 표면의 균열의 양(C)을 계산할 수 있다. 또는, 균열로 인식되는 부분의 픽셀의 화소값을 더하여 균열의 양을 계산할 수 있다.In one embodiment, the computer device 120 may calculate the amount of cracks (C) on the surface of the structure 50 by inputting the source image to a CNN prepared in advance. For example, the computer device 120 may extract a part recognized as a crack from the source image by inputting the source image to a CNN prepared in advance. Here, the deep learning network shown in FIG. 3 may be used for the CNN. A preprocessed image obtained by performing edge detection on the source image may be further input to the CNN by the computer device 120 . When a portion recognized as a crack is extracted from the source image, the amount of cracks (C) on the surface of the structure 50 may be calculated by summing the number of pixels in the portion recognized as the extracted crack. Alternatively, the amount of cracks may be calculated by adding pixel values of pixels in the portion recognized as cracks.

단계(540)에서, 컴퓨터 장치(120)는 계산된 구조물(50) 표면의 균열의 양(C), 구조물(50)의 설계 정보(I), 구조물(50)의 처짐값(D), 화재발생시간(T) 등에 기초하여, 화재 피해를 입은 구조물(50)의 위험도 값을 계산할 수 있다.In step 540 , the computer device 120 calculates the calculated amount of cracks on the surface of the structure 50 (C), design information (I) of the structure ( 50 ), the deflection value (D) of the structure ( 50 ), and the occurrence of a fire. Based on the time (T) and the like, it is possible to calculate the risk value of the fire damage to the structure (50).

일 실시예에서, 컴퓨터 장치(120)는 계산된 구조물(50) 표면의 균열의 양(C), 구조물(50)의 하중비(L), 구조물(50)의 처짐값(D), 화재발생시간(T) 각각에 일정한 계수(AcAs, Al, Ad, At)를 부여한 값에 기초하여, 아래 식과 같이 화재 피해를 입은 구조물(50)의 위험도 값을 계산할 수 있다. In one embodiment, the computer device 120 calculates the calculated amount of cracks on the surface of the structure 50 (C), the load ratio (L) of the structure 50, the deflection value (D) of the structure 50, and the time of fire. (t), you can calculate the risk value of the structure 50 based on the value assigned by a certain coefficient (a c a s, a l , a d, a t), dressed in a fire damage as the expression below, respectively.

Figure 112018074671356-pat00001
Figure 112018074671356-pat00001

여기서, 구조물(50)의 하중비(L)는, 구조물(50)의 하중 및 구조물(50)의 공칭강도에 기초하여 결정될 수 있다. 컴퓨터 장치(120)가 구조물(50)의 하중비(L)에 부여하는 계수(Al)는, 구조물(50)에 가해진 하중 및 구조물(50)의 공칭강도에 기초하여 결정될 수 있다. 일 실시예에서, 구조물(50)의 하중비(L)에 부여되는 계수는, 구조물(50)의 공칭강도 대비 구조물(50)에 가해진 하중의 비율(L)의 범위에 따라 결정될 수 있다. 예를 들어, 구조물(50)의 하중비(L)에 부여되는 계수는 아래 표 1과 같이 결정될 수 있다.Here, the load ratio L of the structure 50 may be determined based on the load of the structure 50 and the nominal strength of the structure 50 . Computer apparatus coefficient (A l) of 120 is given to the load ratio (L) of the structure 50, it may be determined based on the nominal load and the strength of the structure 50 is applied to the structure 50. In one embodiment, the coefficient given to the load ratio L of the structure 50 may be determined according to the range of the ratio L of the load applied to the structure 50 to the nominal strength of the structure 50 . For example, the coefficient given to the load ratio L of the structure 50 may be determined as shown in Table 1 below.

구조물(50)의 공칭강도 대비 구조물(50)에 가해진 하중의 비율(L)The ratio of the load applied to the structure 50 to the nominal strength of the structure 50 (L) 구조물(50)의 하중비에 부여되는 계수(Al) Coefficient (A l ) given to the load ratio of the structure 50 0% < 하중비 <= 40%0% < load ratio <= 40% 44 40% < 하중비 <= 60%40% < load ratio <= 60% 55 60% < 하중비 <= 100%60% < load ratio <= 100% 66

도 6은 본 개시의 다른 실시예에 따른 화재 피해를 입은 구조물(50)의 위험도 추정 방법의 흐름도(600)이다.6 is a flowchart 600 of a method for estimating the risk of a structure 50 that has suffered fire damage according to another embodiment of the present disclosure.

단계(610)에서, 컴퓨터 장치(120)은 화재 피해를 입은 구조물(50)에 대한 소스 영상을 획득할 수 있다.In operation 610 , the computer device 120 may acquire a source image of the structure 50 damaged by fire.

단계(620)에서, 컴퓨터 장치(120)는 구조물(50)의 설계 정보(I) 및 화재발생시간(T)을 획득할 수 있다.In step 620 , the computer device 120 may acquire the design information I and the fire time T of the structure 50 .

단계(630)에서, 컴퓨터 장치(120)는 소스 영상으로부터 구조물(50)의 처짐값(D)을 계산할 수 있다.In operation 630 , the computer device 120 may calculate a deflection value D of the structure 50 from the source image.

단계(640)에서, 컴퓨터 장치(120)는 소스 영상으로부터 구조물(50) 표면의 균열의 양(C)을 계산할 수 있다.In operation 640 , the computer device 120 may calculate an amount C of cracks on the surface of the structure 50 from the source image.

단계(650)에서, 컴퓨터 장치(120)가 계산된 구조물(50) 표면의 균열의 양(C), 구조물(50)의 설계 정보(I), 구조물(50)의 처짐값(D) 및 화재발생시간(T)에 기초하여, 화재 피해를 입은 구조물(50)의 위험도 값을 계산할 수 있다.In step 650 , the computer device 120 calculates the amount of cracks on the surface of the structure 50 (C), the design information (I) of the structure ( 50 ), the deflection value (D) of the structure ( 50 ), and the occurrence of fire Based on the time T, it is possible to calculate a risk value of the structure 50 that has suffered fire damage.

참고로, 본 개시의 실시예에 따른 도 1에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 구성 요소를 의미하며, 소정의 역할들을 수행한다.For reference, the components shown in FIG. 1 according to an embodiment of the present disclosure refer to hardware components such as software or FPGA (Field Programmable Gate Array) or ASIC (Application Specific Integrated Circuit), and perform predetermined roles. .

그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, 'components' are not limited to software or hardware, and each component may be configured to reside in an addressable storage medium or to reproduce one or more processors.

따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, as an example, a component includes components such as software components, object-oriented software components, class components and task components, and processes, functions, properties, procedures, sub It includes routines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.

구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.Components and functions provided within the components may be combined into a smaller number of components or further divided into additional components.

본 개시의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.An embodiment of the present disclosure may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, computer-readable media may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism, and includes any information delivery media.

본 실시예 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시예는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.This embodiment and the drawings attached to this specification only clearly show a part of the technical idea included in the above-described technology, and within the scope of the technical idea included in the specification and drawings of the above-described technology, those skilled in the art can easily It will be apparent that all inferred modified examples and specific embodiments are included in the scope of the above-described technology.

50: 구조물
100: 위험도 추정 시스템
110: 카메라
120: 컴퓨터 장치
130: 설계 DB
I: 설계 정보
L: 하중비
D: 처짐값
T: 화재발생시간
C: 균열의 양
50: structure
100: risk estimation system
110: camera
120: computer device
130: design DB
I: Design information
L: load ratio
D: deflection value
T: time of fire
C: amount of cracks

Claims (12)

(a) 컴퓨터 장치(120)가 화재 피해를 입은 구조물(50)에 대한 소스 영상을 획득하는 단계;
(b) 상기 컴퓨터 장치(120)가 상기 구조물(50)의 설계 정보(I), 상기 구조물(50)의 처짐값(D) 및 화재발생시간(T)을 획득하는 단계;
(c) 상기 컴퓨터 장치(120)가 상기 소스 영상으로부터 기 설정된 방법에 의하여 상기 구조물(50) 표면의 균열의 양(C)을 계산하는 단계; 및
(d) 상기 컴퓨터 장치(120)가 상기 계산된 구조물(50) 표면의 균열의 양(C), 상기 구조물(50)의 설계 정보(I), 상기 구조물(50)의 처짐값(D) 및 상기 화재발생시간(T)에 기초하여, 상기 화재 피해를 입은 구조물(50)의 위험도 값을 계산하는 단계를 포함하고,
상기 설계 정보(I)는, 상기 구조물(50)의 하중, 재질, 부재, 구조 및 설계 공법에 대한 정보를 포함하고,
상기 설계 정보(I)에 기초하여 기 설정된 방법에 의하여 상기 구조물(50)의 공칭강도가 결정되고,
상기 구조물(50)의 하중 및 상기 구조물(50)의 공칭강도에 기초하여, 기 설정된 방법에 의하여 상기 구조물(50)의 하중비(L)가 결정되고,
상기 (d) 단계는,
상기 컴퓨터 장치(120)가 상기 계산된 구조물(50) 표면의 균열의 양(C), 상기 구조물(50)의 하중비(L), 상기 구조물(50)의 처짐값(D), 상기 화재발생시간(T) 각각에 계수를 부여한 값에 기초하여, 상기 화재 피해를 입은 구조물(50)의 위험도 값을 다음의 수학식을 이용해 계산하는 단계를 포함하고,
Figure 112021010916273-pat00008
(여기서, AcAs, Al, Ad, At는 계수)
상기 하중비(L)에 부여되는 상기 계수(A1)는,
상기 하중비(L)가 0% 초과 40% 이하일 경우, 4이고,
상기 하중비(L)가 40% 초과 60% 이하일 경우, 5이고,
상기 하중비(L)가 60% 초과 100% 이하일 경우, 6이며,
상기 (c) 단계는,
(c1) 상기 컴퓨터 장치(120)가 상기 소스 영상을 사전에 마련된 CNN(Convolutional Neural Network)에 입력하여 상기 구조물(50) 표면의 균열의 양(C)을 계산하는 단계를 포함하며,
상기 (c1) 단계는,
(c11) 상기 컴퓨터 장치(120)가 상기 소스 영상을 사전에 마련된 CNN에 입력하여 상기 소스 영상에서 균열로 인식되는 부분을 추출하는 단계; 및
(c12) 상기 추출된 균열로 인식되는 부분의 픽셀의 수를 합하는 단계를 포함하는,
화재 피해를 입은 구조물의 위험도 추정 방법.
(a) obtaining, by the computer device 120, a source image of the fire-damaged structure 50;
(b) obtaining, by the computer device 120, design information (I) of the structure (50), a deflection value (D) of the structure (50), and a fire occurrence time (T);
(c) calculating, by the computer device 120, an amount (C) of cracks on the surface of the structure 50 from the source image by a preset method; and
(d) the computer device 120 calculates the amount of cracks on the surface of the structure 50 (C), the design information (I) of the structure 50, the deflection value (D) of the structure 50 and the Based on the fire occurrence time (T), comprising the step of calculating the risk value of the fire damaged structure (50),
The design information (I) includes information on the load, material, member, structure and design method of the structure 50,
The nominal strength of the structure 50 is determined by a preset method based on the design information (I),
Based on the load of the structure 50 and the nominal strength of the structure 50, the load ratio L of the structure 50 is determined by a preset method,
Step (d) is,
The computer device 120 calculates the amount of cracks on the surface of the structure 50 (C), the load ratio (L) of the structure 50, the deflection value (D) of the structure 50, and the fire time (T) based on the value given a coefficient to each, comprising the step of calculating the risk value of the fire damage structure 50 using the following equation,
Figure 112021010916273-pat00008
(where A c A s , A l , A d , A t are coefficients)
The coefficient (A 1 ) given to the load ratio (L) is,
When the load ratio (L) is greater than 0% and less than or equal to 40%, it is 4,
When the load ratio (L) is more than 40% and less than or equal to 60%, it is 5,
When the load ratio (L) is more than 60% and less than or equal to 100%, it is 6,
The step (c) is,
(c1) calculating, by the computer device 120, the amount of cracks (C) on the surface of the structure 50 by inputting the source image to a pre-prepared Convolutional Neural Network (CNN),
The step (c1) is,
(c11) extracting, by the computer device 120, a portion recognized as a crack in the source image by inputting the source image to a CNN prepared in advance; and
(c12) including the step of summing the number of pixels in the portion recognized as the extracted crack,
A method of estimating the risk of fire-damaged structures.
삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 계수는, 상기 구조물(50)에 가해진 하중 및 상기 구조물(50)의 공칭강도에 기초하여 연산된 것인,
화재 피해를 입은 구조물의 위험도 추정 방법.
According to claim 1,
The coefficient is calculated based on the load applied to the structure 50 and the nominal strength of the structure 50,
A method of estimating the risk of fire-damaged structures.
제6항에 있어서,
상기 계수는, 상기 구조물(50)의 공칭강도 대비 상기 구조물(50)에 가해진 하중의 비율(L)에 기초하여 연산된 것인,
화재 피해를 입은 구조물의 위험도 추정 방법.
7. The method of claim 6,
The coefficient is calculated based on the ratio (L) of the load applied to the structure 50 to the nominal strength of the structure 50,
A method of estimating the risk of fire-damaged structures.
제7항에 있어서,
상기 계수는, 상기 구조물(50)의 공칭강도 대비 상기 구조물(50)에 가해진 하중의 비율(L)의 범위에 따라 연산된 것인,
화재 피해를 입은 구조물의 위험도 추정 방법.
8. The method of claim 7,
The coefficient is calculated according to the range of the ratio (L) of the load applied to the structure 50 to the nominal strength of the structure 50,
A method of estimating the risk of fire-damaged structures.
삭제delete 삭제delete 제1항에 있어서,
상기 (c1) 단계는, 상기 소스 영상에 대한 에지 검출을 수행한 전처리 영상이 상기 컴퓨터 장치(120)에 의해 상기 CNN에 더 입력되는 단계를 포함하며,
상기 (c) 단계는, 상기 컴퓨터 장치(120)가 상기 전처리 영상을 사전에 마련된 CNN에 입력하여 상기 구조물(50) 표면의 균열의 양(C)을 계산하는 단계를 포함하는,
화재 피해를 입은 구조물의 위험도 추정 방법.
According to claim 1,
The step (c1) includes the step of further inputting the preprocessed image on which the edge detection on the source image is performed to the CNN by the computer device 120,
In the step (c), the computer device 120 inputs the pre-processed image to a CNN prepared in advance to calculate the amount (C) of cracks on the surface of the structure 50,
A method of estimating the risk of fire-damaged structures.
삭제delete
KR1020180088019A 2018-07-27 2018-07-27 Risk level estimation method for fire damaged structure KR102263029B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180088019A KR102263029B1 (en) 2018-07-27 2018-07-27 Risk level estimation method for fire damaged structure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180088019A KR102263029B1 (en) 2018-07-27 2018-07-27 Risk level estimation method for fire damaged structure

Publications (2)

Publication Number Publication Date
KR20200017588A KR20200017588A (en) 2020-02-19
KR102263029B1 true KR102263029B1 (en) 2021-06-10

Family

ID=69670126

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180088019A KR102263029B1 (en) 2018-07-27 2018-07-27 Risk level estimation method for fire damaged structure

Country Status (1)

Country Link
KR (1) KR102263029B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102586791B1 (en) * 2022-10-05 2023-10-10 주식회사 평안화재복구 Fire Damaged Concrete Structure Recovery System

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101263371B1 (en) * 2012-09-28 2013-05-21 한국건설기술연구원 Design method of fire resistance rating for concrete structure and concrete structure therewith
KR101792435B1 (en) * 2016-09-13 2017-11-20 이화여자대학교 산학협력단 Damage evaluation method for fire damaged structure

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101263371B1 (en) * 2012-09-28 2013-05-21 한국건설기술연구원 Design method of fire resistance rating for concrete structure and concrete structure therewith
KR101792435B1 (en) * 2016-09-13 2017-11-20 이화여자대학교 산학협력단 Damage evaluation method for fire damaged structure

Also Published As

Publication number Publication date
KR20200017588A (en) 2020-02-19

Similar Documents

Publication Publication Date Title
Lei et al. New crack detection method for bridge inspection using UAV incorporating image processing
RU2694021C1 (en) Method and apparatus for identifying portions of fragmented material within an image
KR102166458B1 (en) Defect inspection method and apparatus using image segmentation based on artificial neural network
US10931871B2 (en) Pipeline detection method and apparatus, and storage medium
KR101926561B1 (en) Road crack detection apparatus of patch unit and method thereof, and computer program for executing the same
Potenza et al. A robotics and computer-aided procedure for defect evaluation in bridge inspection
KR102256181B1 (en) Method of inspecting and evaluating coating state of steel structure and system for the same
JP7319432B2 (en) LEARNING DATA COLLECTION DEVICE, LEARNING DATA COLLECTION METHOD, AND PROGRAM
US11714024B2 (en) Vision-based fatigue crack detection using feature tracking
CN108389172B (en) Method and apparatus for generating information
Jeong et al. Literature review and technical survey on bridge inspection using unmanned aerial vehicles
KR101792435B1 (en) Damage evaluation method for fire damaged structure
US8861885B2 (en) Directional noise filtering
Panella et al. Deep learning and image processing for automated crack detection and defect measurement in underground structures
Chaiyasarn et al. Damage detection and localization in masonry structure using faster region convolutional networks
KR20180125260A (en) Residual strength evaluation method for fire damaged structure
Lee et al. A new image-quality evaluating and enhancing methodology for bridge inspection using an unmanned aerial vehicle
KR102263029B1 (en) Risk level estimation method for fire damaged structure
US20190164009A1 (en) Method and system for visual change detection using multi-scale analysis
WO2021186640A1 (en) Deterioration detection device, deterioration detection system, deterioration detection method, and program
CN114596244A (en) Infrared image identification method and system based on visual processing and multi-feature fusion
CN117475296A (en) Real-time monitoring method and system for rural illegal building
CN112967399A (en) Three-dimensional time sequence image generation method and device, computer equipment and storage medium
Miura et al. Building damage detection of the 2010 Haiti earthquake based on texture analysis of high-resolution satellite images
JP2021064201A (en) Image inspection method, image inspection device, and image inspection program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant