WO2020055195A1 - 열화상 영상을 이용한 구조물의 균열깊이 측정방법 및 장치 - Google Patents

열화상 영상을 이용한 구조물의 균열깊이 측정방법 및 장치 Download PDF

Info

Publication number
WO2020055195A1
WO2020055195A1 PCT/KR2019/011883 KR2019011883W WO2020055195A1 WO 2020055195 A1 WO2020055195 A1 WO 2020055195A1 KR 2019011883 W KR2019011883 W KR 2019011883W WO 2020055195 A1 WO2020055195 A1 WO 2020055195A1
Authority
WO
WIPO (PCT)
Prior art keywords
crack
temperature
depth
thermal image
sample
Prior art date
Application number
PCT/KR2019/011883
Other languages
English (en)
French (fr)
Inventor
주영규
정동민
이종훈
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Publication of WO2020055195A1 publication Critical patent/WO2020055195A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2203/00Investigating strength properties of solid materials by application of mechanical stress
    • G01N2203/0058Kind of property studied
    • G01N2203/006Crack, flaws, fracture or rupture
    • G01N2203/0062Crack or flaws

Definitions

  • the present invention relates to a method and apparatus for measuring the depth of a crack in a structure using a thermal image, and more specifically, a thermal image that can accurately measure the depth of the crack using a thermal image photographed on the crack in the structure. It relates to a method and apparatus for measuring the crack depth of a structure using.
  • the crack inspection applied to the safety inspection of the structure is largely classified into two types: a visual inspection and a non-destructive inspection.
  • the thermal imaging method is largely divided into two types.
  • One is a passive inspection method that detects the intrinsic infrared energy emitted by all objects, and the other is an active inspection method that detects radiation energy that varies depending on the internal conditions of the object by injecting external energy into the object. It is divided into ways to use.
  • a passive inspection method using a thermal image measuring device is a method for measuring external cracks in a structure, and detects and measures radiant heat radiated from the surface of an object, and through this, the surface temperature of the object can be quantified.
  • the crack portion of the structure is a measurement method that determines whether the structure is cracked externally using the principle that heat emitted from the inside to the outside is relatively higher than the ambient temperature.
  • Such thermal imaging equipment has a disadvantage in that it is difficult to predict the structure change in the future because it can only accurately determine whether or not a crack has occurred in the structure, and thus cannot accurately measure the degree of crack, that is, the depth of the crack.
  • the present invention was devised to solve the above problems, and a method for measuring the depth of a crack in a structure using a thermal image that can measure the depth of the crack using a thermal image photographed on a crack in the structure and
  • the purpose is to provide a device.
  • the present invention analyzes the thermal image obtained by photographing cracks (C) generated on the surface of the structure 10 to analyze the thermal image obtained by measuring the crack depth of the structure.
  • a thermal imaging camera 220 that records a thermal image of the structure 10 and a crack sample (CS) and a crack sample (CS) from the captured thermal image Image processing unit 230 for extracting the temperature information and shape information for the crack portion (C) of the machine learning machine to receive and apply the extracted temperature information and shape information as training data of a pre-registered machine learning algorithm
  • Crack depth measurement device (240) a visible light camera (250) for capturing the visible light image of the actual structure (10) and a control unit (210) for controlling the image processing unit (230) and the machine learning unit (240) ( 200)
  • the control unit 210 controls the image processing unit 230 to extract the temperature of the crack portion from the structure thermal image, when the structure thermal image and the structure environment information captured for the actual structure 10 are input, and the
  • the machine learning unit 240 has training data consisting of sample temperature information, shape information, crack depth of each crack sample (S), and sample environment information in a machine learning algorithm in which a random forest algorithm is registered.
  • the image processing unit 230 extracts the crack portion from the visible light image taken by the visible light camera 250 After extraction, only the corresponding crack portion is characterized in that the thermal imaging camera 220 photographs.
  • the sample environment information is characterized by including ambient air temperature, humidity, wind speed, and illuminance at the time of shooting with the thermal imaging camera 220.
  • the step (S200) of determining the photographing area based on the location information of the drone 100 flying the elevation of the structure 10 is equipped with a crack depth measuring device 200 is mounted, and the When a structure thermal image is received from the crack depth measuring apparatus 200, calculating the crack depth for the photographing area using the structure thermal image and the structure environment information corresponding to a photographing time point of the structure thermal image. (S300) and measuring the structural risk of the elevation of the structure 10 corresponding to the photographing area using the crack depth (S400).
  • the step (S200) of determining the photographing area based on the location information of the unmanned aerial vehicle 100 in which the crack depth measuring apparatus 200 is mounted and flying the elevation of the structure 10 is mounted (S200). Determining a shooting angle of the crack depth measuring apparatus 200 and a measuring distance to the elevation of the structure 10 based on the location information of the unmanned aerial vehicle 100 (S210) and using the shooting angle and the measuring distance It characterized in that it comprises a step (S220) of determining the shooting area.
  • the step of calculating the crack depth for the photographing area (S300) is to calculate the measurement temperature for each photographing area by analyzing the thermal image of the structure based on the structure environment information. Determining a crack region and a non-cracked region among the respective photographed regions based on a temperature difference between the step S310 and the measured temperature of each of the photographed regions (S320), and the measured temperature and the non-crack of the cracked regions It characterized in that it comprises the step of calculating the crack depth of the crack region using the temperature difference between the measurement temperature of the region (S330).
  • the step of calculating the measurement temperature for each imaging area by analyzing the thermal image of the structure based on the structure environment information (S310) includes measuring temperature for each imaging area and And determining whether the measurement temperature is corrected based on the atmospheric temperature corresponding to the photographing area (S311) and calculating the final measurement temperature by correcting the measurement temperature according to the determination result (S312). It is characterized by.
  • calculating the crack depth of the crack region corresponds to the non-crack region Calculating a crack depth calculation reference temperature using the average non-crack area temperature calculated by averaging the measured temperature and the average crack area temperature calculated by averaging the measurement temperature corresponding to the crack area (S331) and the non-crack area And comparing the measured temperature and the crack depth calculation reference temperature to calculate the crack depth of each of the non-cracked regions (S332).
  • first and second are for distinguishing one component from other components, and the scope of rights should not be limited by these terms.
  • first component may be referred to as a second component
  • second component may be referred to as a first component
  • the depth of the cracks generated in the structure the temperature extracted from the thermal image and the surrounding environment information as training data, machine learning, and the crack portion extracted from the thermal image of the cracks taken for the actual structure
  • the crack portion extracted from the thermal image of the cracks taken for the actual structure
  • FIG. 1 is a view showing the configuration of a crack depth measurement device of a structure using a thermal image according to the present invention
  • FIG. 2 is a view showing a drone with a thermal imaging camera installed in the apparatus for measuring the depth of cracks in a structure using a thermal image according to the present invention.
  • FIG. 3 is a view showing an example of a crack sample of the apparatus for measuring the crack depth of a structure using a thermal image according to the present invention
  • FIG. 4 is a view showing an example of a visible light image and a thermal image taken by cracking a real structure in the apparatus for measuring the depth of a structure using a thermal image according to the present invention.
  • FIG. 5 is a view showing the procedure of the crack depth measurement method of a structure using a thermal image according to the present invention
  • 6 to 10 are views showing a procedure for measuring the crack depth of the crack depth measurement method of a structure using a thermal image according to the present invention using an unmanned aerial vehicle.
  • the control unit 210 The control unit 210
  • the image processing unit 230 is controlled to extract the temperature of the crack portion from the structure thermal image, and the image processing unit 230 is controlled.
  • the machine learning unit 240 By controlling the machine learning unit 240 to calculate the crack depth of the actual structure by inputting the structure environment information together with the temperature of the crack part extracted by the crack, the crack depth of the crack generated in the structure is measured from the thermal image,
  • the thermal imaging camera 220 is gripped by a photographer or installed on the drone 100, and collects sample environment information together with a sample thermal image of a real structure,
  • the image processing unit 230 extracts shape information of the crack portion SC and sample temperature information of the crack portion SC of each crack sample S from the sample thermal image, respectively.
  • the machine learning unit 240 applies training data composed of sample temperature information, shape information, crack depth of each crack sample S, and sample environment information to a machine learning algorithm in which a random forest algorithm is registered. By learning and outputting the crack depth for the actual structure,
  • the thermal imaging camera 220 is applied only to the crack portion.
  • a device for measuring the depth of cracks in structures using thermal imaging which is characterized by shooting.
  • FIG. 1 is a view for explaining the configuration of a crack depth measuring apparatus 200 of a structure using a thermal image according to the present invention.
  • the crack depth measurement apparatus 200 includes an image processing unit 230, a machine learning unit 240, and a control unit 210.
  • the apparatus for measuring the crack depth of a structure according to the present invention 200 may include a thermal imaging camera 220 and a visible light camera 250.
  • the thermal imaging camera 220 photographs a thermal image of a crack sample (CS) together with the actual structure (10).
  • the thermal imaging camera 220 and the visible light camera 250 are photographed while the photographer holds them in their hands, or installed on a drone 100 such as a drone. Can be provided.
  • the image processing unit 230 extracts temperature information (hereinafter referred to as “sample temperature information”) of crack portions C of the crack sample CS.
  • the crack sample CS is manufactured by forming a crack C of a certain depth in the structure 10, as shown in FIG. 3, and a plurality of crack samples CS are manufactured to have different crack depths.
  • each crack sample CS is photographed by the thermal imaging camera 220 to photograph a thermal image (hereinafter referred to as a “sample thermal image”) for each crack sample CS.
  • the image processing unit 230 extracts sample temperature information by measuring the temperature of the crack portion C of each crack sample CS from each sample thermal image.
  • the machine learning unit 240 targets sample temperature information extracted by the image processing unit 230, sample depth information of the crack depth of each crack sample CS, and the thermal imaging image of each heat sample CS. As a result, it is learned by applying it as training data of a pre-registered machine learning algorithm with a crack depth as an output.
  • the machine learning algorithm in the present invention is preferably a random forest algorithm (Random forest algorithm) is applied, but other machine learning algorithms can be applied to the extent that can achieve the same purpose and function.
  • Random forest algorithm Random forest algorithm
  • sample environment information humidity, wind speed, and illuminance may be applied together with the ambient temperature at the time of photographing the structure 10 with the thermal imaging camera 220, that is, the atmospheric temperature.
  • environmental factors affecting the temperature change of the crack portion C photographed by the thermal imaging camera 220 may be applied as training data using sample environment information.
  • the measurement of the crack depth for the actual structure 10 may be performed.
  • the control unit 210 is a thermal image taken for the actual structure 10 (hereinafter, referred to as a 'structural thermal image'), and environmental information when taking a thermal image of the actual structure (hereinafter, 'structural environment information') Is input), the image processing unit 230 is controlled so that the temperature of the crack portion is extracted from the structure thermal image.
  • a 'structural thermal image' a thermal image taken for the actual structure 10
  • environmental information when taking a thermal image of the actual structure hereinafter, 'structural environment information'
  • FIG. 4 (a) is a view showing an example of a crack portion C generated in the actual structure 10, and FIG. 4 (b) shows a structure thermal image obtained by shooting with the thermal imaging camera 220. It is a drawing.
  • a thermal imaging camera 220 is installed on an unmanned aerial vehicle 100 such as a drone to photograph the structure 10.
  • a visible light image of the real structure 10 may be configured through the visible light camera 250, and the image processing unit 230 extracts the crack portion C of the real structure 10 from the visible light image .
  • the temperature at a position corresponding to the crack portion C extracted through the visible light image may be extracted as the temperature of the crack portion C.
  • the visible light camera 250 cracks a portion from the visible light image captured by the image processing unit 230 in the process of photographing the exterior of the structure
  • the thermal imaging camera 220 photographs, so that the thermal imaging camera 220 photographs the entire thermal image of the structure and cracks the entire thermal image.
  • the control unit 210 inputs the temperature of the crack portion C extracted from the structure thermal image and the structure environment information by the machine learning unit 240, By controlling the machine learning unit 240 so that the crack depth of the actual structure 10 is calculated, it is possible to measure the crack depth of the crack C generated in the structure from the thermal image.
  • the image processing unit 240 of the crack depth measurement device 200 of the structure 10 according to the present invention is to be provided to extract together the shape information of the crack portion (C) of the crack sample (CS) from the sample thermal image.
  • the machine learning unit 240 may also learn shape information of the crack portion C of the crack sample CS as training data of the machine learning algorithm.
  • the image processing unit 230 extracts the shape information of the crack portion (C) of the actual structure 10 from the structure thermal image together, the machine learning unit 240 ) May be provided to input the shape information together.
  • FIG. 5 is a diagram illustrating a method for measuring the crack depth of a structure using a thermal image according to the present invention.
  • sample thermal image, crack depth, and sample environment information for a plurality of crack samples CS are registered (S100). Then, sample temperature information, which is the temperature of the crack portion C of the crack sample CS, is extracted from each sample thermal image (S110).
  • the extracted sample temperature information and the crack depth and sample environment information registered in step (S100) are input as training data of the machine learning algorithm to perform machine learning (S120). ).
  • the crack portion (C) of the structure is extracted from the input visible light image (S140), and the crack portion extracted from the visible light image Structure temperature information is extracted from the structure thermal image at a position corresponding to (C) (S150).
  • the present invention describes that the structure thermal image and the visible light image are input together as shown in FIG. 5, when shooting using the unmanned aerial vehicle 100, the crack portion C is extracted after the visible light image is taken, It may be possible that a thermal image is captured and input only at a location where the crack portion C is extracted.
  • the structure temperature information is extracted from the structure thermal image
  • the structure temperature information and the structure environment information are input to the learned machine learning algorithm to calculate the crack depth of the structure, so that the structure crack depth can be measured (S160).
  • FIGS. 6 to 10 are views showing a procedure for measuring the crack depth of a method for measuring the crack depth of a structure using a thermal image according to the present invention using an unmanned aerial vehicle.
  • the controller 210 determines a photographing area on the basis of the location information of the unmanned aerial vehicle 100 flying the elevation of the structure 10 with the thermal imaging camera 220 installed (S200).
  • the control unit 210 uses the structure thermal image and the structure environment information corresponding to a time point of the structure thermal image to determine the image After calculating the crack depth (S300), the controller 210 measures the structural risk of the elevation of the structure 10 corresponding to the photographing area using the crack depth (S400).
  • control unit 210 is equipped with a thermal imaging camera 220 to determine the shooting area based on the location information of the drone 100 flying over the elevation of the structure 10 (S200), the drone 100 When determining the shooting angle of the crack depth measuring apparatus 200 and the measurement distance to the elevation of the structure 10 based on the location information of (S210), the shooting area is determined using the shooting angle and the measuring distance It becomes (S220).
  • the control unit 210 uses the structure thermal image and the structure environment information corresponding to a time point at which the structure thermal image is taken, to capture the area.
  • the thermal image of the structure is analyzed based on the environment information of the structure to calculate a measurement temperature for each photographing area (S310).
  • a crack region and a non-cracked region among the respective photographed regions are determined based on the temperature difference between the measured temperatures of each of the photographed regions (S320), and between the measured temperature of the cracked region and the measured temperature of the non-cracked region
  • the crack depth of the crack region is calculated using the temperature difference of (S330).
  • the structure thermal image is analyzed to calculate the measurement temperature for each shooting area (S310), based on the measurement temperature for each shooting area and the air temperature corresponding to the shooting area. It is determined whether or not the measurement temperature is corrected as (S311), and the measurement temperature is corrected according to the determination result to calculate the final measurement temperature (S312).
  • the crack depth of the crack region by using a temperature difference between the measured temperature of the crack region and the measured temperature of the non-crack region, it is calculated by averaging the measured temperature corresponding to the non-crack region.
  • a crack depth calculation reference temperature is calculated using the average crack area temperature calculated by averaging the average non-crack area temperature and the measurement temperature corresponding to the crack area (S331), and the measurement temperature and crack depth calculation reference temperature for each non-crack area By comparing the to calculate the crack depth of each non-cracked region (S332).
  • the crack depth measuring device 200 when the crack depth measuring device 200 is mounted on the unmanned aerial vehicle 100 to measure the crack depth of the crack portion C generated in the structure 10, an accurate crack is applied to a structure that is difficult for a person to directly access. It has the advantage that it can be used as basic data for measuring the depth and evaluating the stability of the structure based on this.
  • control unit 220 thermal imaging camera

Abstract

본 발명에 따르면, 구조물에 발생되는 균열의 깊이, 열화상 영상으로부터 추출된 온도 및 주변 환경 정보를 훈련 데이터로 하여 기계학습시키고, 실제 구조물에 대해 촬영된 균열에 대한 열화상 영상으로부터 추출된 균열 부분의 온도에 근거하여 균열의 깊이를 정확히 측정할 수 있는 장점이 있다. 따라서, 단순히 구조물에 균열이 발생하였는지의 여부에서 나아가, 열화상 영상에서 균열의 깊이까지 측정하는 것이 가능하여, 구조물의 건전도를 보다 정확하게 판다할 수 있는 장점이 있다.

Description

열화상 영상을 이용한 구조물의 균열깊이 측정방법 및 장치
본 발명은 열화상 영상을 이용한 구조물의 균열깊이 측정방법 및 장치에 관한 것으로서, 보다 상세하게는 구조물의 균열에 대해 촬영된 열화상 영상을 이용하여 해당 균열의 깊이를 정확하게 측정할 수 있는 열화상 영상을 이용한 구조물의 균열 깊이 측정방법 및 장치에 관한 것이다.
일반적으로 구조물의 안전검사에 적용되는 균열검사로는 육안 검사와 비파괴 검사 2가지로 크게 구분된다.
육안검사의 경우에는 버니어 캘리퍼스(Vernier calipers), 열화상 측정장비 등 휴대용 측정기를 사용하여 구조물의 오부에 발생되는 균열을 측정하는 방식이며, 비파괴 검사의 경우에는 초음파, 방사선, 자분 탐상, 침투탐상법, 반발 경도법 등의 장비를 사용하여 구조물의 내부에 발생하는 균열을 측정하는 방식이다.
이 중 열화상 검사방법은 크게 두 가지 종류로 구분된다. 하나는 수동적 검사방법으로 모든 물체가 방사하고 있는 고유의 적외선 에너지를 검출하는 방법이고, 또 다른 하나는 능동적 검사 방법으로 대상체에 외부의 에너지를 입사하여 대상체의 내부 조건에 따라 달라지는 방사에너지의 검출을 이용하는 방법으로 구분되어 나뉘게 된다.
특히 수동적 검사 방법 중 열화상 측정 장비를 통한 수동적 검사 방법은 구조물의 외부 균열을 측정하는 방법으로 사물의 표면으로부터 방사되는 복사열을 감지 및 측정하고, 이를 통하여 사물의 표면 온도를 수치화 할 수 있다. 이때 구조물의 균열부는 균열을 통하여 내부에서 외부로 발출되는 열이 주변온도보다 상대적으로 높게 측정되는 원리를 이용하여 구조물에 외부에 발생하는 균열 여부를 판단하는 측정방법이다.
이와 같은 열화상 측정 장비는 단지 구조물에 균열이 발생하였는지의 여부만을 판단할 뿐 균열의 정도, 즉 균열의 깊이를 정확하게 측정할 수 없어 향후 구조물의 변화를 예측하기 어려운 단점이 있다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 창안된 것으로서, 구조물의 균열을 대상으로 촬영된 열화상 영상을 이용하여 해당 균열의 깊이를 측정할 수 있는 열화상 영상을 이용한 구조물의 균열깊이 측정방법 및 장치를 제공하는데 그 목적이 있다.
상기의 목적을 해결하기 위하여 본 발명은, 구조물(10)에 표면에 발생되는 균열(Crack, C)을 촬영하여 획득되는 열화상 영상을 분석하여 구조물의 균열깊이를 측정하는 것이 가능한 열화상 영상을 이용한 구조물의 균열깊이 측정장치에 있어, 구조물(10) 및 균열 샘플(Crack Sample, CS)에 대한 열화상 영상을 촬영하는 열화상 카메라(220)와, 촬영된 열화상 영상으로부터 균열 샘플(CS)의 균열부분(C)에 대한 온도정보 및 형상정보를 추출하는 영상처리부(230)와, 추출된 온도정보 및 형상정보를 입력받아 기 등록된 기계학습 알고리즘의 훈련데이터로 적용하여 학습하는 기계 학습부(240)와, 실제 구조물(10)의 가시광 영상을 촬영하는 가시광 카메라(250) 및 상기 영상 처리부(230)와 기계 학습부(240)를 제어하는 제어부(210)를 구성하는 균열깊이 측정장치(200)를 포함하며, 상기 제어부(210)는 실제 구조물(10)에 대해 촬영된 구조물 열화상 영상 및 구조물 환경 정보가 입력되면, 상기 구조물 열화상 영상으로부터 균열 부분의 온도가 추출되도록 영상 처리부(230)를 제어하고, 상기 영상 처리부(230)에 의해 추출된 균열 부분의 온도와 함께 상기 구조물 환경 정보를 입력하여 실제 구조물의 균열 깊이가 산출되도록 기계 학습부(240)를 제어하여, 열화상 영상으로부터 구조물에 발생한 균열의 균열 깊이를 측정하며, 상기 열화상 카메라(220)는 촬영자에 의해 파지되거나 드론(100)에 설치되며, 실제 구조물에 대한 샘플 열화상 영상과 함께 샘플 환경 정보를 함께 수집하며, 상기 영상 처리부(230)는 샘플 열화상 영상으로부터 각각의 균열 샘플(S)의 균열 부분(SC)의 샘플 온도 정보와 함께 상기 균열 부분(SC)의 형상 정보를 각각 추출하며, 상기 기계 학습부(240)는 랜덤 포레스트 알고리즘(Random forest algorithm)이 등록된 기계 학습 알고리즘에 샘플 온도 정보, 형상 정보, 각각의 균열 샘플(S)의 균열 깊이 및 샘플 환경 정보로 구성된 훈련 데이터가 적용되어 학습함으로써 실제 구조물에 대한 균열 깊이를 출력하며, 상기 가시광 카메라(250)가 구조물의 외관을 촬영하는데 있어, 영상 처리부(230)가 가시광 카메라(250)에 의해 촬영된 가시광 영상으로부터 균열 부분을 추출한 후, 해당 균열 부분만 열화상 카메라(220)가 촬영하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따르면, 상기 샘플 환경 정보는 열화상 카메라(220)로 촬영할 당시의 주변 대기온도, 습도, 풍속 및 조도를 포함하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따르면, 균열깊이 측정장치(200)가 장착되어 구조물(10) 입면을 비행하는 무인 비행기(100)의 위치 정보를 기초로 촬영 영역을 결정하는 단계(S200)와, 상기 균열깊이 측정장치(200)로부터 구조물 열화상 영상을 수신하면, 상기 구조물 열화상 영상 및 상기 구조물 열화상 영상의 촬영 시점에 해당하는 구조물 환경 정보를 이용하여 상기 촬영 영역에 대한 균열 깊이를 산출하는 단계(S300) 및 상기 균열 깊이를 이용하여 상기 촬영 영역에 해당하는 구조물(10) 입면의 구조적 위험도를 측정하는 단계(S400)를 포함하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따르면, 상기 균열깊이 측정장치(200)가 장착되어 구조물(10) 입면을 비행하는 무인 비행기(100)의 위치 정보를 기초로 촬영 영역을 결정하는 단계(S200)는 상기 무인 비행기(100)의 위치 정보를 기초로 상기 균열깊이 측정장치(200)의 촬영 각도 및 상기 구조물(10) 입면까지의 측정 거리를 결정하는 단계(S210) 및 상기 촬영 각도 및 상기 측정 거리를 이용하여 상기 촬영 영역을 결정하는 단계(S220)를 포함하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따르면, 상기 촬영 영역에 대한 균열 깊이를 산출하는 단계(S300)는 상기 구조물 환경 정보를 기초로 상기 구조물 열화상 영상을 분석하여 각각의 촬영 영역에 대한 계측 온도를 산출하는 단계(S310)와, 상기 촬영 영역 각각의 계측 온도 사이의 온도 차이를 기초로 상기 각각의 촬영 영역 중 균열 영역 및 비균열 영역을 결정하는 단계(S320) 및 상기 균열 영역의 계측 온도 및 상기 비균열 영역의 계측 온도 사이의 온도 차이를 이용하여 상기 균열 영역의 균열 깊이를 산출하는 단계(S330)를 포함하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따르면, 상기 구조물 환경 정보를 기초로 상기 구조물 열화상 영상을 분석하여 각각의 촬영 영역에 대한 계측 온도를 산출하는 단계(S310)는 상기 각각의 촬영 영역에 대한 계측 온도 및 상기 촬영 영역에 해당하는 대기 온도를 기초로 상기 계측 온도의 보정 여부를 판단하는 단계(S311) 및 상기 판단 결과에 따라 상기 계측 온도를 보정하여 최종 계측 온도를 산출하는 단계(S312)를 포함하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따르면, 상기 균열 영역의 계측 온도 및 상기 비균열 영역의 계측 온도 사이의 온도 차이를 이용하여 상기 균열 영역의 균열 깊이를 산출하는 단계(S330)는 상기 비균열 영역에 해당하는 계측 온도를 평균화하여 산출된 평균 비균열 영역 온도 및 균열 영역에 해당하는 계측 온도를 평균화하여 산출된 평균 균열 영역 온도를 이용하여 균열 깊이 산출 기준 온도를 산출하는 단계(S331) 및 상기 비균열 영역 각각의 계측 온도 및 균열 깊이 산출 기준 온도를 비교하여 비균열 영역 각각의 균열 깊이를 산출하는 단계(S332)를 포함하는 것을 특징으로 한다.
한편 본 명세서에 개시된 기술에 관한 설명은 단지 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 개시된 기술에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
또한 본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다. “제1”, “제2” 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소로 제1 구성요소로 명명될 수 있다.
나아가 어떤 구성요소가 다른 구성요소에 “연결되어”있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어”있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 “~사이에”와 “~사이에” 또는 “~에 이웃하는”과 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, “포함하다”또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명에 따르면, 구조물에 발생되는 균열의 깊이, 열화상 영상으로부터 추출된 온도 및 주변 환경 정보를 훈련 데이터로 하여 기계학습시키고, 실제 구조물에 대해 촬영된 균열에 대한 열화상 영상으로부터 추출된 균열 부분의 온도에 근거하여 균열의 깊이를 정확히 측정할 수 있는 장점이 있다.
따라서, 단순히 구조물에 균열이 발생하였는지의 여부에서 나아가, 열화상 영상에서 균열의 깊이까지 측정하는 것이 가능하여, 구조물의 건전도를 보다 정확하게 판다할 수 있는 장점이 있다.
도 1은 본 발명에 따른 열화상 영상을 이용한 구조물의 균열깊이 측정장치의 구성을 도시한 도면
도 2는 본 발명에 따른 열화상 영상을 이용한 구조물의 균열깊이 측정장치의 열화상 카메라가 설치된 드론을 나타내는 도면
도 3은 본 발명에 따른 열화상 영상을 이용한 구조물의 균열깊이 측정장치의 균열 샘플 예를 나타내는 도면
도 4는 본 발명에 따른 열화상 영상을 이용한 구조물의 균열깊이 측정장치에서 실제 구조물의 균열을 촬영한 가시광 영상 및 열화상 영상의 예를 나타내는 도면
도 5는 본 발명에 따른 열화상 영상을 이용한 구조물의 균열깊이 측정방법의 순서를 나타내는 도면
도 6 내지 도 10은 본 발명에 따른 열화상 영상을 이용한 구조물의 균열깊이 측정방법의 균열깊이를 무인비행기를 이용하여 측정하는 순서를 나타내는 도면
구조물(10)에 표면에 발생되는 균열(Crack, C)을 촬영하여 획득되는 열화상 영상을 분석하여 구조물의 균열깊이를 측정하는 것이 가능한 열화상 영상을 이용한 구조물의 균열깊이 측정장치에 있어,
구조물(10) 및 균열 샘플(Crack Sample, CS)에 대한 열화상 영상을 촬영하는 열화상 카메라(220)와, 촬영된 열화상 영상으로부터 균열 샘플(CS)의 균열부분(C)에 대한 온도정보 및 형상정보를 추출하는 영상처리부(230)와, 추출된 온도정보 및 형상정보를 입력받아 기 등록된 기계학습 알고리즘의 훈련데이터로 적용하여 학습하는 기계 학습부(240)와, 실제 구조물(10)의 가시광 영상을 촬영하는 가시광 카메라(250) 및 상기 영상 처리부(230)와 기계 학습부(240)를 제어하는 제어부(210)를 구성하는 균열깊이 측정장치(200)를 포함하며,
상기 제어부(210)는
실제 구조물(10)에 대해 촬영된 구조물 열화상 영상 및 구조물 환경 정보가 입력되면, 상기 구조물 열화상 영상으로부터 균열 부분의 온도가 추출되도록 영상 처리부(230)를 제어하고, 상기 영상 처리부(230)에 의해 추출된 균열 부분의 온도와 함께 상기 구조물 환경 정보를 입력하여 실제 구조물의 균열 깊이가 산출되도록 기계 학습부(240)를 제어하여, 열화상 영상으로부터 구조물에 발생한 균열의 균열 깊이를 측정하며,
상기 열화상 카메라(220)는 촬영자에 의해 파지되거나 드론(100)에 설치되며, 실제 구조물에 대한 샘플 열화상 영상과 함께 샘플 환경 정보를 함께 수집하며,
상기 영상 처리부(230)는 샘플 열화상 영상으로부터 각각의 균열 샘플(S)의 균열 부분(SC)의 샘플 온도 정보와 함께 상기 균열 부분(SC)의 형상 정보를 각각 추출하며,
상기 기계 학습부(240)는 랜덤 포레스트 알고리즘(Random forest algorithm)이 등록된 기계 학습 알고리즘에 샘플 온도 정보, 형상 정보, 각각의 균열 샘플(S)의 균열 깊이 및 샘플 환경 정보로 구성된 훈련 데이터가 적용되어 학습함으로써 실제 구조물에 대한 균열 깊이를 출력하며,
상기 가시광 카메라(250)가 구조물의 외관을 촬영하는데 있어, 영상 처리부(230)가 가시광 카메라(250)에 의해 촬영된 가시광 영상으로부터 균열 부분을 추출한 후, 해당 균열 부분만 열화상 카메라(220)가 촬영하는 것을 특징으로 하는 열화상 영상을 이용한 구조물의 균열깊이 측정장치.
이하, 본 발명이 속하는 선호적인 실시예를 참고로 하여 더욱 상세하게 설명한다.
도 1은 본 발명에 따른 열화상 영상을 이용한 구조물의 균열깊이 측정장치(200)의 구성을 설명하기 위한 도면이다.
상기 균열깊이 측정장치(200)는 영상 처리부(230), 기계 학습부(240) 및 제어부(210)를 포함한다. 또한 본 발명에 따른 구조물의 균열깊이 측정장치(200)는 열화상 카메라(220)와 가시광 카메라(250)를 포함할 수 있다.
상기 열화상 카메라(220)는 실제 구조물(10)과 함께 균열 샘플(Crack Sample, CS)에 대한 열화상 영상을 촬영한다. 상기 균열 샘플(CS)의 열화상 영상을 촬영할 때는 열화상 카메라(220)와 가시광 카메라(250)를 촬영자가 손에 파지한 상태에서 촬영하거나, 또는 드론과 같은 무인 비행기(100)에 설치하여 촬영하도록 마련될 수 있다.
상기 영상 처리부(230)는 균열 샘플(CS)의 균열부분(Crack, C)의 온도정보(이하, ‘샘플 온도정보’함)를 추출한다. 균열 샘플(CS)은 도 3에 도시된 바와 같이, 구조물(10)에 일정 깊이의 균열(C)을 형성하여 제작되는데, 다수의 균열 샘플(CS)이 서로 다른 균열 깊이를 가지도록 제작된다. 그리고 열화상 카메라(220)로 각각의 균열 샘플(CS)을 촬영하여 각각의 균열 샘플(CS)에 대한 열화상 영상(이하, ‘샘플 열화상 영상’이라 함)을 촬영하게 된다.
또한 상기 영상 처리부(230)는 각각의 샘플 열화상 영상으로부터 각각의 균열 샘플(CS)의 균열부분(C)의 온도를 측정하여 샘플 온도정보를 추출하게 된다.
상기 기계 학습부(240)는 영상 처리부(230)에 의해 추출된 샘플 온도정보, 각각의 균열 샘플(CS)의 균열 깊이 및 각각의 윤열 샘플(CS)의 열화상 영상 촬영시 샘플환경 정보를 대상으로 균열 깊이를 출력으로 하는 기 등록된 기계 학습 알고리즘의 훈련 데이터로 적용하여 학습하게 된다.
본 발명에서의 기계 학습 알고리즘은 랜덤 포레스트 알고리즘(Random forest algorithm)이 적용되는 것이 선호되지만, 동일한 목적과 기능을 달성할 수 있는 범위 내에서 다른 기계 학습 알고리즘이 적용될 수 있다.
한편, 상기 샘플 환경정보로는 열화상 카메라(220)로 구조물(10)을 촬영할 당시의 주변 온도, 즉 대기 온도와 함께 습도, 풍속 및 조도가 적용될 수 있다. 결국 열화상 카메라(220)에 의해 촬영되는 균열부분(C)의 온도 변화에 영향을 주는 환경요소를 샘플 환경정보로 하여 훈련 데이터로 적용할 수 있다.
상기와 같이 기계 학습부(240)에 의해 다수의 균열 샘플(S)로부터 획득된 훈련 데이터들이 학습된 상태에서 실제 구조물(10)에 대한 균열 깊이의 측정이 진행될 수 있다.
상기 제어부(210)는 실제 구조물(10)에 대해 촬영된 열화상 영상(이하, ‘구조물 열화상 영상’이라 함)과, 실제 구조물의 열화상 영상 촬영시의 환경 정보(이하, ‘구조물 환경 정보’라 함)가 입력되면, 구조물 열화상 영상으로부터 균열 부분의 온도가 추출되도록 영상 처리부(230)를 제어한다.
도 4의 (a)는 실제 구조물(10)에 발생한 균열 부분(C)의 예를 나타낸 도면이고, 도 4의 (b)는 열화상 카메라(220)로 촬영하여 획득한 구조물 열화상 영상을 나타낸 도면이다.
상술한 바와 같이, 본 발명에 따른 구조물의 균열깊이 측정장치(200)에서는 열화상 카메라(220)가 드론과 같은 무인 비행기(100)에 설치되어 구조물(10)을 촬영하는 것을 예로 하고 있다.
상기 무인 항공기(100)에 설치된 열화상 카메라(220)를 통해 구조물(10)을 촬영하는 것이 가능함으로써, 고층 건물과 같이 사람이 접근하여 촬영하기 어려운 구조물에 대해서도 보다 쉽고 안전하게 촬영하는 것이 가능하게 되어 측정에 소요되는 인력, 장비 및 시간을 현저히 줄일 수 있는 장점이 있다.
본 발명에서는 가시광 카메라(250)를 통해 실제 구조물(10)의 가시광 영상을 촬영하도록 구성될 수 있으며, 영상 처리부(230)는 상기 가시광 영상으로부터 실제 구조물(10)의 균열 부분(C)을 추출하고, 구조물 열화상 영상 중 가시광 영상을 통해 추출된 균열 부분(C)에 대응하는 위치에서의 온도를 균열 부분(C)의 온도로 추출할 수 있다.
상기와 같이 본 발명에 따른 구조물의 균열깊이 측정장치(200)가 실제 장비에 적용될 때, 가시광 카메라(250)가 구조물의 외관을 촬영하는 과정에서 영상 처리부(230)가 촬영된 가시광 영상으로부터 균열 부분(C)을 추출한 후, 해당 균열 부분(C)만 열화상 카메라(220)가 촬영하는 방식으로 진행함으로써, 열화상 카메라(220)가 구조물 전체의 열화상 영상을 촬영하고 전체 열화상 영상에서 균열 부분(C)의 온도를 추출하는 번거로움을 해소할 수 있는 장점이 있다.
상기와 같이 구조물 열화상 영상으로부터 구조물 온도정보가 추출되면, 제어부(210)는 기계 학습부(240)가 구조물 열화상 영상으로부터 추출된 균열 부분(C)의 온도와 구조물 환경정보를 입력으로 하여, 실제 구조물(10)의 균열 깊이가 산출되도록 기계 학습부(240)를 제어하게 됨으로써, 열화상 영상으로부터 구조물에 발생한 균열(C)의 균열 깊이를 측정하는 것이 가능하게 된다.
한편, 본 발명에 따른 구조물(10)의 균열깊이 측정장치(200)의 영상 처리부(240)는 샘플 열화상 영상으로부터 균열 샘플(CS)의 균열 부분(C)의 형상정보를 함께 추출되도록 마련할 수 있으며, 또한 기계 학습부(240)는 균열 샘플(CS)의 균열 부분(C)의 형상정보를 기계 학습 알고리즘의 훈련 데이터로 함께 학습할 수 있다.
그리고 실제 구조물(10)의 균열 깊이를 측정하는 과정에서도, 영상 처리부(230)가 구조물 열화상 영상으로부터 실제 구조물(10)의 균열 부분(C)의 형상 정보를 함께 추출하고, 기계 학습부(240)에 형상정보를 함께 입력하도록 마련될 수 있다.
이를 통해, 균열 부분(C)의 형상에 따른 균열 부분(C)의 온도 변화도 함께 반영됨으로써 보다 정확한 균열 깊이의 측정이 가능하게 된다.
다음으로 도 5는 본 발명에 따른 열화상 영상을 이용한 구조물의 균열깊이 측정방법에 대해 도시한 도면이다.
먼저 기계 학습을 위해 복수의 균열 샘플(CS)에 대한 샘플 열화상 영상, 균열 깊이 및 샘플 환경정보가 등록된다(S100). 그런 다음 각각의 샘플 열화상 영상으로부터 균열 샘플(CS)의 균열 부분(C)의 온도인 샘플 온도정보가 추출된다(S110).
상기 각각의 샘플 열화상 영상으로부터 샘플 온도정보가 추출되면 추출된 샘플 온도정보와 (S100) 단계에서 등록된 균열 깊이 및 샘플 환경정보가 기계 학습 알고리즘의 운련 데이터로 입력되어 기계 학습이 진행된다(S120).
상기와 같이 학습된 기계 학습 알고리즘을 이용하여 실제 구조물(10)에 대한 균열깊이 측정과정이 진행된다.
구조물에 대해 촬영된 구조물 열화상 영상, 가시광 영상 및 구조물 환경정보가 입력(S130)되면, 입력된 상기 가시광 영상으로부터 구조물의 균열 부분(C)이 추출(S140)되고, 가시광 영상으로부터 추출된 균열 부분(C)에 해당하는 위치에서 구조물 열화상 영상으로부터 구조물 온도정보가 추출된다(S150).
본원발명에서는 도 5와 같이 구조물 열화상 영상과 가시광 영상이 함께 입렫되는 것에 대해 설명하고 있으나, 무인 비행기(100)를 이용하여 촬영할 경우에는 가시광 영상이 촬영된 후 균열 부분(C)이 추출되고, 상기 균열 부분(C)이 추출된 위치에서만 열화상 영상이 촬영되어 입력되는 것이 가능할 수 있다.
또한 구조물 열화상 영상으로부처 구조물 온도정보가 추출되면, 구조물 온도정보 및 구조물 환경정보가 학습된 기계 학습 알고리즘에 입력되어 구조물의 균열 깊이가 산출되어 구조물 균열 깊이의 측정이 가능하게 된다(S160).
다음으로 도 6 내지 도 10은 본 발명에 따른 열화상 영상을 이용한 구조물의 균열깊이 측정방법의 균열깊이를 무인비행기를 이용하여 측정하는 순서를 나타내는 도면이다.
이를 상세히 설명하면, 제어부(210)는 열화상 카메라(220)가 장착되어 구조물(10) 입면을 비행하는 무인 비행기(100)의 위치 정보를 기초로 촬영 영역을 결정한다(S200).
상기 제어부(210)는 균열깊이 측정장치(200)로부터 구조물 열화상 영상을 수신하면, 상기 구조물 열화상 영상 및 상기 구조물 열화상 영상의 촬영시점에 해당하는 구조물 환경정보를 이용하여 상기 촬영 영역에 대한 균열깊이를 산출(S300)한 후, 상기 제어부(210)는 균열 깊이를 이용하여 상기 촬영 영역에 해당하는 구조물(10) 입면의 구조적 위험도를 측정한다(S400).
이때 제어부(210)는 열화상 카메라(220)가 장착되어 구조물(10) 입면을 비행하는 무인 비행기(100)의 위치 정보를 기초로 촬영 영역을 결정(S200)하는데 있어, 상기 무인 비행기(100)의 위치정보를 기초로 하여 상기 균열깊이 측정장치(200)의 촬영 각도 및 구조물(10) 입면까지의 측정거리를 결정(S210)하면, 상기 촬영 각도 및 측정거리를 이용하여 상기 촬영 영역을 결정하게 된다(S220).
다음으로 상기 제어부(210)는 균열깊이 측정장치(200)로부터 구조물 열화상 영상을 수신하면, 상기 구조물 열화상 영상 및 상기 구조물 열화상 영상의 촬영시점에 해당하는 구조물 환경정보를 이용하여 상기 촬영 영역에 대한 균열깊이를 산출(S300)하는데 있어, 상기 구조물 환경정보를 기초로 상기 구조물 열화상 영상을 분석하여 각각의 촬영 영역에 대한 계측 온도를 산출(S310)한다.
그리고 상기 촬영 영역 각각의 계측 온도 사이의 온도 차이를 기초로 하여 상기 각각의 촬영 영역 중 균열 영역 및 비균열 영역을 결정(S320)하고, 상기 균열 영역의 계측 온도 및 상기 비균열 영역의 계측 온도 사이의 온도 차이를 이용하여 상기 균열 영역의 균열 깊이를 산출하게 된다(S330).
이때 상기 구조물 환경정보를 기초로 상기 구조물 열화상 영상을 분석하여 각각의 촬영 영역에 대한 계측 온도를 산출(S310)하는데 있어, 각각의 촬영 영역에 대한 계측 온도 및 촬영 영역에 해당하는 대기 온도를 기초로 하여 상기 계측 온도의 보정여부를 판단(S311)하고, 판단 결과에 따라 계측 온도를 보정하여 최종 계측 온도를 산출하게 된다(S312).
또한 상기 균열 영역의 계측 온도 및 상기 비균열 영역의 계측 온도 사이의 온도 차이를 이용하여 상기 균열 영역의 균열 깊이를 산출(S330)하는데 있어, 상기 비균열 영역에 해당하는 계측 온도를 평균화하여 산출된 평균 비균열 영역 온도 및 균열 영역에 해당하는 계측 온도를 평균화하여 산출된 평균 균열 영역 온도를 이용하여 균열 깊이 산출 기준 온도를 산출(S331)하고, 비균열 영역 각각의 계측 온도 및 균열 깊이 산출 기준 온도를 비교하여 비균열 영역 각각의 균열 깊이를 산출하게 된다(S332).
상기와 같이 무인 비행기(100)에 균열깊이 측정장치(200)가 장착되어 구조물(10)에 발생한 균열 부분(C)의 균열 깊이를 측정하는데 있어, 사람이 직접 접근하기 어려운 구조물을 대상으로 정확한 균열 깊이를 측정하고 이를 기초로 하여 구조물의 안정성을 평가하기 위한 기초자료로 활용이 가능한 장점이 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이행할 수 있을 것이다.
본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없어 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경을 형성하는 기술사상에 대한 것인 한 청구 범위 기재의 범위내에 있게 된다.
<도면의 주요부분에 대한 부호의 설명>
100: 무인 비행기 200: 균열깊이 측정장치
210: 제어부 220: 열화상 카메라
230: 영상처리부 240: 기계 학습부
250: 가시광 카메라

Claims (7)

  1. 구조물(10)에 표면에 발생되는 균열(Crack, C)을 촬영하여 획득되는 열화상 영상을 분석하여 구조물의 균열깊이를 측정하는 것이 가능한 열화상 영상을 이용한 구조물의 균열깊이 측정장치에 있어,
    구조물(10) 및 균열 샘플(Crack Sample, CS)에 대한 열화상 영상을 촬영하는 열화상 카메라(220)와, 촬영된 열화상 영상으로부터 균열 샘플(CS)의 균열부분(C)에 대한 온도정보 및 형상정보를 추출하는 영상처리부(230)와, 추출된 온도정보 및 형상정보를 입력받아 기 등록된 기계학습 알고리즘의 훈련데이터로 적용하여 학습하는 기계 학습부(240)와, 실제 구조물(10)의 가시광 영상을 촬영하는 가시광 카메라(250) 및 상기 영상 처리부(230)와 기계 학습부(240)를 제어하는 제어부(210)를 구성하는 균열깊이 측정장치(200)를 포함하며,
    상기 제어부(210)는
    실제 구조물(10)에 대해 촬영된 구조물 열화상 영상 및 구조물 환경 정보가 입력되면, 상기 구조물 열화상 영상으로부터 균열 부분의 온도가 추출되도록 영상 처리부(230)를 제어하고, 상기 영상 처리부(230)에 의해 추출된 균열 부분의 온도와 함께 상기 구조물 환경 정보를 입력하여 실제 구조물의 균열 깊이가 산출되도록 기계 학습부(240)를 제어하여, 열화상 영상으로부터 구조물에 발생한 균열의 균열 깊이를 측정하며,
    상기 열화상 카메라(220)는 촬영자에 의해 파지되거나 드론(100)에 설치되며, 실제 구조물에 대한 샘플 열화상 영상과 함께 샘플 환경 정보를 함께 수집하며,
    상기 영상 처리부(230)는 샘플 열화상 영상으로부터 각각의 균열 샘플(S)의 균열 부분(SC)의 샘플 온도 정보와 함께 상기 균열 부분(SC)의 형상 정보를 각각 추출하며,
    상기 기계 학습부(240)는 랜덤 포레스트 알고리즘(Random forest algorithm)이 등록된 기계 학습 알고리즘에 샘플 온도 정보, 형상 정보, 각각의 균열 샘플(S)의 균열 깊이 및 샘플 환경 정보로 구성된 훈련 데이터가 적용되어 학습함으로써 실제 구조물에 대한 균열 깊이를 출력하며,
    상기 가시광 카메라(250)가 구조물의 외관을 촬영하는데 있어, 영상 처리부(230)가 가시광 카메라(250)에 의해 촬영된 가시광 영상으로부터 균열 부분을 추출한 후, 해당 균열 부분만 열화상 카메라(220)가 촬영하는 것을 특징으로 하는 열화상 영상을 이용한 구조물의 균열깊이 측정장치.
  2. 제 1 항에 있어서,
    상기 샘플 환경 정보는 열화상 카메라(220)로 촬영할 당시의 주변 대기온도, 습도, 풍속 및 조도를 포함하는 것을 특징으로 하는 열화상 영상을 이용한 구조물의 균열깊이 측정장치.
  3. 균열깊이 측정장치(200)가 장착되어 구조물(10) 입면을 비행하는 무인 비행기(100)의 위치 정보를 기초로 촬영 영역을 결정하는 단계(S200)와,
    상기 균열깊이 측정장치(200)로부터 구조물 열화상 영상을 수신하면, 상기 구조물 열화상 영상 및 상기 구조물 열화상 영상의 촬영 시점에 해당하는 구조물 환경 정보를 이용하여 상기 촬영 영역에 대한 균열 깊이를 산출하는 단계(S300) 및
    상기 균열 깊이를 이용하여 상기 촬영 영역에 해당하는 구조물(10) 입면의 구조적 위험도를 측정하는 단계(S400)를 포함하는 것을 특징으로 하는 열화상 영상을 이용한 구조물의 균열깊이 측정방법.
  4. 제 3 항에 있어서,
    상기 균열깊이 측정장치(200)가 장착되어 구조물(10) 입면을 비행하는 무인 비행기(100)의 위치 정보를 기초로 촬영 영역을 결정하는 단계(S200)는
    상기 무인 비행기(100)의 위치 정보를 기초로 상기 균열깊이 측정장치(200)의 촬영 각도 및 상기 구조물(10) 입면까지의 측정 거리를 결정하는 단계(S210) 및
    상기 촬영 각도 및 상기 측정 거리를 이용하여 상기 촬영 영역을 결정하는 단계(S220)를 포함하는 것을 특징으로 하는 열화상 영상을 이용한 구조물의 균열깊이 측정방법.
  5. 제 3 항에 있어서,
    상기 촬영 영역에 대한 균열 깊이를 산출하는 단계(S300)는
    상기 구조물 환경 정보를 기초로 상기 구조물 열화상 영상을 분석하여 각각의 촬영 영역에 대한 계측 온도를 산출하는 단계(S310)와,
    상기 촬영 영역 각각의 계측 온도 사이의 온도 차이를 기초로 상기 각각의 촬영 영역 중 균열 영역 및 비균열 영역을 결정하는 단계(S320) 및
    상기 균열 영역의 계측 온도 및 상기 비균열 영역의 계측 온도 사이의 온도 차이를 이용하여 상기 균열 영역의 균열 깊이를 산출하는 단계(S330)를 포함하는 것을 특징으로 하는 열화상 영상을 이용한 구조물의 균열깊이 측정방법.
  6. 제 5 항에 있어서,
    상기 구조물 환경 정보를 기초로 상기 구조물 열화상 영상을 분석하여 각각의 촬영 영역에 대한 계측 온도를 산출하는 단계(S310)는
    상기 각각의 촬영 영역에 대한 계측 온도 및 상기 촬영 영역에 해당하는 대기 온도를 기초로 상기 계측 온도의 보정 여부를 판단하는 단계(S311) 및
    상기 판단 결과에 따라 상기 계측 온도를 보정하여 최종 계측 온도를 산출하는 단계(S312)를 포함하는 것을 특징으로 하는 열화상 영상을 이용한 구조물의 균열깊이 측정방법.
  7. 제 5 항에 있어서,
    상기 균열 영역의 계측 온도 및 상기 비균열 영역의 계측 온도 사이의 온도 차이를 이용하여 상기 균열 영역의 균열 깊이를 산출하는 단계(S330)는
    상기 비균열 영역에 해당하는 계측 온도를 평균화하여 산출된 평균 비균열 영역 온도 및 균열 영역에 해당하는 계측 온도를 평균화하여 산출된 평균 균열 영역 온도를 이용하여 균열 깊이 산출 기준 온도를 산출하는 단계(S331)와,
    상기 비균열 영역 각각의 계측 온도 및 균열 깊이 산출 기준 온도를 비교하여 비균열 영역 각각의 균열 깊이를 산출하는 단계(S332)를 포함하는 것을 특징으로 하는 열화상 영상을 이용한 구조물의 균열깊이 측정방법.
PCT/KR2019/011883 2018-09-11 2019-09-11 열화상 영상을 이용한 구조물의 균열깊이 측정방법 및 장치 WO2020055195A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0108408 2018-09-11
KR1020180108408A KR102095793B1 (ko) 2018-09-11 2018-09-11 열화상 영상을 이용한 구조물의 균열 깊이 측정 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2020055195A1 true WO2020055195A1 (ko) 2020-03-19

Family

ID=69776725

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/011883 WO2020055195A1 (ko) 2018-09-11 2019-09-11 열화상 영상을 이용한 구조물의 균열깊이 측정방법 및 장치

Country Status (2)

Country Link
KR (1) KR102095793B1 (ko)
WO (1) WO2020055195A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102314599B1 (ko) * 2020-04-07 2021-10-19 울산과학기술원 가스 사출 성형 제품의 품질 검사 장치 및 그 방법
KR102220654B1 (ko) * 2020-06-22 2021-02-26 쿨사인 주식회사 측정온도 보정시스템
KR102252845B1 (ko) * 2021-01-26 2021-05-27 주식회사 도로시 머신비전 및 3d 프로파일을 통한 콘크리트 표면 분석 방법, 장치 및 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008151809A (ja) * 2008-03-10 2008-07-03 West Nippon Expressway Engineering Shikoku Co Ltd 赤外線カメラによる構造物調査方法
US20160202199A1 (en) * 2014-04-03 2016-07-14 General Electric Company Route Examination System And Method
KR20160142482A (ko) * 2015-06-02 2016-12-13 고려대학교 산학협력단 건설용 무인 비행체 장치
KR20170136133A (ko) * 2016-05-31 2017-12-11 순천대학교 산학협력단 무인비행체를 이용한 구조물 검사 장치 및 방법
JP6294529B1 (ja) * 2017-03-16 2018-03-14 阪神高速技術株式会社 ひび割れ検出処理装置、およびひび割れ検出処理プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100553124B1 (ko) 2003-12-05 2006-02-22 허광희 에너지소산률을 이용한 구조물의 건전도 모니터링 방법
KR100707389B1 (ko) 2004-09-06 2007-04-13 한국건설기술연구원 음향 분석 기법을 이용하여 콘크리트 구조물의 건전도를평가하기 위한 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008151809A (ja) * 2008-03-10 2008-07-03 West Nippon Expressway Engineering Shikoku Co Ltd 赤外線カメラによる構造物調査方法
US20160202199A1 (en) * 2014-04-03 2016-07-14 General Electric Company Route Examination System And Method
KR20160142482A (ko) * 2015-06-02 2016-12-13 고려대학교 산학협력단 건설용 무인 비행체 장치
KR20170136133A (ko) * 2016-05-31 2017-12-11 순천대학교 산학협력단 무인비행체를 이용한 구조물 검사 장치 및 방법
JP6294529B1 (ja) * 2017-03-16 2018-03-14 阪神高速技術株式会社 ひび割れ検出処理装置、およびひび割れ検出処理プログラム

Also Published As

Publication number Publication date
KR20200029860A (ko) 2020-03-19
KR102095793B1 (ko) 2020-04-23

Similar Documents

Publication Publication Date Title
WO2020055195A1 (ko) 열화상 영상을 이용한 구조물의 균열깊이 측정방법 및 장치
WO2011059127A1 (ko) 적외선 센서 및 이를 이용한 감지 방법
WO2011087337A2 (ko) 기판 검사장치
WO2014189216A1 (ko) 자동 얼굴 위치 추적 및 얼굴 인식 방법 및 시스템
CN106774419A (zh) 用于火力发电厂锅炉的无人机巡检系统及巡检方法
WO2017138754A1 (ko) 차량하부 촬영장치 및 이를 운용하는 차량하부 촬영방법
WO2011136407A1 (ko) 스테레오 카메라를 이용한 영상인식장치 및 방법
WO2014035103A1 (ko) 촬영영상으로부터 객체를 감시하기 위한 장치 및 방법
WO2018159902A1 (ko) 복수의 라이다 센서 캘리브레이션 방법 및 장치
WO2020054975A1 (ko) 철근 직선화 설비의 제어방법 및 그 장치
WO2017065358A1 (ko) 시약 키트의 이미지를 통한 감염병 진단 방법 및 장치
CN113884011A (zh) 一种非接触式混凝土表观裂缝测量设备和方法
WO2019045480A1 (ko) 딥러닝 기반 결핵 검사 방법
WO2021261642A1 (ko) 측정온도 보정시스템
WO2012057389A1 (ko) 복수개의 카메라를 이용한 관심영역 추출 시스템 및 그 방법
WO2016099154A1 (ko) 부품이 실장된 기판 검사방법 및 검사장치
CN109670391B (zh) 基于机器视觉的智慧照明装置及动态识别数据处理方法
CN107339919B (zh) 用于测量弹丸飞行状态的主动式摄像系统及其测量方法
CN112200788A (zh) 高温变形测量装置及方法
WO2017111515A1 (ko) 강판 검사 장치 및 방법
WO2013125755A1 (ko) 매연차량 검출장치
WO2014035050A1 (ko) 영상 밝기 조절 방법 및 그 장치와, 스테레오 카메라
WO2012057392A1 (ko) 복수개의 카메라를 이용한 거리측정 시스템 및 그 방법
WO2021086108A1 (ko) 로봇 비전 시스템을 위한 자동 캘리브레이션 방법 및 장치
WO2023149603A1 (ko) 다수의 카메라를 이용한 열화상 감시 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19861157

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19861157

Country of ref document: EP

Kind code of ref document: A1