KR20190142626A - System and method for autonomous crack evaluation of structure using hybrid image scanning - Google Patents

System and method for autonomous crack evaluation of structure using hybrid image scanning Download PDF

Info

Publication number
KR20190142626A
KR20190142626A KR1020180069795A KR20180069795A KR20190142626A KR 20190142626 A KR20190142626 A KR 20190142626A KR 1020180069795 A KR1020180069795 A KR 1020180069795A KR 20180069795 A KR20180069795 A KR 20180069795A KR 20190142626 A KR20190142626 A KR 20190142626A
Authority
KR
South Korea
Prior art keywords
image
crack
thermal
real
images
Prior art date
Application number
KR1020180069795A
Other languages
Korean (ko)
Other versions
KR102122893B1 (en
Inventor
안윤규
장근영
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to KR1020180069795A priority Critical patent/KR102122893B1/en
Publication of KR20190142626A publication Critical patent/KR20190142626A/en
Application granted granted Critical
Publication of KR102122893B1 publication Critical patent/KR102122893B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/60Radiation pyrometry, e.g. infrared or optical thermometry using determination of colour temperature
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/08Testing mechanical properties
    • G01M11/081Testing mechanical properties by using a contact-less detection method, i.e. with a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • B64C2201/12
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J2005/0077Imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques

Abstract

Provided are an automated structure crack evaluation system for detecting a crack on a structure and a method thereof. The system includes: an excitation device emitting a continuous wave line laser to a target structure; a sensing device including a thermal image camera creating thermal images by measuring a heat wave radiated from the structure and a vision camera creating realistic images by photographing the exterior of the structure; and a control device creating a thermal image and an actual image, which are spatially and temporally integrated, in regard to the thermal images and the realistic images; creating a phase image based on the spatially and temporally integrated thermal image, detecting a crack by conducting a deep learning process on the spatially and temporally integrated realistic image through an artificial neural network having learnt the realistic images, creating a thermal image including crack information by conducting a deep learning process through the artificial neural network after specifying a crack area specified in the realistic image also in the phase image, and a final image in which only the crack is visualized by mapping the thermal image with the realistic image including the crack information. Therefore, the present invention is capable of examining a crack on a large structure nondestructively and without coming in contact with the structure.

Description

하이브리드 이미지 스캐닝에 기반한 자동화 구조물 균열 평가 시스템 및 그 방법 {SYSTEM AND METHOD FOR AUTONOMOUS CRACK EVALUATION OF STRUCTURE USING HYBRID IMAGE SCANNING}Automated structure cracking evaluation system based on hybrid image scanning and its method {SYSTEM AND METHOD FOR AUTONOMOUS CRACK EVALUATION OF STRUCTURE USING HYBRID IMAGE SCANNING}

본 발명은 하이브리드 이미지 스캐닝을 통해 비접촉식 및 비파괴식으로 구조물의 균열을 검출하는 자동화 균열 평가 시스템 및 그 방법에 관한 것이다.The present invention relates to an automated crack evaluation system and method for detecting cracks in a structure in a non-contact and non-destructive manner through hybrid image scanning.

기존에는 구조물의 균열을 모니터링하는 방법으로서, 육안검사(visual inspection) 기법, 비전 기반 손상 검출(vision-based crack detection) 기법, 초음파(ultrasonic) 기법, 수동적 열화상 기법(passive IR thermography) 및 능동적 열화상 기법(active IR thermography) 등을 사용하였다.Conventional methods for monitoring cracks in structures include visual inspection, vision-based crack detection, ultrasonic, passive IR thermography and active thermal. Active IR thermography and the like were used.

육안 검사는 전문가가 직접 구조물에 접근하여 균열의 치수를 재는 방법이다. 육안 검사 기법에 따르면, 균열 평가에 있어 사람의 주관이 개입되기 때문에 다른 방법보다 신뢰도가 떨어지며, 구조물에 사람의 접근이 불가한 경우에 평가가 어렵고 번거롭다는 단점이 있다. Visual inspection is the method by which specialists access the structure directly and measure the cracks. According to the visual inspection technique, it is less reliable than other methods because the human subject is involved in the crack evaluation, and it is difficult and cumbersome to evaluate when human access to the structure is impossible.

비전 기반 손상 검출 기법은 비전 카메라(vision camera)를 이용해 영상을 촬영하여 균열을 평가하는 방법이다. 비전 기반 손상 검출 기법에 따르면, 영상의 시야 범위(FOV: filed of view)의 한계로 인해 규모가 큰 구조물에 대한 평가가 어렵고, 균열을 정량화하기가 쉽지 않으며, 특히 조도 및 주변 환경에 따라 오보율이 높다는 단점이 있다. Vision-based damage detection is a method of estimating cracks by taking images using a vision camera. According to the vision-based damage detection technique, due to the limitation of the filed of view (FOV), it is difficult to evaluate large structures, it is not easy to quantify the cracks, and especially the false report rate according to the illumination and the surrounding environment. This has the disadvantage of being high.

초음파 기법은 초음파를 발생 및 계측하여 균열을 평가하는 방법으로서, 정확도가 높은 균열 평가 방법이다. 그러나 초음파 기법에서는 주로 구조물에 부착형 센서를 이용하므로 대형 구조물에 대한 전체적인 균열 평가를 수행하는데에 적합하지 않으며, 신호 해석이 복잡하다는 단점이 존재한다. Ultrasonic technique is a method of generating and measuring ultrasonic waves and evaluating cracks. However, the ultrasonic technique mainly uses a sensor attached to the structure, which is not suitable for performing the overall crack evaluation of a large structure, and has a disadvantage of complicated signal analysis.

또한, 수동적 열화상 기법과 능동적 열화상 기법은, 구조물에서 자연적으로 발생하는 열방사 또는 열원이 가해진 구조물에서 발생하는 열방사를 IR 카메라로 계측하는 방법이다. 이들 기법은 효과적인 균열 검출 방법으로 평가되고 있으나, 대형 구조물에 적용하기에는 열원이 제한적이며, FOV의 한계로 인해 대규모 구조물에 대한 평가가 어렵다. 또한, 과도한 정밀도로 인하여 표면 불균일 점을 균열로 평가하여 오보가 발생될 수 있다는 문제점이 있다. In addition, the passive thermal imaging technique and the active thermal imaging technique are methods for measuring thermal radiation occurring naturally in a structure or thermal radiation occurring in a structure to which a heat source is applied. These techniques are evaluated as effective crack detection methods, but the heat source is limited for large structures, and the limitation of FOV makes it difficult to evaluate large structures. In addition, there is a problem that the misalignment can be generated by evaluating the surface non-uniformity point due to excessive precision.

따라서, 규모가 큰 구조물에 대해서도 효과적으로 손상을 계측 및 검사할 수 있는 모니터링 방법이 필요하다.Therefore, there is a need for a monitoring method that can effectively measure and inspect damage even for large structures.

한국등록특허 제 10-1718310 호 (발명의 명칭: 드론을 활용한 진동 기반 구조물 손상 감지 시스템 및 그 방법)Korea Patent No. 10-1718310 (Invention name: Vibration-based structure damage detection system and method using the drone)

본 발명의 일 실시예는 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 비접촉적/비파괴적으로 스캐닝된 하이브리드 이미지를 이용하여 구조물의 균열을 시각화 및 정량화할 수 있으며, 획득된 하이브리드 이미지에 대해 딥러닝 프로세스를 적용하여 구조물 균열 평가를 자동화할 수 있는, 자동화 구조물 균열 평가 시스템 및 그 방법을 제공하고자 한다. One embodiment of the present invention is to solve the above-described problems of the prior art, it is possible to visualize and quantify the crack of the structure using a non-contact / non-destructive scanning hybrid image, and to dip the obtained hybrid image It is an object of the present invention to provide an automated structure cracking evaluation system and method for automating structure cracking evaluation by applying a running process.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, UAV(unmanned aerial vehicle)를 활용한 하이브리드 이미지 스캐닝을 처리함으로써, 인력의 접근 없이도 대형 구조물의 균열을 비파괴 및 비접촉식으로 검사할 수 있다. According to any one of the above-described means for solving the problems of the present invention, by processing a hybrid image scanning using an unmanned aerial vehicle (UAV), it is possible to non-destructive and non-contact inspection of the crack of the large structure without the access of manpower.

또한, 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 하이브리드 이미지(즉, 열화상 및 실화상 이미지)의 계측 및 분석을 통해 균열 평가의 오보율을 최소화할 수 있다.In addition, according to any one of the problem solving means of the present invention, it is possible to minimize the error rate of the crack evaluation through the measurement and analysis of the hybrid image (ie, thermal image and real image image).

또한, 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 하이브리드 이미지의 시야각의 한계를 극복할 수 있으며, 검사 범위로서의 넓은 관심 영역을 단시간 내 스캐닝함으로써 실시간 계측 데이터로부터 구조물의 손상을 시각화 및 정량화할 수 있다.In addition, according to any one of the problem solving means of the present invention, it is possible to overcome the limitation of the viewing angle of the hybrid image, and to visualize and quantify the damage of the structure from the real-time measurement data by scanning a wide area of interest as an inspection range in a short time. have.

또한, 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 하이브리드 이미지 스캐닝 결과에 대해 딥러닝 프로세스를 적용함으로써 인력의 주관 개입 없이 자동으로 정확한 균열 평가를 수행할 수 있다.In addition, according to any one of the problem solving means of the present invention, by applying the deep learning process on the hybrid image scanning results, it is possible to automatically perform accurate crack evaluation without subjective intervention of manpower.

도 1은 본 발명의 일 실시예에 따른 자동화 구조물 균열 평가 시스템을 통한 전반적인 균열 검출 과정을 설명하기 위한 개요도이다.
도 2a는 본 발명의 일 실시예에 따른 균열 평가 시스템의 구성도이다.
도 2b는 본 발명의 일 실시예에 따른 하이브리드 이미지 스캐닝 과정을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 적용된 교정 마커를 이용한 왜곡 보정 방식을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 이미지 분석 영역을 설정하는 과정을 설명하기 위한 도면이다.
도 5는 본 발명의일 실시예에 따른 시공간 좌표축 변환을 통한 이미지 재구축 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 균열 시각화 이미지 프로세싱의 과정을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 균열 평가 자동화 처리에 적용된 딥러닝 프로세스의 개념도이다.
도 8은 본 발명의 일 실시예에 따른 균열 평가 자동화 처리 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 이미지 매칭을 통한 의사 결정 과정을 설명하기 위한 도면이다.
도 10은 균열이 모사된 콘크리트 시편을 나타낸다.
도 11은 IR 카메라를 통해 촬영된 원시 열화상 이미지 및 비전 카메라를 통해 촬영된 원시 실화상 이미지를 왜곡 보정한 결과를 나타낸다.
도 12는 왜곡 보정된 이미지에 대해 시공간 좌표축 변환을 처리한 결과를 나타낸다.
도 13은 도 12의 시공간 통합된 열화상 이미지로부터 획득된 노이즈 제거된 위상 이미지를 나타낸다.
도 14는 도 12의 시공간 통합된 실화상 이미지에 대해 딥 CNN 프로세스를 처리한 균열 이미지를 나타낸다.
도 15는 도 13의 열화상 이미지에 따른 위상 이미지와 도 14의 실화상 이미지에 따른 균열 이미지 간의 이미지 매칭을 통한 의사 결정 과정을 나타냈다.
도 16은 도 15의 이미지 매칭에 따라 획득된 균열 검출이 완료된 결과 이미지를 나타냈다.
도 17은 본 발명의 일 실시예에 따른 하이브리드 이미지 스캐닝에 기반한 자동화 구조물 균열 평가 방법을 설명하기 위한 순서도이다.
1 is a schematic view for explaining the overall crack detection process through the automated structure crack evaluation system according to an embodiment of the present invention.
2A is a configuration diagram of a crack evaluation system according to an embodiment of the present invention.
2B is a diagram illustrating a hybrid image scanning process according to an embodiment of the present invention.
3 is a view for explaining a distortion correction method using a correction marker applied to an embodiment of the present invention.
4 is a diagram for describing a process of setting an image analysis region according to an exemplary embodiment.
FIG. 5 is a diagram illustrating an image reconstruction process through space-time coordinate axis transformation according to an embodiment of the present invention.
6 is a view for explaining a process of crack visualization image processing according to an embodiment of the present invention.
7 is a conceptual diagram of a deep learning process applied to the automated crack assessment process according to an embodiment of the present invention.
8 is a view for explaining a crack evaluation automated processing according to an embodiment of the present invention.
9 is a diagram for describing a decision making process through image matching according to an embodiment of the present invention.
10 shows concrete specimens with simulated cracks.
11 illustrates a result of distortion correction of a raw thermal image captured by an IR camera and a raw real image captured by a vision camera.
12 illustrates a result of processing a space-time coordinate axis transformation on a distortion-corrected image.
13 illustrates a noise canceled phase image obtained from the space-time integrated thermal image of FIG. 12.
FIG. 14 shows a crack image subjected to the deep CNN process for the space-time integrated real image image of FIG. 12.
FIG. 15 illustrates a decision making process through image matching between a phase image according to the thermal image of FIG. 13 and a crack image according to the real image image of FIG. 14.
FIG. 16 illustrates a resultant image of crack detection obtained according to the image matching of FIG. 15.
17 is a flowchart illustrating an automated structure cracking evaluation method based on hybrid image scanning according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 본 발명을 명확하게 설명하기 위해 도면에서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. 또한, 도면을 참고하여 설명하면서, 같은 명칭으로 나타낸 구성일지라도 도면에 따라 도면 번호가 달라질 수 있고, 도면 번호는 설명의 편의를 위해 기재된 것에 불과하고 해당 도면 번호에 의해 각 구성의 개념, 특징, 기능 또는 효과가 제한 해석되는 것은 아니다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in the drawings, and like reference numerals designate like parts throughout the specification. In addition, while describing with reference to the drawings, even if the configuration shown by the same name may be different according to the drawing number, the drawing number is just described for convenience of description and the concept, features, functions of each configuration by the corresponding reference number Or the effect is not limited to interpretation.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element in between. . In addition, when a part is said to "include" a certain component, which means that it may further include other components, except to exclude other components unless specifically stated otherwise, one or more other It is to be understood that the present invention does not exclude the possibility of the presence or the addition of features, numbers, steps, operations, components, parts, or combinations thereof.

본 명세서에 있어서 '부(部)' 또는 '모듈'이란, 하드웨어 또는 소프트웨어에 의해 실현되는 유닛(unit), 양방을 이용하여 실현되는 유닛을 포함하며, 하나의 유닛이 둘 이상의 하드웨어를 이용하여 실현되어도 되고, 둘 이상의 유닛이 하나의 하드웨어에 의해 실현되어도 된다.In the present specification, the term 'part' or 'module' includes a unit realized by hardware or software, and a unit realized using both, and one unit is realized by using two or more pieces of hardware. Two or more units may be implemented by one hardware.

도 1은 본 발명의 일 실시예에 따른 자동화 구조물 균열 평가 시스템을 통한 전반적인 균열 검출 과정을 설명하기 위한 개요도이다. 1 is a schematic view for explaining the overall crack detection process through the automated structure crack evaluation system according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 본 발명의 일 실시예에 따른 자동화 구조물 균열 평가 시스템(100)은, 드론(drone) 등과 같은 무인 항공기(Unmanned Aerial Vehicle, UAV)에 탑재되어 사람이 접근하기 힘든 대형 구조체를 스캐닝하여 균열을 검출 및 평가하는데 이용될 수 있다. 이외에도 자동화 구조물 균열 평가 시스템(100)은 클라이밍 로봇(climbing robot)과 같은 무인 로봇 장치에 탑재되어 구현될 수 있다.As shown in FIG. 1, the automated structure cracking evaluation system 100 according to an exemplary embodiment of the present invention is mounted on an unmanned aerial vehicle (UAV) such as a drone or the like, and is hard to be accessed by a person. The structure can be scanned and used to detect and evaluate cracks. In addition, the automated structure crack evaluation system 100 may be implemented by being mounted on an unmanned robot device such as a climbing robot.

자동화 구조물 균열 평가 시스템(100)은 UAV등에 이종 영상 스캐닝을 처리하는 시스템(이하, '하이브리드 이미지 스캐닝 장치'라고 지칭함)을 탑재하여, 인력의 접근없이 비파괴/비접촉식으로 대형 구조물의 균열 데이터를 취득한다. 그리고 자동화 구조물 균열 평가 시스템(100)은 획득한 하이브리드 이미지에 대해 왜곡 보정 및 데이터 프로세싱을 통하여 두 영상을 정합한다. 또한, 자동화 구조물 균열 평가 시스템(100)은 딥러닝 프로세스 과정을 통해 균열 검출 자동화 처리를 수행함으로써, 대형 구조물에 대해서도 균열에 대한 시각화 및 정량화를 처리하고 보다 낮은 오보율로 균열 검출을 수행하며, 이에 따른 구조체 손상 정보(즉, 구조물 균열 정보)를 사용자에게 알린다.The automated structure crack evaluation system 100 is equipped with a system for processing heterogeneous image scanning (hereinafter, referred to as a 'hybrid image scanning device') in a UAV, and acquires crack data of a large structure in a non-destructive / non-contact manner without human access. . The automated structure crack evaluation system 100 matches the two images through distortion correction and data processing on the obtained hybrid image. In addition, the automated structure crack evaluation system 100 performs an automated crack detection process through a deep learning process, thereby visualizing and quantifying cracks even for a large structure and performing crack detection at a lower false rate. Inform the user of structural damage information (ie, structure cracking information) accordingly.

구체적으로, 자동화 구조물 균열 평가 시스템(100)은 대상 구조물 상의 관심 영역(Region of interest, ROI)을 열화상 카메라(thermo-graphic camera) 및 비전 카메라(vision camera)를 통해 스캐닝하여, 스캐닝 결과로서 이종 영상 데이터(즉, 열화상 및 실화상 데이터)를 취득한다. 참고로, 본 발명에서는 열화상 카메라로서 적외선(Infrared, IR) 카메라를 사용한다. 또한, 이하에서 이종 영상 데이터를 하이브리드 이미지라고 지칭하도록 한다.In detail, the automated structure cracking evaluation system 100 scans a region of interest (ROI) on a target structure through a thermo-graphic camera and a vision camera, and heterogeneous as a scanning result. Image data (ie, thermal image and real image data) is acquired. For reference, in the present invention, an infrared (IR) camera is used as the thermal imaging camera. In addition, the heterogeneous image data will be referred to as hybrid image hereinafter.

또한, 자동화 구조물 균열 평가 시스템(100)은 획득된 하이브리드 이미지(즉, 열화상 및 실화상 이미지)를 정합하기 위하여 왜곡 보정(distortion calibration) 과정을 처리한 후, 시공간 좌표축 변환(time-spatial-integrated coordinate transform, TSI coordinate transform)을 처리하여, 전체의 관심 영역을 통합한다. 이를 통해, 열화상 카메라 및 비전 카메라의 제한된 시야각(FOV)에 의해 실시간으로 변화하는 데이터를 공간적으로 통합하여, 세밀한 균열 평가가 가능하게 함과 동시에 관심 영역 전체에 균일한 열파 (thermal wave) 가진의 양상을 추출해낼 수 있다. In addition, the automated structure cracking evaluation system 100 processes a distortion calibration process to match the obtained hybrid image (ie, thermal image and real image), and then time-spatial-integrated. coordinate coordinate, TSI coordinate transform) to integrate the entire region of interest. This allows spatially integrating data that changes in real time due to the limited field of view (FOV) of the thermal imaging camera and vision camera, enabling detailed crack assessment and at the same time having a uniform thermal wave across the region of interest. You can extract aspects.

그리고 자동화 구조물 균열 평가 시스템(100)은 순간 위상각(instantaneous phase angle)을 각 픽셀마다 계산하고, 이에 대해 스캐닝 방향의 공간 미분을 처리하여, 정밀한 균열 이미지를 취득한다.The automated structure crack evaluation system 100 calculates an instantaneous phase angle for each pixel, and processes the spatial derivative in the scanning direction, thereby obtaining a precise crack image.

또한, 자동화 구조물 균열 평가 시스템(100)은 균열 평가 자동화를 위해 딥러닝 기반의 딥 컨볼루션 뉴럴 네트워크 프로세스(deep convolutional neural network process, Deep CNN process)를 수행한다. 이를 통해, 자동화 구조물 균열 평가 시스템(100)은 전문가의 주관 개입없이 스스로 이미지의 특징을 찾아내고, 이를 자동으로 분류하여 균열 평가를 수행한다. 이때, 열화상 및 실화상 이미지를 함께 사용하여 균열을 검출함으로써 오보율을 최소화할 수 있다.In addition, the automated structure crack evaluation system 100 performs a deep learning based deep convolutional neural network process (Deep CNN process) to automate crack evaluation. Through this, the automated structure crack evaluation system 100 finds the features of the image by itself without expert intervention, and automatically classifies them to perform crack evaluation. In this case, by using a thermal image and a real image image together, crack detection can be minimized.

도 2a 및 도 2b를 참조하여 하이브리드 이미지 스캐닝에 기반한 자동화 구조물 균열 평가 시스템(100)의 구성 및 동작에 대해서 좀 더 상세히 설명하도록 한다.2A and 2B, the configuration and operation of the automated structure crack evaluation system 100 based on hybrid image scanning will be described in more detail.

도 2a는 본 발명의 일 실시예에 따른 균열 평가 시스템의 구성도이고, 도 2b는 본 발명의 일 실시예에 따른 하이브리드 이미지 스캐닝 과정을 설명하기 위한 도면이다.2A is a configuration diagram of a crack evaluation system according to an embodiment of the present invention, and FIG. 2B is a view for explaining a hybrid image scanning process according to an embodiment of the present invention.

도 2a 에 도시한 바와 같이, 자동화 구조물 균열 평가 시스템(100)은 균열 검출 대상 구조물(target structure)에 연속파 라인 레이저(continuous-wave line laser)를 조사하는 가진 장치(110), 대상 구조물을 IR 카메라 및 비전 카메라를 통해 스캐닝하여 열화상 및 실화상을 획득하는 센싱 장치(120), 및 획득된 하이브리드 이미지(즉, 열화상 이미지 및 실화상 이미지)에 기초하여 대상 구조물에서의 균열을 검출하는 제어 장치(130)를 포함한다.As shown in FIG. 2A, the automated structure crack evaluation system 100 includes an excitation device 110 for irradiating a continuous-wave line laser to a crack detection target structure, and an IR camera of the target structure. And a sensing device 120 that scans through a vision camera to obtain thermal images and real images, and a control device that detects cracks in a target structure based on the obtained hybrid images (ie, thermal images and real images). 130.

본 발명의 일 실시예에 따른 자동화 구조물 균열 평가 시스템(100)은 가진 장치(110) 및 센싱 장치(120)로 구성된 '하이브리드 이미지 스캐닝 장치와, 제어 장치(130)로 구성된 '자동화 구조물 균열 평가 장치'로 구현될 수 있다. 이때, 자동화 구조물 균열 평가 시스템(100)은 가진 장치(110), 센싱 장치(120) 및 제어 장치(130)가 일체형으로 구현될 수 있다. 또한, 자동화 구조물 균열 평가 시스템(100)은 하이브리드 이미지 스캐닝 장치와 자동화 구조물 균열 평가 장치가 분리되어 구현될 수도 있다. 이처럼, 하이브리드 이미지 스캐닝 장치와 자동화 구조물 균열 평가 장치가 분리된 경우, 하이브리드 이미지 스캐닝 장치는 UAV에 탑재될 수 있다. 그리고 하이브리드 이미지 스캐닝 장치와 자동화 구조물 균열 평가 장치는 서로 데이터 또는 신호를 송수신할 수 있도록 유/무선 통신하는 통신부를 각각 포함할 수 있다.The automated structure cracking evaluation system 100 according to an embodiment of the present invention is a hybrid image scanning device composed of an excitation device 110 and a sensing device 120, and an automated structure cracking evaluation device composed of a control device 130. Can be implemented as'. At this time, the automated structure crack evaluation system 100 may be implemented as a single unit having the excitation device 110, the sensing device 120 and the control device 130. In addition, the automated structure crack evaluation system 100 may be implemented by separating the hybrid image scanning device and the automated structure crack evaluation device. As such, when the hybrid image scanning device and the automated structure cracking evaluation device are separated, the hybrid image scanning device may be mounted on the UAV. The hybrid image scanning device and the automated structure cracking evaluation device may each include a communication unit for wired / wireless communication so as to transmit and receive data or signals with each other.

가진 장치(110)는 연속파 라인 레이저(continuous-wave line laser, CW line laser)(111), 선형 빔 발생기(line beam generator)(112), 콜리메이터 렌즈 (collimator lens)(113) 및 초점 렌즈(focusing lens)(114)를 포함한다.The excitation device 110 includes a continuous-wave line laser (CW line laser) 111, a line beam generator 112, a collimator lens 113 and a focusing lens. lens 114).

가진 장치(110)의 연속파 라인 레이저(111)에서 점형 레이저 빔(point laser beam)이 발진되면 선형 빔 발생기(112)를 통과하여 선형 레이저 빔(line laser beam)으로 변형된 후, 대상 구조물에 열파(thermal wave)를 발생시킨다. 이때, 선형 레이저 빔은 콜리메이터 렌즈(113) 및 초점 렌즈(114)를 통과하여 대상 구조물에 조사될 수 있다. 참고로, 이러한 가진 장치(110)는 열파(heat wave)를 발생시키는 일종의 가열 장치(heating unit)일 수도 있다.When the point laser beam is oscillated in the continuous wave line laser 111 of the excitation device 110, it passes through the linear beam generator 112 and is transformed into a linear laser beam, and then heat wave to the target structure. (thermal wave) is generated. In this case, the linear laser beam may pass through the collimator lens 113 and the focus lens 114 to be irradiated to the target structure. For reference, the excitation device 110 may be a kind of heating unit that generates a heat wave.

또한, 가진 장치(110)는 제어 장치(130)의 제어에 의해, 설정된 경로를 이동하여 대상 구조물에 연속파 라인 레이저를 조사할 수 있다. 즉, 설정된 스캐닝 방향에 따른 경로를 이동하며 연속파 라인 레이저를 조사할 수 있다.In addition, the excitation device 110 may irradiate the continuous wave line laser to the target structure by moving the set path under the control of the control device 130. That is, the continuous wave line laser may be irradiated by moving a path along the set scanning direction.

센싱 장치(120)는 열화상 카메라(즉, IR 카메라)(121)와 비전 카메라(122)를 포함한다.The sensing device 120 includes a thermal imaging camera (ie, an IR camera) 121 and a vision camera 122.

센싱 장치(120)는 가진 장치(110)와 동시에 작동되어, 열화상 카메라(121)를 통해 센싱된 열화상 데이터와, 비전 카메라(122)를 통해 촬영된 실화상 데이터를 제어 장치(130)로 제공한다.The sensing device 120 is operated simultaneously with the excitation device 110 to transfer the thermal image data sensed through the thermal imaging camera 121 and the real image data captured by the vision camera 122 to the control device 130. to provide.

이때, 센싱 장치(120)는 제어 장치(130)의 제어에 따라 스캐닝 경로를 따라 데이터를 센싱하고, 센싱된 데이터에 따른 IR 화상 및 실화상 이미지를 생성한다. 즉, 센싱 장치(120)는 가진 장치(110)가 연속파 라인 레이저 빔을 조사한 대상 구조물 상의 위치에 대응하며 하이브리드 이미지들을 획득한다. In this case, the sensing device 120 senses data along the scanning path under the control of the control device 130 and generates an IR image and a real image image according to the sensed data. That is, the sensing device 120 corresponds to the position on the target structure to which the excitation device 110 irradiates the continuous wave line laser beam and acquires hybrid images.

도 2b를 참조하면, 가진 장치(110)가 대상 구조물(201)에 연속파 라인 레이저 빔을 조사하는 한편, 센싱 장치(120)가 병렬적으로 열화상 카메라(121) 및 비전 카메라(122)를 일방향(즉, 스캐닝 방향)으로 이동하여 촬영함으로써 열화상 및 실화상 이미지들을 획득한다. 도 2b에서와 같이, 열화상 카메라(121)와 비전 카메라(122)는 동일한 관심 영역에서 동시에 데이터를 취득한다. Referring to FIG. 2B, the excitation device 110 irradiates the continuous wave line laser beam to the target structure 201, while the sensing device 120 moves the thermal imaging camera 121 and the vision camera 122 in one direction in parallel. (I.e., scanning direction) to obtain thermal image and real image images by photographing. As in FIG. 2B, the thermal imaging camera 121 and the vision camera 122 simultaneously acquire data in the same region of interest.

열화상 카메라(121)는 대상 구조물로부터 발생된 열파를 측정하여 열파 형상을 모사한 열화상 데이터를 생성하고, 비전 카메라(122)는 대상 구조물의 외관을 촬영하여 실화상 데이터를 생성한다. 즉, 대상 구조물에서 발생된 열파는 열화상 카메라(121)를 통해 획득할 수 있고, 대상 구조물의 표면 손상 상태는 비전 카메라(122)를 통해 획득할 수 있다. 이와 같이 획득된 열화상 및 실화상은 각각 원시 열화상 이미지(raw IR images)인 IR과 원시 비전 이미지(raw vision images)인 VR 로 표현된다.The thermal imaging camera 121 measures thermal waves generated from the target structure to generate thermal image data that simulates the thermal wave shape, and the vision camera 122 generates actual image data by photographing the appearance of the target structure. That is, the heat wave generated in the target structure may be obtained through the thermal imaging camera 121, and the surface damage state of the target structure may be obtained through the vision camera 122. The thermal images and real images thus obtained are represented by I R which is a raw IR image and V R which is a raw vision image, respectively.

제어 장치(130)는 통신부(131), 메모리(132) 및 프로세서(133)를 포함한다.The control device 130 includes a communication unit 131, a memory 132, and a processor 133.

통신부(131)은 가진 장치(110) 및 센싱 장치(120)와 각각 통신하여 신호 및 데이터를 송수신하되, 센싱 장치(120)로부터 하이브리드 이미지를 수신하여 프로세서(133)로 전달한다.The communication unit 131 communicates with the excitation device 110 and the sensing device 120 to transmit and receive signals and data, respectively, and receives the hybrid image from the sensing device 120 and transmits the hybrid image to the processor 133.

또한, 통신부(131)은 사전에 연동된 외부 장치(미도시)와 통신을 수행할 수 있으며, 프로세서(133)의 제어에 따라 균열 검출 결과 또는 시각화된 균열 영상 등을 외부 장치로 전송할 수 있다.In addition, the communication unit 131 may communicate with an external device (not shown) interlocked in advance, and may transmit a crack detection result or a visualized crack image to an external device under the control of the processor 133.

메모리(132)에는 구조물 균열 검출 프로그램이 저장되어 있다. 이러한 구조물 균열 검출 프로그램은 프로세서(133)에 의해 실행되어, 하이브리드 이미지 스캐닝에 기반하여 구조물의 균열 검출을 검출하되, 하이브리드 이미지에 대해 딥러닝 프로세스를 적용하여 자동화된 균열 평가를 처리한다.The structure crack detection program is stored in the memory 132. This structure crack detection program is executed by the processor 133 to detect the crack detection of the structure based on the hybrid image scanning, but to process the automated crack evaluation by applying a deep learning process for the hybrid image.

또한, 메모리(132)에는 구조물 균열 검출 프로그램과 더불어, 자동화 구조물 균열 평가 시스템(100)의 전반적인 동작을 제어하기 위한 제어 프로그램이 더 저장되어 있다. 이러한 제어 프로그램은 구조물 균열 검출 프로그램과 연동되거나, 하나의 프로그램으로 구현될 수도 있다.In addition to the structure crack detection program, the memory 132 further stores a control program for controlling the overall operation of the automated structure crack evaluation system 100. Such a control program may be linked to the structure crack detection program or may be implemented as a single program.

메모리(132)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 또는 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치를 통칭하는 것이다.The memory 132 refers to a nonvolatile storage device that maintains stored information even when power is not supplied, or a volatile storage device that requires power to maintain stored information.

프로세서(133)는 자동화 구조물 균열 평가 시스템(100)의 전반적인 동작을 제어한다. 이를 위해, 프로세서(133)는 적어도 하나의 프로세싱 유닛(CPU, micro-processor, DSP 등), RAM(Random Access Memory), ROM(Read-Only Memory) 등을 포함하여 구현될 수 있으며, 메모리(132)에 저장된 프로그램을 RAM으로 독출하여 적어도 하나의 프로세싱 유닛을 통해 실행할 수 있다. 또한, 실시예에 따라서 ‘프로세서’라는 용어는 '컨트롤러', '연산 장치', '제어부' 등의 용어와 동일한 의미로 해석될 수 있다.The processor 133 controls the overall operation of the automated structure crack assessment system 100. To this end, the processor 133 may be implemented to include at least one processing unit (CPU, micro-processor, DSP, etc.), random access memory (RAM), read-only memory (ROM), or the like, and the memory 132. The program stored in the C) may be read into the RAM and executed through at least one processing unit. In addition, according to an embodiment, the term “processor” may be interpreted to have the same meaning as the terms “controller”, “operating device”, “control unit”, and the like.

이때, 프로세서(133)는 구조물 균열 검출 프로그램을 실행함에 따라 다음의 동작을 처리한다.At this time, the processor 133 processes the following operation as the structure crack detection program is executed.

프로세서(133)는 제어 및 동기화 신호를 가진 장치(110)로 전송하며, 이와 동시에 가진 장치(110)로 전송한 신호와 대응된 제어 및 동기화 신호를 센싱 장치(120)로 전송한다. 이에 따라, 가진 장치(110)는 제어 및 동기화 신호에 기초하여 연속파 라인 레이저 빔을 대상 구조물에 조사한다. 이와 병렬적으로 센싱 장치(120)는 열화상 카메라(121)를 통해 대상 구조물에서 방사된 열파를 계측하고 비전 카메라(122)를 통해 대상 구조물의 외관을 촬영한다.The processor 133 transmits the control and synchronization signal to the device 110 having the control and synchronization signal, and simultaneously transmits the control and synchronization signal corresponding to the signal transmitted to the device 110 to the sensing device 120. Accordingly, the excitation device 110 irradiates the continuous wave line laser beam to the target structure based on the control and synchronization signal. In parallel with this, the sensing device 120 measures the heat wave radiated from the target structure through the thermal imaging camera 121 and photographs the exterior of the target structure through the vision camera 122.

그리고 프로세서(133)는 센싱 장치(120)로부터 하이브리드 이미지를 수신하고, 이에 대한 데이터 프로세싱을 처리하여 손상 영역(즉, 균열 발생 영역)에 대한 정보를 추출 및 시각화한다.The processor 133 receives the hybrid image from the sensing device 120 and processes data processing for the hybrid image to extract and visualize information about the damaged area (ie, the crack generation area).

이하, 도 3 및 도 6을 참조하여 프로세서(133)가 하이브리드 이미지에 대한 왜곡 보정 처리, 이미지 재구축 처리, 및 균열 시각화를 위한 데이터 프로세싱을 수행하는 과정에 대해서 설명하도록 한다.Hereinafter, a process in which the processor 133 performs distortion correction processing, image reconstruction processing, and data processing for crack visualization on the hybrid image will be described with reference to FIGS. 3 and 6.

먼저, 도 3을 참고하여 프로세서(133)과 하이브리드 이미지에 대한 왜곡 보정을 처리하는 과정에 대해서 설명하도록 한다.First, a process of processing distortion correction on the hybrid image with the processor 133 will be described with reference to FIG. 3.

도 3은 본 발명의 일 실시예에 적용된 교정 마커를 이용한 왜곡 보정 방식을 설명하기 위한 도면이다.3 is a view for explaining a distortion correction method using a correction marker applied to an embodiment of the present invention.

열화상 카메라(121) 및 비전 카메라(122)를 통해 취득된 하이브리드 이미지는 서로 해상도 차이 및 렌즈계 왜곡 등이 발생될 수 있다. 이를 정합 및 정량화하기 위해 프로세서(133)는 하이브리드 이미지에 대해 왜곡 보정을 수행한다.Hybrid images acquired through the thermal imaging camera 121 and the vision camera 122 may generate resolution differences and lens system distortions. In order to match and quantify this, the processor 133 performs distortion correction on the hybrid image.

카메라 영상은 3차원 공간을 2차원 이미지 평면에 투사(perspective projection)하여 얻어지므로, 다음의 수학식 1과 같은 삼차원 공간 좌표와 이차원 영상 좌표 간의 변환 관계를 갖는다. 이때, 수학식 1은 3차원 실제 세계와 2차원 이미지 평면 간의 상관 관계를 나타내는 핀홀(pin-hole) 카메라 모델링 기법에 기반하여 표현된 것이다. Since the camera image is obtained by projecting a three-dimensional space onto a two-dimensional image plane, the camera image has a transformation relationship between three-dimensional space coordinates and two-dimensional image coordinates as shown in Equation 1 below. In this case, Equation 1 is expressed based on a pin-hole camera modeling technique representing a correlation between the 3D real world and the 2D image plane.

<수학식 1><Equation 1>

Figure pat00001
Figure pat00001

수학식 1에서, S는 임의의 축척 계수(arbitrary scale factor)를 나타내며, [x, y, z, 1]은 영상 좌표계(image coordiante system)이며, [X, Y, Z, 1]은 월드 좌표계(world coordinate system)의 삼차원 정점의 좌표이다. 여기서 R과 t는 각각 회전 및 변환 행렬을 의미한다. [R|t]는 외부파라미터(extrinsic parameter)로 월드 좌표계를 카메라 좌표계(camera coordinate system)로 변환시키기 위한 회전과 이동변환 행렬을 나타내며, A는 카메라 내부 파라미터(intrinsic parameter)이다.In Equation 1, S represents an arbitrary scale factor, [x, y, z, 1] is an image coordiante system, and [X, Y, Z, 1] is a world coordinate system. The coordinates of the three-dimensional vertices of the world coordinate system. Where R and t are rotation and transformation matrices, respectively. [R | t] represents an rotation parameter for converting the world coordinate system into a camera coordinate system with an extrinsic parameter, and A is an intrinsic parameter of the camera.

핀홀(pin-hole) 카메라 모델은 3D 공간과 2D 이미지 평면 사이의 기하학적 투영 (projection) 관계를 단순화시켜 준다. 이때, 교정 마커(calibration marker)를 이용하여 왜곡 보정 과정을 수행하며, 3D 공간을 2D 평면으로 사영시켜주기 위해 호모그라피 행렬(homography matrix)인 H를 아래의 수학식 2와 같이 정의할 수 있다.The pin-hole camera model simplifies the geometric projection relationship between 3D space and 2D image planes. In this case, a distortion correction process is performed using a calibration marker, and a homography matrix H may be defined as shown in Equation 2 below to project a 3D space into a 2D plane.

<수학식 2><Equation 2>

Figure pat00002
Figure pat00002

수학식 2에서, λ는 임의의 스칼라 값이고, r1과 r2는 각각 R의 요소이다. In Equation 2, λ is an arbitrary scalar value, and r 1 and r 2 are each elements of R.

도 3에서와 같은 교정 마커(calibration marker) 이미지가 주어지면, 최대 가능도 방법(maximum likelihood criterion)에 따라 H를 추정할 수 있다. 이때, r1과 r2가 직교(orthonormal)라는 것을 이용하면 다음의 수학식 3 및 4로 나타낼 수 있다.Given a calibration marker image as in FIG. 3, H can be estimated according to a maximum likelihood criterion. In this case, when r 1 and r 2 are orthonormal, they may be represented by the following equations (3) and (4).

<수학식 3><Equation 3>

Figure pat00003
Figure pat00003

<수학식 4><Equation 4>

Figure pat00004
Figure pat00004

수학식 3 및 4에서 A의 폐형 해결책(closed-form solution)을 알고 있을 경우, 외부 매개 변수를 다음의 수학식 5와 같이 얻을 수 있다.If the closed-form solution of A in Equations 3 and 4 is known, external parameters can be obtained as in Equation 5 below.

<수학식 5><Equation 5>

Figure pat00005
Figure pat00005

이와 같이, 교정 마커를 이용하여 열화상 카메라(121) 및 비전 카메라(122)에 대한 내부 및 외부 파라미터를 획득한 후, IR 및 VR 영상을 위의 수학식 1의 왜곡 보정 과정을 거쳐 왜곡 보정 열화상(distortion-calibrated IR images)인 IC 및 왜곡 보정 실화상(distortion-calibrated vision images)인 VC 영상으로 변환한다. 도 3에서는 왜곡 보정 과정을 통해 IR 및 VR 영상이 IC 및 VC 영상으로 변환되는 과정을 나타냈다.As such, after acquiring internal and external parameters for the thermal imaging camera 121 and the vision camera 122 using the calibration marker, the I R and V R images are distorted through the distortion correction process of Equation 1 above. It is converted to I C which is distortion-calibrated IR images and V C image which is distortion-calibrated vision images. 3 illustrates a process of converting an I R and V R image into an I C and V C image through a distortion correction process.

다음으로, 도 4 및 도 5를 참조하여 프로세서(133)가 왜곡 보정된 하이브리드 이미지를 재구축하는 과정에 대해서 설명하도록 한다.Next, the process of reconstructing the distortion-corrected hybrid image by the processor 133 will be described with reference to FIGS. 4 and 5.

도 4는 본 발명의 일 실시예에 따른 이미지 분석 영역을 설정하는 과정을 설명하기 위한 도면이고, 도 5는 본 발명의일 실시예에 따른 시공간 좌표축 변환을 통한 이미지 재구축 과정을 설명하기 위한 도면이다.4 is a view for explaining a process of setting an image analysis region according to an embodiment of the present invention, Figure 5 is a view for explaining a process of reconstructing the image through the time-space coordinate axis transformation according to an embodiment of the present invention to be.

센싱 장치(120)로부터 수신된 열화상 이미지들 및 실화상 이미지들은 각각, FOV 가 고정된 상태에서 스캐닝 경로로 이동됨으로써 시간의 흐름에 따라 열파 및 외관이 변화하는 과정을 포함한다. 따라서 하이브리드 이미지들은 손상 검출에 적합하도록 통합 및 재구성될 필요가 있다. The thermal images and the real images received from the sensing device 120 each include a process in which the heat wave and the appearance change with time as the FOV is moved to the scanning path while the FOV is fixed. Thus, hybrid images need to be integrated and reconstructed to be suitable for damage detection.

이에 따라, 프로세서(133)는 위의 수학식 1 내지 5를 통해 왜곡 보정된 이미지들에 대해 시공간 병합 좌표 변환(TSI coordinate transformation)을 수행함으로써 통합 이미지를 생성한다.Accordingly, the processor 133 generates an integrated image by performing a TSI coordinate transformation on the distortion-corrected images through Equations 1 to 5 above.

먼저, 프로세서(133)는 관심 영역 설정 및 시공간 좌표축 변환을 통한 이미지 재구축을 처리한다. First, the processor 133 processes an image reconstruction by setting a region of interest and transforming a space-time coordinate axis.

구체적으로, 시공간 좌표축 변환을 통한 이미지 재구축은 카메라가 가지는 시야각의 한계에서 벗어나 전체 관심 영역을 확인할 수 있게 해준다. 다만 시공간 좌표축 변환을 수행하기 이전에, 하이브리드 이미지의 관심 영역(region of interest, ROI)을 지정해줄 필요가 있다. In detail, image reconstruction by transforming the space-time coordinate axis enables to check the entire ROI beyond the limit of the viewing angle of the camera. However, before performing the space-time coordinate axis transformation, it is necessary to designate a region of interest (ROI) of the hybrid image.

대상 구조물은 고정되어 있고, 하이브리드 이미지 스캐닝 장치는 대상 구조물과의 거리를 유지하며 이동하므로, 시야각 내에 담기는 물리적 영역(physical area)은 정해져 있다. 따라서 시간의 변화에 따른 하이브리드 이미지 스캐닝 장치(즉, 가진 장치 및 센싱 장치)의 이동에 따라 대상 구조물의 물리적 영역이 이종 영상으로 취득된다. Since the object structure is fixed and the hybrid image scanning device moves while maintaining a distance from the object structure, the physical area contained in the viewing angle is defined. Therefore, as the hybrid image scanning device (ie, the excitation device and the sensing device) moves with time, the physical area of the target structure is acquired as a heterogeneous image.

도 4를 참조하면, 하이브리드 이미지 스캐닝 장치가 수평 방향(도 4에서 'x축')을 따라 스캔한다고 가정하면, 선형 빔 생성기를 통과한 레이저 열파의 분포는 관심 영역 내에서 가우시안 분포(gaussian distribution)와 유사하다. 이에 따라, 획득된 열화상 이미지에서 열파의 중간점은 가우시안 분포의 μ(x)를 사용하여 얻을 수 있다. 이때, 영향을 받는 경계를 가우시안 분포 신뢰구간 95%로 하여, 관심 영역에 대한 영상을 취득할 수 있다. 다시 말하면, 관심 영역은 선형 레이저 빔의 영향을 받는 영역만을 의미하며, 이를 아래의 수학식 6 과 같이 나타낼 수 있다.Referring to FIG. 4, assuming that the hybrid image scanning apparatus scans along the horizontal direction ('x axis' in FIG. 4), the distribution of laser heat waves passing through the linear beam generator is a Gaussian distribution within the region of interest. Similar to Accordingly, the midpoint of the heat wave in the obtained thermal image can be obtained using μ (x) of the Gaussian distribution. In this case, an image of the ROI may be acquired by setting the affected boundary as the Gaussian distribution confidence interval of 95%. In other words, the region of interest refers only to the region affected by the linear laser beam, which can be expressed by Equation 6 below.

<수학식 6><Equation 6>

Figure pat00006
Figure pat00006

수학식 6에서 RROI는 열화상 이미지의 관심 영역이고, h는 관심 영역의 높이이고, l center는 열파의 중심점이고, x는 RROI의 공간 수평 영역이고, y는 RROI의 공간 수직 영역이며, t는 RROI의 시간 영역을 의미한다. 해당하는 RROI 이미지에 따라 실화상 이미지의 관심 영역 또한 동일하게 나타낼 수 있다.And R ROI is of interest in the thermal image in Equation 6, h is a height of the region of interest, l center is the center point of the heat waves, x is space, the horizontal area of the R ROI, y is an area perpendicular to the area of R ROI , t means the time domain of the R ROI . According to the corresponding R ROI image, the ROI of the real image image may also be equally represented.

여기서, 하이브리드 이미지는 시공간 좌표축 변환을 통해, 열화상 이미지는 관심 영역의 열화상 통합 영상(integrated IR images)인 IROI로 변환되고, 실화상 이미지는 관심 영역의 비전 통합 영상(integrated vision image)인 VROI로 변환된다.Here, the hybrid image is transformed into an I ROI , which is an integrated IR image of the ROI , through a space-time coordinate axis transformation, and the real image is an integrated vision image of the ROI . Is converted to V ROI .

도 5를 참조하면, 시공간 좌표축 변환은 레이저 가진을 통해 특정 공간의 점이 가열되고 냉각되는 물리적 현상에 기반한다. Referring to FIG. 5, the space-time coordinate axis transformation is based on a physical phenomenon in which a point of a specific space is heated and cooled by laser excitation.

이에, IC영상의 x축 데이터는 시야각의 특정 지점에서 시간 영역의 열 변화로 간주하고, t축 데이터는 특정 시점에서 공간 영역의 열 변화로 간주할 수 있다. 따라서, 아래의 수학식 7을 통해 IC는 IROI 영상으로 변환된다.Accordingly, the x-axis data of the I C image may be regarded as a thermal change in the time domain at a specific point of the viewing angle, and the t-axis data may be regarded as a thermal change in the spatial area at a specific point in time. Therefore, I C is converted into an I ROI image through Equation 7 below.

<수학식 7> <Equation 7>

Figure pat00007
Figure pat00007

이때,

Figure pat00008
이며, v는 스캐닝 속도이다. 또한 위 첨자 *은 변형된 좌표를 의미한다. 이와 같은 수학식 7의 변환을 통해 전체 관심 영역에 동시에 열 가진 및 냉각 사이클 (heating and cooling cycle)의 효과를 확인할 수 있다.At this time,
Figure pat00008
V is the scanning speed. The superscript * also means transformed coordinates. Through the conversion of Equation 7, it is possible to confirm the effects of heating and cooling cycles on the entire region of interest simultaneously.

또한, IC 영상과 마찬가지로, VC 영상은 아래의 수학식 8을 통해 VROI 이미지로 변환된다. 이때, 실화상 이미지는 레이저 가진이 없으므로 공간 영역에 대해서만 통합된다.In addition, like the I C image, the V C image is converted into a V ROI image through Equation 8 below. In this case, the real image is integrated with only the spatial region since there is no laser excitation.

<수학식 8><Equation 8>

Figure pat00009
Figure pat00009

다음으로 도 6을 참조하여 프로세서(133)가 대상 구조물의 균열을 시각화하기 위한 데이터 프로세싱하는 과정에 대해서 설명하도록 한다. Next, a process of data processing for visualizing the crack of the target structure by the processor 133 will be described with reference to FIG. 6.

도 6은 본 발명의 일 실시예에 따른 균열 시각화 이미지 프로세싱의 과정을 설명하기 위한 도면이다.6 is a view for explaining a process of crack visualization image processing according to an embodiment of the present invention.

이미지 재구축 후, 프로세서(133)는 균열 시각화를 위해 위상 맵핑 프로세스(phase mapping process)를 수행한다. 위상 맵핑 프로세스는 각 픽셀마다 평준화되는 효과를 주기 때문에, 한 이미지에 큰 균열이 존재할 경우에 진폭의 차이에 의해 가려진 미세 균열을 확인할 수 있게 해준다. 즉, 위상 맵핑 프로세스는 각 픽셀마다 평준화함으로써 큰 균열에 의해 미소 균열이 미검출되는 것을 방지하기 위해 수행된다.After reconstructing the image, the processor 133 performs a phase mapping process for crack visualization. The phase mapping process has the effect of equalizing for each pixel, allowing the identification of microcracks occluded by differences in amplitude when large cracks exist in an image. That is, the phase mapping process is performed to prevent micro cracks from being undetected by large cracks by leveling for each pixel.

도 6의 (a)를 참조하면, 각 IROI영상의 시간 축(t*)에 대하여 힐버트 (hilbert) 변환을 수행하여 픽셀마다 실수와 복소수의 값을 모두 포함한 데이터를 획득할 수 있으며, 이는 아래의 수학식 9와 같이 나타낼 수 있다.Referring to FIG. 6A, a Hilbert transform may be performed on a time axis t * of each I ROI image to acquire data including both real and complex values for each pixel. It can be expressed as in Equation (9).

<수학식 9><Equation 9>

Figure pat00010
Figure pat00010

수학식 9에서 P는 코시 주요값(cauchy principle value)이며, τ 는 평행이동을 나타낸다. In Equation 9, P is the cauchy principle value, and τ represents the parallel movement.

도 6의 (b)를 참조하면, 위와 같은 힐버트 변환을 거친 데이터에 대해 각 픽셀마다 실수부와 허수부로 나누어 순간 위상각(instantaneous phase angle)을 계산하며, 이는 다음의 수학식 10과 같이 나타낼 수 있다.Referring to (b) of FIG. 6, the instantaneous phase angle is calculated by dividing each pixel into real and imaginary parts for the Hilbert transform data as described above, which can be expressed by Equation 10 below. have.

<수학식 10><Equation 10>

Figure pat00011
Figure pat00011

수학식 10에서 Re와Im은 각각 실수부와 허수부를 나타낸다.In Equation 10, Re and Im represent a real part and an imaginary part, respectively.

도 6의 (c)를 참조하면, 순간 위상각을 나타내는 각 이미지를 모두 t* 축에 대해 더하여(accumulation) 위상 맵핑(phase mapping) 이미지를 구축하며, 이는 아래의 수학식 11로 나타낼 수 있다.Referring to FIG. 6C, each image representing the instantaneous phase angle is added to the t * axis to construct a phase mapping image, which may be represented by Equation 11 below.

<수학식 11><Equation 11>

Figure pat00012
Figure pat00012

이상의 과정들을 통해 위상 이미지를 얻을 수 있다. Through the above steps, a phase image can be obtained.

한편, 위상 이미지 내에는 여전히 스캐닝으로 인해 발생된 스캐닝 방향의 선형 노이즈 및 평준화 과정에서 발생된 점 노이즈의 값이 커져 발생하는 점 노이즈가 존재할 수 있다. 따라서, 프로세서(133)는 노이즈 제거 처리를 더 수행할 수 있다.On the other hand, in the phase image, there may still exist point noise generated by increasing the value of the linear noise in the scanning direction generated by the scanning and the point noise generated during the leveling process. Therefore, the processor 133 may further perform the noise removing process.

도 6의 (d)를 참조하면, 아래의 수학식 12를 통해 스캐닝 방향(x*)의 공간 미분(spatial derivative)을 수행하여 노이즈를 제거함으로써 온전한 균열 요소만 남길 수 있다. 이에 따라, 균열 요소만 남도록 신호 처리된 열화상 이미지(signal-processed IR image)인 IP 이미지를 획득할 수 있다.Referring to (d) of FIG. 6, only intact cracking elements may be left by removing noise by performing a spatial derivative in the scanning direction x * through Equation 12 below. Accordingly, an I P image, which is a signal-processed IR image, may be obtained such that only crack elements remain.

<수학식 12><Equation 12>

Figure pat00013
Figure pat00013

이하, 도 7 내지 도 9를 참조하여, 프로세서(133)가 균열 평가 자동화 처리를 수행하는 과정에 대해서 설명하도록 한다.Hereinafter, a process of performing the crack evaluation automation process by the processor 133 will be described with reference to FIGS. 7 to 9.

도 7은 본 발명의 일 실시예에 따른 균열 평가 자동화 처리에 적용된 딥러닝 프로세스의 개념도이고, 도 8은 본 발명의 일 실시예에 따른 균열 평가 자동화 처리 과정을 설명하기 위한 도면이다.7 is a conceptual diagram of a deep learning process applied to an automated crack evaluation process according to an embodiment of the present invention, and FIG. 8 is a view for explaining a crack evaluation automated process according to an embodiment of the present invention.

프로세서(133)는 자동 균열 평가를 위해 인공신경망의 일종인 딥러닝 프로세스를 수행한다. 본 발명의 일 실시예에서는 딥러닝 프로세스로서 도 7에서와 같은 딥 CNN 프로세스(Deep CNN process)를 사용할 수 있다. 도 7에서는 딥 CNN 프로세스의 예로서 알려진 사전 학습 모델인 구글넷(GoogLeNet)을 사용하는 것을 나타냈으나, 그 종류는 이에 한정되지 않는다.The processor 133 performs a deep learning process, which is a kind of artificial neural network, for automatic crack evaluation. In an embodiment of the present invention, a deep CNN process as shown in FIG. 7 may be used as a deep learning process. In FIG. 7, it is shown that Googlenet (GoogLeNet), which is a known learning model as an example of the deep CNN process, is not limited thereto.

도 7을 참고하면, 균열 평가용 이미지 학습을 위한 인공신경망은, 전이학습(transfer learning)을 통해 기존에 만들어진 인공신경망의 레이어(Layer) 중 최종단인 'Fully-connected layer', 'Softmax layer', 'Classification layer'를 균열 검출용으로 변경하여 새로이 구축할 수 있다.Referring to FIG. 7, the artificial neural network for image evaluation for crack evaluation includes 'Fully-connected layer' and 'Softmax layer', which are final stages of layers of artificial neural networks that have been previously formed through transfer learning. In addition, the 'Classification layer' can be rebuilt by changing the crack detection.

이때, 프로세서(133)는 균열 이미지 및 무균열 이미지와, 균열로 오인 가능한 그림자, 식생, 이끼 등의 이미지가 인공신경망에 학습되도록 충분히 많은 양의 실화상 이미지를 학습시킨다. 이처럼 구축된 균열 검출용 인공신경망을 활용하여, VROI이미지에 대하여 딥 CNN 프로세스를 수행한다. At this time, the processor 133 learns a sufficient amount of real image images so that the crack image and the non-crack image, and images such as shadows, vegetation, and moss, which may be mistaken for the crack, are learned in the artificial neural network. Using the artificial neural network for crack detection, the deep CNN process is performed on the V ROI image.

도 8을 참고하면, 합성곱 마스크 크기(convolution mask size)는 균열 크기에 최적화하여 정해지며, 프로세서(133)는 유사 범위 내에서 최소 16가지의 합성곱 마스크로 딥 CNN 프로세스를 수행한다. 그리고 프로세서(133)는 해당 결과를 중첩하여 균열 검출 신뢰도에 대한 신뢰도 맵(probability map)을 얻는다. 그런 다음, 프로세서(133)는 획득된 신뢰도 맵을 기반으로 균열로서 검출된 합성곱 마스크 영역 중 정확히 균열만 추출하기 위해 이미지 처리 과정을 수행한다. 구체적으로, 프로세서(133)는 검출된 합성곱 마스크 영역에 중앙값 필터(median filter)를 적용한다. 그리고, 프로세서(133)는 구조물(예: 콘트리트) 표면의 불균질성으로 인해 나타나는 점 노이즈를 처리하기 위해, 와이블 분포(Weibull distribution)를 따르는 극단값 분포(extreme value distribution, EVS)에 근거하여 임계처리(tthresholding process)를 수행한다. 이를 통해, VROI이미지에 대해 딥 CNN 프로세스를 수행하여 균열 정보만 나타낸 실화상 이미지(deep CNN processed vision image)인 VD를 얻는다.Referring to FIG. 8, a convolution mask size is determined by optimizing a crack size, and the processor 133 performs a deep CNN process with at least 16 convolution masks within a similar range. The processor 133 overlaps the result to obtain a reliability map for the crack detection reliability. Then, the processor 133 performs an image processing process to extract exactly the cracks of the composite product mask area detected as the cracks based on the obtained reliability map. In detail, the processor 133 applies a median filter to the detected product mask region. In addition, the processor 133 may perform threshold processing based on an extreme value distribution (EVS) along a Weibull distribution, in order to process point noise caused by a heterogeneity of a structure (eg, a concrete) surface. (tthresholding process). Through this, a deep CNN process is performed on the V ROI image to obtain V D , which is a deep CNN processed vision image showing only crack information.

VD이미지는 대상 구조물의 균열 정보를 담고 있지만, 구조물의 표면 상태, 조도, 먼지 등에 의해 균열을 잘못 인식하는 오보(false alarm) 발생의 가능성이 있다. 이와 같은 VD 이미지에 대한 오보 발생 가능성을 제거하기 위하여, 프로세서(133)는 균열 평가의 신뢰도를 높일 수 있는 이미지 매칭 처리 과정을 수행한다.The V D image contains the crack information of the target structure, but there is a possibility of false alarm that misrecognizes the crack by the surface condition, roughness, dust, etc. of the structure. In order to eliminate the possibility of misinformation on the V D image, the processor 133 performs an image matching process to increase the reliability of crack evaluation.

이때, 프로세서(133)는 VD와 IP 와의 이미지 매칭을 통해 균열 평가의 신뢰도를 높인다.At this time, the processor 133 increases the reliability of crack evaluation through image matching between V D and I P.

도 9는 본 발명의 일 실시예에 따른 이미지 매칭을 통한 의사 결정 과정을 설명하기 위한 도면이다. 9 is a diagram for describing a decision making process through image matching according to an embodiment of the present invention.

도 9의 (a) 과정을 참고하면, 프로세서(133)는 VD이미지에서 검출된 균열 중 연속된 균열 별로 각각 하나의 합성곱 마스크로 지정하고, IP 이미지에서도 VD이미지와 동일한 위치 및 크기의 마스크들을 선택한다. 그리고 IP 이미지에서 선택된 마스크를 각각 딥 CNN 프로세싱에 적합하도록 기설정된 크기(예: 224x224x3)로 이미지 크기를 조절한 후, 이 마스크 이미지들을 IM 이미지로서 설정한다. Referring to (a) process of Figure 9, the processor 133 is the same position and size as the cracks each one convolution mask V D image in the specified and, I P image with the each successive crack being detected at V D images Select masks. The masks selected from the I P images are respectively resized to a predetermined size (for example, 224x224x3) to be suitable for deep CNN processing, and then the mask images are set as I M images.

도 9의 (b) 및 (c)의 과정을 참고하면, 프로세서(133)는 IM 이미지에 대해 딥 CNN 프로세스(즉, 사전에 VROI를 기반으로 훈련된 딥 CNN 프로세스)를 수행하고, 그 결과에 따라 균열 정보가 포함된 열화상 이미지(deep CNN processed IR image)인 ID만 모으고 균열이 아닌 이미지는 제외시킨다.Referring to the processes of FIGS. 9B and 9C, the processor 133 performs a deep CNN process (ie, a deep CNN process previously trained based on V ROI ) on an I M image. depending on the results cracking image information rather than the infrared image collect only I D crack the (deep CNN processed IR image) it contains the causes excluded.

도 9의 (d)의 과정을 참고하면, 프로세서(133)는 이상의 과정을 거쳐 수집된 ID 이미지들을 원래의 크기로 다시 조절한 후 VD 이미지 상에 맵핑하여 최종 결과 이미지(final image)를 생성한다. 이를 통해 균열 인식률을 높일 수 있다.Referring to the process of FIG. 9 (d), the processor 133 adjusts the I D images collected through the above process back to the original size and maps the final result image to the V D image. Create This can increase the crack recognition rate.

이하, 도 10 내지 도 16을 참조하여 본 발명의 일 실시예에 따른 균열 평가 시스템(100)의 균열 검출 효과를 구체적으로 확인한다. 다만, 본 발명은 아래의 실시예에 의하여 한정되는 것은 아니다. Hereinafter, the crack detection effect of the crack evaluation system 100 according to an embodiment of the present invention will be specifically described with reference to FIGS. 10 to 16. However, the present invention is not limited by the following examples.

[실시예]EXAMPLE

본 실시예에서는, 대상 구조물인 콘크리스 시편은 벽면에 고정되어 있으며, 하이브리드 이미지 스캐닝 장치(즉, 연속파 라인 레이저, 열화상 카메라 및 비전 카메라)는 스캐닝 지그(scanning jig)를 따라 수평 방향으로 움직이되 23mm/s의 속도로 이동하는 것을 설정하였다. 즉, 본 실시예에서는 스캐닝 지그를 활용하여 UAV의 역할을 대신하였다. In this embodiment, the concrete specimen, which is the target structure, is fixed to the wall, and the hybrid image scanning device (ie continuous wave line laser, thermal imaging camera, and vision camera) moves horizontally along the scanning jig. It was set to move at a speed of 23 mm / s. That is, in the present embodiment, the role of the UAV is substituted by using the scanning jig.

또한, 본 실시예에서는 연속파 레이저에서 950nm 파장의 점 레이저 빔이 발진되며, 이러한 점 레이저 빔이 선형 빔 발생기를 통해 라인 레이저 빔으로 변형되어 시편에 열파가 가진되도록 하였다. 이때, 라인 레이저 빔의 크기는 5x200mm2 이며, 시편에 가진되는 레이저의 강도는 대략 25mW/mm2 이고, 콘크리트 시편의 열전도율은 0.8Wm-1k-1 이다. In addition, in the present embodiment, a 950 nm wavelength laser beam is oscillated by the continuous wave laser, and the dot laser beam is transformed into a line laser beam through a linear beam generator so that heat waves are excited on the specimen. At this time, the size of the line laser beam is 5x200mm 2 , the intensity of the laser excited on the specimen is approximately 25mW / mm 2 , the thermal conductivity of the concrete specimen is 0.8Wm -1 k -1 .

또한, 본 실시예에서는 비전 카메라는 30Hz의 프레임률(fame rate)로 데이터를 취득하되, 픽셀 해상도는 3264x2448이도록 설정하였다. 또한, 열화상 카메라는 30Hz의 프레임률로 데이터를 취득하되, 스펙트럼 레인지는 3μm ~ 5μm, 픽셀 해상도는 640x512이도록 설정하였다. 그리고 비전 카메라와 열화상 카메라를 통해 각각 22초 동안 데이터를 취득하였다. 이때, 시편의 표면으로부터 하이브리드 이미지 스캐닝 장치는 700mm 떨어져 있도록 하였다.In this embodiment, the vision camera acquires data at a frame rate of 30 Hz, but the pixel resolution is set to be 3264x2448. In addition, the thermal imaging camera acquires data at a frame rate of 30 Hz, but sets the spectral range to 3 μm to 5 μm and the pixel resolution to 640 × 512. The data was acquired for 22 seconds using a vision camera and a thermal imaging camera. At this time, the hybrid image scanning device is 700mm away from the surface of the specimen.

또한, 본 실시예에서는 전체 시스템이 제어 컴퓨터(control computer)에 의해 조작되며, 이는 제어 장치에 대응한다. In addition, in this embodiment, the entire system is operated by a control computer, which corresponds to the control device.

참고로, 본 실시예는 스캐닝 지그를 사용하여 실내 검증 실험을 수행하였지만, 실험 셋업에 사용된 가진 장치, 센싱 장치 및 제어 장치를 모두 합한 무게가 적정 무게(약 3kg)가 되도록 구비하여 실제 UAV 탑재를 통한 현장 실험도 가능하다.For reference, in this embodiment, the indoor verification experiment was performed using the scanning jig, but the weight of the excitation device, the sensing device, and the control device used in the experimental setup was added so that the appropriate weight (approximately 3 kg) was mounted so that the actual UAV was mounted. Field experiments are also possible.

도 10은 균열이 모사된 콘크리트 시편을 나타낸다.10 shows concrete specimens with simulated cracks.

본 실시예에 사용된 시편은 아래의 표 1에서와 같은 콘크리트 배합비를 가지며, 그 크기는 1000X500X100 mm3 이고, 압축 강도는 103MPa이며, 3종 시멘트를 사용하여 제작되었다.Specimen used in this example has a concrete mixing ratio as shown in Table 1 below, the size is 1000X500X100 mm 3 , the compressive strength is 103MPa, it was produced using three kinds of cement.

<표 1>TABLE 1

Figure pat00014
Figure pat00014

도 10을 참조하면, 크기가 750 x 240mm2 인 시편 상의 ROI 내에는, 큰 균열(macro crack)(≥500μm)과 미소 균열(micro crack)(< 500μm), 및 오보(positive false alarm)를 확인하기 위한 펜으로 그린 1mm 너비의 가짜 균열(fake crack)을 모사하였다.Referring to FIG. 10, within the ROI on a specimen of size 750 x 240 mm 2 , macro cracks (≥500 μm), micro cracks (<500 μm), and false false alarms are identified. A fake crack of 1 mm width drawn with a pen to simulate was simulated.

먼저, 이러한 시편을 이종 스캐닝하여 획득한 하이브리드 이미지에 대해 이미지 왜곡 보정을 처리한 결과에 대해서 설명하도록 한다.First, the result of processing image distortion correction on a hybrid image obtained by heterogeneous scanning of the specimen will be described.

도 11은 IR 카메라를 통해 촬영된 원시 열화상 이미지 및 비전 카메라를 통해 촬영된 원시 실화상 이미지를 왜곡 보정한 결과를 나타낸다.11 illustrates a result of distortion correction of a raw thermal image captured by an IR camera and a raw real image captured by a vision camera.

도 11에서, 각 화살표의 좌측은 레이저 가진 10초 후에 취득한 IR 및 VR 이미지이고, 각 화살표의 우측은 IR 및 VR 이미지를 각각 왜곡 보정 처리하여 획득한 IC 및 VC 이미지이다. 이때, 실화상 이미지에 대한 이미지 왜곡은 성공적으로 보정되었으나, 열화상 이미지에 대해서는 왜곡 보정 전과 후의 차이가 크지 않음을 확인할 수 있다.In Fig. 11, the left side of each arrow is an I R and V R image acquired after 10 seconds of laser excitation, and the right side of each arrow is an I C and V C image obtained by distortion correction processing of the I R and V R images, respectively. In this case, the image distortion of the real image image was successfully corrected, but the difference between the before and after distortion correction of the thermal image is not significant.

다음으로, 왜곡 보정된 이미지에 대해 시공간 좌표축 변환을 통한 이미지 재구축 결과에 대해서 설명하도록 한다.Next, the results of image reconstruction through space-time coordinate axis transformation for the distortion-corrected image will be described.

도 12는 왜곡 보정된 이미지에 대해 시공간 좌표축 변환을 처리한 결과를 나타낸다.12 illustrates a result of processing a space-time coordinate axis transformation on a distortion-corrected image.

위의 도 11에서와 같은 IC 및 VC 이미지는, 각각 위에서 설명한 수학식 7 및 8을 통해 시공간 좌표축 변환되어 IROI 및 VROI로 변환된다. 이때, 도 12의 (a) 및 (b)는 각각 레이저 가진 1초 후에 취득한 IROI 이미지 및 VROI이미지이다. 이러한 IROI 이미지는 시간의 경과에 따라 ROI에 열파가 가해지고 식는 효과(heating and cooling effect)를 확인할 수 있으며, VROI이미지는 레이저 가진의 영향을 받지 않기 때문에 한 장의 이미지로 표현된다. The I C and V C images as shown in FIG. 11 are transformed into I ROI and V ROI by space-time coordinate transformation through Equations 7 and 8, respectively, as described above. 12A and 12B are I ROI images and V ROI images acquired 1 second after the laser excitation, respectively. This I ROI image can confirm the heating and cooling effect of the ROI over time, and the V ROI image is represented as a single image because it is not affected by laser excitation.

다음으로, 상세한 균열 평가를 위해 균열을 시각화시키는 데이터 프로세싱에 대해서 설명하도록 한다.Next, data processing for visualizing cracks for detailed crack evaluation will be described.

도 13은 도 12의 시공간 통합된 열화상 이미지로부터 획득된 노이즈 제거된 위상 이미지를 나타낸다.FIG. 13 illustrates a noise canceled phase image obtained from the space-time integrated thermal image of FIG. 12.

상세한 균열 평가를 위해, 위에서 설명한 수학식 9 및 10을 통해 , IROI 영상의 각 픽셀에 대하여 힐버트 변환에 의한 순간 위상각을 산출한다. 그리고, 산출된 위상각을 위에서 설명한 수학식 11에 따라 t*축 방향으로 데이터를 누적함으로써 위상 맵핑 이미지를 얻을 수 있다. 그런 다음, 노이즈 성분을 제거하고 균열 정보만을 가시화하기 위하여, 위에서 설명한 수학식 12에 따라 스캐닝 방향(x*)에 대하여 공간 미분을 수행한다. 그 결과로서, 도 13에서와 같이 노이즈 성분 없이, 큰 규모(macro) 및 미소 규모(micro) 단위의 균열을 모두 확인할 수 있는 IP이미지를 얻을 수 있다.For detailed crack evaluation, the instantaneous phase angle by Hilbert transform is calculated for each pixel of the I ROI image through Equations 9 and 10 described above. In addition, the phase mapping image may be obtained by accumulating data in the t * -axis direction based on the calculated phase angle according to Equation 11 described above. Then, in order to remove the noise component and visualize only the crack information, spatial differentiation is performed in the scanning direction x * according to Equation 12 described above. As a result, as shown in FIG. 13, an I P image capable of confirming cracks in both macro and micro units without noise components can be obtained.

다음으로, 신뢰도 높은 균열 검출을 위한 균열 평가 자동화 처리에 대해서 설명하도록 한다.Next, the automated crack evaluation process for reliable crack detection will be described.

도 14는 도 12의 시공간 통합된 실화상 이미지에 대해 딥 CNN 프로세스를 처리한 균열 이미지를 나타낸다.FIG. 14 shows a crack image subjected to the deep CNN process for the space-time integrated real image image of FIG. 12.

구체적으로, 사전에 실화상 균열 이미지들을 미리 학습시켜놓은 인공신경망을 활용한 딥 CNN 프로세스를 통해 VROI이미지에 나타난 균열 검출을 수행하였다.Specifically, the crack detection in the V ROI image was performed through a deep CNN process using an artificial neural network that previously trained real image crack images.

참고로, 해당 프로세스에는 기존에 공개된 구글넷(GoogLeNet)을 전이학습을 통하여 균열 검출용으로 재구축한 인공신경망을 활용하였다. 이러한 균열 검출용 인공신경망 구축을 위해 균열 이미지와 무균열 이미지를 각각 200장을 수집하여 회전, 대칭 등을 통한 증분(augmentation)과 분할(segmentation)을 통해 약 20만장을 학습시켰다. 또한, 오류를 줄이기 위해 딥 CNN 프로세스는 각각의 합성곱 마스크 크기 당 3회씩 수행하였고, 각 데이터를 모두 활용하여 신뢰도 맵을 구축하였다. 그런 다음, 노이즈 제거 과정을 거쳐 VROI이미지에 맵핑하여, 도 14에서와 같은 VD이미지를 획득하였다.For reference, the artificial neural network that reconstructed the existing Google Net (GoogLeNet) for crack detection through transfer learning was utilized. In order to construct the artificial neural network for crack detection, 200 pieces of crack images and no crack images were collected, and 200,000 pieces were learned through augmentation and segmentation through rotation and symmetry. In addition, in order to reduce errors, the deep CNN process was performed three times for each convolution mask size, and a reliability map was constructed using all the data. That after the following, a noise removal process by mapping the V ROI image to obtain an image, such as V D in Fig.

이때, 딥 CNN 프로세스의 성능은 정밀도(precision)와 재현율(recall)과 같은 신뢰도 지수를 계산하여 평가할 수 있으며, 다음의 수학식 13 및 14와 같이 나타낼 수 있다.In this case, the performance of the deep CNN process may be evaluated by calculating reliability indices such as precision and recall, and may be represented by Equations 13 and 14 below.

<수학식 13><Equation 13>

Figure pat00015
Figure pat00015

<수학식 14><Equation 14>

Figure pat00016
Figure pat00016

위의 수학식 13 및 14에서 Tp, Fp, Fn은 각각 'True positive', 'False Positive', 'False negative'를 나타내며, precision과 recall 값은 각각 66.64%와 91.93%로 계산되었다. 이때, precision 값은 가짜 균열이 실제 균열로 인식되기 때문에 상대적으로 낮은 값으로 나타났다.In Equations 13 and 14, Tp, Fp, and Fn represent 'True positive', 'False Positive', and 'False negative', respectively, and the precision and recall values were calculated as 66.64% and 91.93%, respectively. At this time, the precision value is relatively low because the fake crack is recognized as the actual crack.

도 15는 도 13의 열화상 이미지에 따른 위상 이미지와 도 14의 실화상 이미지에 따른 균열 이미지 간의 이미지 매칭을 통한 의사 결정 과정을 나타냈다.FIG. 15 illustrates a decision making process through image matching between a phase image according to the thermal image of FIG. 13 and a crack image according to the real image image of FIG. 14.

그리고 도 16은 도 15의 이미지 매칭에 따라 획득된 균열 검출이 완료된 결과 이미지를 나타냈다.FIG. 16 illustrates a resultant image of crack detection obtained according to the image matching of FIG. 15.

도 15의 (a)는 도 14의 VD이미지에서 검출된 균열 중 연속된 균열을 하나의 마스크로 선택한 것을 나타냈다. 그리고 도 15의 (b)는 도 13의 IP에 대해서 (a)의 VD에 선택된 마스크와 동일한 위치에 마스크가 선택된 것을 나타냈다. 이때, 도 15의 (b)는 균열로 판단된 이미지ID가 맵핑된 IP이미지를 나타냈다 .FIG. 15 (a) shows that the continuous crack among the cracks detected in the V D image of FIG. 14 was selected as one mask. And Figure 15 (b) showed that masks selected in the same position as the selected mask to V D of (a) with respect to the I P in Fig. In this case, FIG. 15B illustrates an I P image to which an image I D determined as a crack is mapped.

구체적으로, 도 13의 IP에서 마스크로 선택된 이미지들을 인공신경망을 통한 균열 검출을 위해 설정된 크기(즉, 224 x 224 x 3)로 크기 조절을 수행한 후, IM이미지로 분류한다. 이러한 IM이미지들은 딥 CNN 프로세스를 거친 후, 균열로 판단된 이미지들만 ID로서 저장된다. 그리고 ID들을 다시 원래의 크기에 맞추어 리사이징(resizing)하여 IP에 맵핑한다. 도 15를 참조하면, (a) 및 (b)에 각각 노란색 점선으로 표시된 마스크는 가짜 균열(Fake crack)에 따라 설정된 것으로서, (b)의 ID 이미지가 맵핑된 IP에서는 해당 마스크에서 가짜 균열이 검출되지 않은 것을 확인할 수 있다.In detail, images selected as masks in I P of FIG. 13 are sized to a size (that is, 224 x 224 x 3) set for crack detection through an artificial neural network, and then classified into I M images. These I M images undergo a deep CNN process, and only the images determined to be cracks are stored as I D. The I Ds are then resized to their original size and mapped to I P. Referring to FIG. 15, the masks indicated by dotted yellow lines in (a) and (b), respectively, are set according to fake cracks, and in I P to which the I D image of (b) is mapped, fake masks in the masks. It can be confirmed that this was not detected.

다음으로, 원래 크기로 변환된 ID를 도 14의 VD에 맵핑한다. 이를 통해 도 16에서와 같은 최종 이미지(final image)를 획득할 수 있다.Next, I D converted to its original size is mapped to V D of FIG. 14. Through this, a final image as shown in FIG. 16 may be obtained.

도 14의 VD와 도 16의 최종 이미지 사이의 균열 감지 성능(즉, 신뢰도)을 비교하기 위해 아래의 표 2에서 정밀도 및 재현율을 나타내었다.In order to compare the crack detection performance (ie, reliability) between V D of FIG. 14 and the final image of FIG. 16, precision and recall are shown in Table 2 below.

<표 2>TABLE 2

Figure pat00017
Figure pat00017

위와 같이 하이브리드 이미지를 이용하였을 때 신뢰도를 판단하는 두 지수가 명확하게 향상된 것을 확인할 수 있다.When using the hybrid image as described above, it can be seen that the two indexes for determining the reliability are clearly improved.

이하에서는, 도 17을 참조하여 본 발명의 일 실시예에 따른 자동화 구조물 균열 평가 시스템(100) 통한 하이브리드 이미지 스캐닝에 기반한 자동화 구조물 균열 평가 방법에 대해서 설명하도록 한다.Hereinafter, an automated structure crack evaluation method based on hybrid image scanning through the automated structure crack evaluation system 100 according to an embodiment of the present invention will be described with reference to FIG. 17.

도 17은 본 발명의 일 실시예에 따른 하이브리드 이미지 스캐닝에 기반한 자동화 구조물 균열 평가 방법을 설명하기 위한 순서도이다.17 is a flowchart illustrating an automated structure cracking evaluation method based on hybrid image scanning according to an embodiment of the present invention.

먼저, 대상 구조물에 대한 하이브리드 이미지 스캐닝을 처리한다(S110).First, the hybrid image scanning on the target structure is processed (S110).

구체적으로, 가진 장치(110)를 통해 대상 구조물에 연속파 라인 레이저를 조사하되, 이와 병렬적으로 가진 장치(110)와 동기화된 센싱 장치(120)(즉, 열화상 카메라 및 비전 카메라)를 통해 대상 구조물로부터 방사된 열파를 계측하여 생성된 원시 열화상 데이터와 대상 구조물의 외관을 촬영한 원시 실화상 데이터를 획득한다. 이때, 원시 열화상 데이터(즉, 열화상 이미지) 및 원시 실화상 데이터(즉, 실화상 이미지)는 제어 장치(130)로 제공된다.Specifically, the continuous wave line laser is irradiated to the target structure through the excitation device 110, but in parallel with the sensing device 120 (ie, the thermal imaging camera and the vision camera) synchronized with the excitation device 110. The raw thermal image data generated by measuring the heat waves radiated from the structure and the raw real image data of the appearance of the target structure are acquired. At this time, the raw thermal image data (ie, the thermal image) and the raw actual image data (ie, the virtual image) are provided to the control device 130.

다음으로, 원시 열화상 이미지와 원시 실화상 이미지들을 각각 균열 검출에 적합하도록 재구성하는 데이터 프로세싱을 처리한다(S120).Next, data processing is performed to reconstruct the raw thermal image and the raw real image to be suitable for crack detection, respectively (S120).

구체적으로, 제어 장치(130)는 원시 열화상 이미지(IR)와 원시 실화상 이미지(VR)들 각각에 영상 왜곡 보정 처리를 수행하여, 왜곡 보정된 열화상 이미지(IC) 및 왜곡 보정된 실화상 이미지(VC)를 획득한다(S121).Specifically, the controller 130 performs image distortion correction processing on each of the raw thermal image image I R and the raw real image image V R , thereby correcting the distortion-corrected thermal image image I C and distortion correction. The real image image V C is obtained (S121).

이때, 영상 왜곡 보정 프로세스는 원시 열화상 이미지 및 원시 실화상 이미지와 캘리브레이션 마커 간의 이차원 호모그래피를 획득하는 과정, 이차원 호모그래피를 기초로 카메라 내부 파라미터 및 외부 파라미터를 산출하는 과정, 및 내부 파라미터 및 외부 파라미터를 3차원 실제 세계와 2차원 이미지 평면 간의 상관 관계가 모델링된 수학식(예컨대, 수학식 1)에 적용하여 왜곡보정된 열화상 이미지 및 실화상 이미지를 각각 획득하는 과정을 포함할 수 있다.At this time, the image distortion correction process is a process of obtaining a two-dimensional homography between the raw thermal image and the raw real image image and the calibration markers, calculating a camera internal and external parameters based on the two-dimensional homography, and the internal and external parameters The method may include obtaining a distortion-corrected thermal image and a real image image by applying the parameter to a mathematical equation (eg, Equation 1) in which a correlation between the 3D real world and the 2D image plane is modeled.

그리고 제어 장치(130)는 왜곡 보정된 열화상 이미지(IC) 및 왜곡 보정된 실화상 이미지(VC)에 대해 시공간 통합 좌표 변환을 수행하여, 각각 시공간 통합된 열화상 이미지(IROI)와 시공간 통합된 실화상 이미지(VROI)를 획득한다(S122).And the control device 130 is the distortion correction with the infrared image (I C) and by performing a space-time integration coordinate conversion for the distortion correction real image pictures (V C), with each space-time integrated thermal image (I ROI) The space-time integrated real image image V ROI is obtained (S122).

이때, 시공간 통합 좌표 변환을 수행하기에 앞서, 분석 영역(즉, ROI)를 설정할 수 있다. 예를 들어, 대상 구조물에 조사된 라인 레이저 빔의 열파 분포가 따르는 가우시안 분포를 FOV의 y축에 매칭하여, 가우시안 분포의 기설정된 신뢰 구간을 경계로 갖는 분석 영역을 설정할 수 있다.In this case, before performing the spatiotemporal coordinate coordinate transformation, an analysis region (ie, an ROI) may be set. For example, a gaussian distribution along the heat wave distribution of the line laser beam irradiated onto the target structure may be matched to the y-axis of the FOV to set an analysis region having a predetermined confidence interval of the Gaussian distribution.

다음으로, 제어 장치(130)는 시공간 통합된 열화상 이미지(IROI)에 대해 균열 시각화를 위한 데이터 프로세싱을 수행하여 균열 정보가 포함된 열화상 이미지(IP)를 획득한다(S123).Next, the control device 130 performs data processing for crack visualization on the spatiotemporal integrated thermal image I ROI to obtain a thermal image I P including crack information (S123).

이때, 시공간 통합된 열화상 이미지(IROI)를 기준으로 위상 맵핑 프로세스를 수행하여 위상 이미지를 생성한다. 위상 맵핑 프로세스는 균열이 포함된 시공간 통합 열화상 이미지(IROI)의 시간축(t*)에 대하여 힐버트 변환(Hilbert transformation)하고, 각 픽셀의 순간 위상각을 산출한 후, 시간 축에 대해 순간 위상각을 더하는 과정을 포함한다.In this case, a phase mapping process is performed based on the space-time integrated thermal image I ROI to generate a phase image. The phase mapping process performs a Hilbert transformation on the time axis t * of the spatiotemporal integrated thermal image (I ROI ) containing the cracks, calculates the instantaneous phase angle of each pixel, and then instantaneous phases on the time axis. Include the process of adding angles.

또한, 위상 이미지에 포함된 노이즈를 제거하는 과정을 더 수행할 수 있다. 예시적으로, 노이즈 제거 프로세스는 위상 이미지를 스캐닝 방향으로 공간 미분하는 과정을 포함한다.In addition, a process of removing noise included in the phase image may be further performed. In exemplary embodiments, the noise removing process may include spatially differentiating a phase image in a scanning direction.

이상의 과정들을 포함하는 데이터 프로세싱을 처리 단계(S120) 이후에, 제어 장치(130)는 균열이 시각화된 이미지에 대한 균열 평가 자동화 처리를 수행한다(S130).After the processing step (S120) of the data processing including the above processes, the control device 130 performs a crack evaluation automation process for the image in which the crack is visualized (S130).

구체적으로, 제어 장치(130)는 사전에 균열 평가용 실화상 이미지(예: 균열 이미지, 무균열 이미지, 균열 오인이 가능한 개체 정보가 포함된 이미지 등)가 학습된 인공신경망을 통해, 상기 (S122) 단계에서 획득된 시공간 통합된 실화상 이미지(VROI)에 대해 딥러닝 프로세스(즉, 딥 CNN 프로세스)를 수행하고, 그 결과로서 균열 정보가 포함된 실화상 이미지(VD)를 획득한다(S131).Specifically, the control device 130 through the artificial neural network learned in advance the real image image for crack evaluation (for example, crack image, non-crack image, image containing object information that can be mistaken crack), the (S122) Performs a deep learning process (ie, a deep CNN process) on the spatiotemporal integrated real image image V ROI obtained in step), and as a result, obtains a real image image V D including crack information ( S131).

이때, 딥 CNN 프로세스에서 합성곱 마스크는 균열 크기에 최적화하여 정해지고, 유사 범위 내에서 복수의 합성곱 마스크로 딥 CNN 프로세스를 수행한다. 그 결과를 중첩하여 균열 검출 신뢰도에 대한 신뢰도 맵을 획득한다. In this case, the composite product mask is determined by optimizing the crack size in the deep CNN process, and the deep CNN process is performed using a plurality of composite product masks within a similar range. The results are superimposed to obtain a reliability map for crack detection reliability.

그리고, 이러한 신뢰도 맵에 기반하여 균열로 검출된 합성곱 마스크 영역 중 정확히 균열만을 추출하기 위한 이미지 처리를 수행한다. 이미지 처리 프로세스는, 검출된 합성곱 마스크 영역에 중앙값 필터를 적용하고, 와이블 분포에 따른 극단값 분포(EVS)에 근거하여 임계처리를 수행하여, 균열 정보만 나타낸 실화상 이미지(VD)를 획득하는 과정을 포함할 수 있다.Then, based on the reliability map, image processing is performed to extract exactly cracks from the composite product mask region detected as cracks. The image processing process applies a median filter to the detected product mask area and performs critical processing based on the extreme value distribution (EVS) according to the Weibull distribution to produce a real image image (V D ) showing only crack information. It may include the process of obtaining.

다음으로, 제어 장치(130)는 균열 정보가 포함된 실화상 이미지(VD)에 포함된 가짜 균열 정보를 제거하기 위하여, 상기 (S123) 단계에서 획득된 균열 정보가 포함된 열화상 이미지(IP)와의 이미지 매칭을 통한 의사 결정 처리를 수행한다(S132).Next, in order to remove the fake crack information included in the real image image V D including the crack information, the control device 130 includes the thermal image I including the crack information obtained in step S123. Decision processing is performed through image matching with P ) (S132).

이때, 이미지 매칭을 통한 의사 결정 처리는, 균열 정보가 포함된 실화상 이미지(VD) 상에 연속된 균열을 하나의 합성곱 마스크로 지정하고 균열 정보가 포함된 열화상 이미지(IP) 상에 그와 동일한 위치 및 크기의 마스크를 선택하는 과정, 균열 정보가 포함된 열화상 이미지(IP) 상에 선택된 마스크들을 각각 딥러닝을 위해 기설정된 이미지 크기로 조절하여 마스크 이미지(IM)으로 설정하는 과정, 마스크 이미지(IM)를 입력으로하여 상기 균열 평가용 실화상 이미지가 학습된 인공신경망을 통해 딥러닝 프로세스(즉, 딥 CNN 프로세스)를 수행하는 과정, 그 결과로서 균열 이미지만을 모으고 균열이 아닌 이미지를 제외하여 균열 정보만 나타낸 열화상 이미지(ID)를 획득하는 과정, 균열 정보만 나타낸 열화상 이미지(ID)들을 원래 크기로 재조절하여 균열 정보가 포함된 실화상 이미지(VD)에 맵핑함으로써 최종 결과 이미지를 획득하는 과정을 포함할 수 있다. 이를 통해, 균열 평가의 신뢰도를 크게 높일 수 있다. At this time, the decision processing through image matching may designate a continuous crack as a composite product mask on the real image image V D including the crack information and the thermal image image I P including the crack information. The process of selecting a mask having the same position and size as that of the mask, and adjusting the masks selected on the thermal image image I P including the crack information to the preset image size for deep learning, respectively, to the mask image I M. The process of setting, the process of performing a deep learning process (ie, a deep CNN process) through the artificial neural network learned from the real image image for the crack evaluation by inputting the mask image (I M ), as a result of collecting only the crack image The process of acquiring a thermal image (I D ) showing only the crack information except for the image that is not a crack, and reconstructing the thermal image (I D ) showing only the crack information to the original size The method may include obtaining a final result image by mapping to the real image image V D including the column information. Through this, the reliability of crack evaluation can be greatly increased.

이상의 균열 평가 자동화 처리 단계(S130) 이후에, 제어 장치(130)는 균열 정보가 시각화된 최종 결과 이미지를 출력한다(S140).After the crack evaluation automation processing step (S130), the control device 130 outputs the final result image in which the crack information is visualized (S140).

이때, 자동화 구조물 균열 평가 시스템(100)에는 자체적으로 출력 장치(미도시)가 더 포함되거나, 자동화 구조물 균열 평가 장치가 외부의 출력 장치(미도시)와 연동될 수 있다. 이때, 제어 장치(130)는 이러한 출력 장치를 통해 최종 결과 이미지를 출력할 뿐만 아니라, 앞서 설명한 각 처리 단계 별로 획득된 이미지들을 각각 출력할 수 있다. 또한, 제어 장치(130)는 최종 결과 이미지 등을 요청하는 외부 장치로 통신부(131)를 통해 유/무선 통신하여 해당 이미지 데이터를 제공할 수 있다.In this case, the automated structure cracking evaluation system 100 may further include an output device (not shown) by itself, or the automated structure cracking evaluation device may be linked with an external output device (not shown). In this case, the control device 130 may not only output the final result image through the output device, but also output the images acquired for each processing step described above. In addition, the control device 130 may provide corresponding image data by wired / wireless communication through the communication unit 131 to an external device requesting the final result image.

이상에서 설명한 본 발명의 실시예에 따른 하이브리드 이미지 스캐닝에 기반한 균열 검출 방법은, 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 이러한 기록 매체는 컴퓨터 판독 가능 매체를 포함하며, 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함하며, 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The crack detection method based on hybrid image scanning according to the embodiment of the present invention described above may be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Such recording media include computer readable media, and computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, computer readable media includes computer storage media, and computer storage media are volatile and nonvolatile implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Both removable and non-removable media.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 조사 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present invention is intended for illustration, and a person of ordinary skill in the art may understand that the present invention can be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

또한, 본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수도 있다.In addition, while the methods and systems of the present invention have been described in connection with specific embodiments, some or all of their components or operations may be implemented using a computer system having a general purpose hardware architecture.

본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. .

100: 자동화 구조물 균열 평가 시스템 110: 가진 장치
120: 센싱 장치 130: 제어 장치
100: automation structure crack evaluation system 110: the excitation device
120: sensing device 130: control device

Claims (15)

하이브리드 이미지 스캐닝에 기반한 자동화 구조물 균열 평가 시스템에 있어서,
대상 구조물에 연속파 라인 레이저를 조사하는 가진 장치;
상기 대상 구조물에서 방사된 열파를 계측하여 열화상 이미지들을 생성하는 열화상 카메라, 및 상기 대상 구조물의 외관을 촬영하여 실화상 이미지들을 생성하는 비전 카메라를 포함하되, 상기 열화상 카메라 및 비전 카메라는 각각 상기 가진 장치와 동기화되어 기설정된 스캐닝 방향으로 이동하는 것인 센싱 장치; 및
상기 열화상 이미지들 및 실화상 이미지들에 대해 왜곡 보정 처리 및 시공간 통합 좌표 변환 처리를 수행하여 시공간 통합된 열화상 이미지 및 실화상 이미지를 생성하고, 상기 시공간 통합된 열화상 이미지에 대해 위상 맵핑 처리를 수행하여 위상 이미지를 생성하고, 사전에 균열 평가용 실화상 이미지들이 학습된 인공신경망을 통해 상기 시공간 통합된 실화상 이미지에 대해 딥러닝 프로세스를 수행하여 균열을 검출하고, 상기 균열이 검출된 실화상 이미지에서 균열 영역을 특정하되 상기 위상 이미지에 상기 특정된 균열 영역과 동일한 위치 및 크기에 대응된 영역을 특정하고, 상기 위상 이미지에 특정된 영역 별 이미지를 상기 인공신경망을 통해 딥러닝 프로세스를 수행하여 균열 정보가 포함된 열화상 이미지를 생성하고, 상기 균열 정보가 포함된 열화상 이미지를 상기 균열이 검출된 실화상 이미지에 맵핑하여 균열만 시각화된 최종 이미지를 생성하는 제어 장치를 포함하며,
상기 균열 평가용 실화상 이미지는, 균열 이미지, 무균열 이미지, 균열로 오인된 적어도 하나의 개체 정보가 포함된 이미지 중 적어도 하나를 포함하는 것인, 자동화 구조물 균열 평가 시스템.
In automated structure cracking evaluation system based on hybrid image scanning,
An excitation device for irradiating a continuous wave line laser to a target structure;
A thermal imaging camera for measuring thermal waves radiated from the target structure to generate thermal images, and a vision camera for photographing the exterior of the target structure to generate real image images. A sensing device synchronized with the excitation device and moving in a preset scanning direction; And
Distortion correction processing and spatiotemporal coordinate coordinate transformation processing are performed on the thermal images and the real image images to generate a spatiotemporal thermal image and a real image, and a phase mapping process on the spatiotemporal thermal image. To generate a phase image, perform a deep learning process on the space-time integrated real image image through the artificial neural network with which the real image images for crack evaluation were learned in advance, and detect the crack, A crack region is specified in the image image, and a region corresponding to the same position and size as the specified crack region is specified in the phase image, and a deep learning process is performed through the artificial neural network for the image for each region specified in the phase image. To generate a thermal image containing crack information, the crack information included A control device for mapping the thermal image to the real image image in which the crack is detected to generate a final image in which only the crack is visualized,
The real image image for crack evaluation, at least one of a crack image, a non-crack image, the image containing at least one object information mistaken for a crack, automated structure crack evaluation system.
제 1 항에 있어서,
상기 제어 장치는,
상기 시공간 통합된 실화상 이미지에 대해 딥 컨볼루션 뉴럴 네트워크 프로세스(deep convolutional neural network process)를 수행하되,
상기 시공간 통합된 실화상 이미지에 대해 기설정된 합성곱 마스크 크기(convolution mask size)를 적용하여 복수의 합성곱 마스크로 상기 딥 컨볼루션 뉴럴 네트워크 프로세스를 수행한 결과를 중첩하여 균열 검출 신뢰도 맵(probability map)을 획득하고,
상기 신뢰도 맵에 기반하여 균열이 포함된 것으로 검출된 합성곱 마스크 영역에 중앙값 필터(median filter)를 적용하여 균열을 검출하고, 극단값 분포(extreme value distribution, EVS)에 기초한 임계처리(tthresholding process)를 수행하여 점 노이즈를 제거하는 것인, 자동화 구조물 균열 평가 시스템.
The method of claim 1,
The control device,
A deep convolutional neural network process is performed on the space-time integrated real image image,
Crack detection reliability maps by overlapping the results of performing the deep convolutional neural network process with a plurality of convolution masks by applying a predetermined convolution mask size to the space-time integrated real image. ),
A crack is detected by applying a median filter to a composite product mask region detected as including a crack based on the reliability map, and a thresholding process based on an extreme value distribution (EVS). To remove the point noise by performing an automated structure cracking evaluation system.
제 1 항에 있어서,
상기 제어 장치는,
상기 딥러닝 프로세스로서 딥 컨볼루션 뉴럴 네트워크 프로세스(deep convolutional neural network process)를 수행하되,
상기 시공간 통합된 실화상 이미지에서 검출된 균열 중 연속된 균열 별로 각각 하나의 합성곱 마스크로 지정하고,
상기 위상 이미지에서, 상기 합성곱 마스크와 대응된 위치 및 크기의 마스크를 선택하고,
상기 선택된 마스크를 상기 딥 컨볼루션 뉴럴 네트워크 프로세스용으로 기설정된 크기로 이미지 크기를 조절한 마스크 이미지를 생성하고,
상기 마스크 이미지를 입력으로하여 상기 딥 컨볼루션 뉴럴 네트워크 프로세스를 수행하여 균열이 검출된 마스크 이미지들을 추출하고,
상기 추출된 마스크 이미지의 크기를 원래의 크기로 재조절하여 상기 균열 정보가 포함된 열화상 이미지를 생성하고,
상기 균열 정보가 포함된 열화상 이미지를 상기 균열이 검출된 실화상 이미지에 맵핑하여 가짜 균열을 제거하는 것인, 자동화 구조물 균열 평가 시스템.
The method of claim 1,
The control device,
As a deep learning process, a deep convolutional neural network process is performed.
Each of the cracks detected in the space-time integrated real image is designated by a composite product mask for each continuous crack,
Selecting a mask having a position and a size corresponding to the composite product mask in the phase image,
Generate a mask image in which the selected mask is resized to an image size preset for the deep convolutional neural network process,
Extracting the mask images in which the crack is detected by performing the deep convolutional neural network process using the mask image as an input,
Resizing the extracted mask image to its original size to generate a thermal image including the crack information,
Automated structure cracking evaluation system to remove the false crack by mapping the thermal image including the crack information to the real image image of the crack detected.
제 1 항에 있어서,
상기 가진 장치 및 센싱 장치는 무인 항공기(Unmanned Aerial Vehicle) 또는 무인 클라이밍 로봇(climbing robot)에 탑재된 것인, 자동화 구조물 균열 평가 시스템.
The method of claim 1,
The excitation device and the sensing device is mounted on an unmanned aerial vehicle or an unmanned climbing robot, automated structure cracking evaluation system.
하이브리드 이미지 스캐닝에 기반한 자동화 구조물 균열 평가 시스템의 자동화 구조물 균열 평가 장치에 있어서,
대상 구조물에 연속파 라인 레이저를 조사하는 가진 장치와, 상기 대상 구조물에서 방사된 열파를 계측하여 원시 열화상 이미지들을 생성하는 열화상 카메라 및 상기 대상 구조물의 외관을 촬영하여 원시 실화상 이미지들을 생성하는 비전 카메라를 포함하되 상기 열화상 카메라 및 비전 카메라는 각각 상기 가진 장치와 동기화되어 기설정된 스캐닝 방향으로 이동하는 것인 센싱 장치를 포함하는 하이브리드 이미지 스캐닝 장치로부터 상기 대상 구조물에 대한 원시 열화상 이미지 및 원시 실화상 이미지를 수신하는 통신부;
하이브리드 이미지 스캐닝에 기반한 구조물 균열 검출 프로그램이 저장된 메모리; 및
상기 메모리에 저장된 프로그램을 실행하는 프로세서를 포함하며,
상기 프로세서는 상기 구조물 균열 검출 프로그램의 실행에 따라,
상기 원시 열화상 이미지들 및 원시 실화상 이미지들에 대해 왜곡 보정 처리 및 시공간 통합 좌표 변환 처리를 수행하여 시공간 통합된 열화상 이미지 및 실화상 이미지를 생성하고,
상기 시공간 통합된 열화상 이미지에 대해 위상 맵핑 처리를 수행하여 위상 이미지를 생성하고,
사전에 균열 평가용 실화상 이미지들이 학습된 인공신경망을 통해 상기 시공간 통합된 실화상 이미지에 대해 딥러닝 프로세스를 수행하여 균열을 검출하고,
상기 균열이 검출된 실화상 이미지에서 균열 영역을 특정하되 상기 위상 이미지에 상기 특정된 균열 영역과 동일한 위치 및 크기에 대응된 영역을 특정하고, 상기 위상 이미지에 특정된 영역 별 이미지를 상기 인공신경망을 통해 딥러닝 프로세스를 수행하여 균열 정보가 포함된 열화상 이미지를 생성하고,
상기 균열 정보가 포함된 열화상 이미지를 상기 균열이 검출된 실화상 이미지에 맵핑하여 균열만 시각화된 최종 이미지를 생성하고,
상기 균열 평가용 실화상 이미지는, 균열 이미지, 무균열 이미지, 균열로 오인된 적어도 하나의 개체 정보가 포함된 이미지 중 적어도 하나를 포함하는 것인, 자동화 구조물 균열 평가 장치.
In the automated structure cracking evaluation apparatus of automated structure cracking evaluation system based on hybrid image scanning,
An excitation device for irradiating a continuous wave line laser to a target structure, a thermal imaging camera for generating raw thermal image images by measuring the heat wave radiated from the target structure, and a vision for generating the raw real image images by photographing the exterior of the target structure A raw thermal image and a raw seal for the target structure from a hybrid image scanning device including a camera, wherein the thermal imaging camera and the vision camera each include a sensing device that is synchronized with the excitation device and moves in a preset scanning direction. A communication unit for receiving an image image;
A memory storing a structure crack detection program based on hybrid image scanning; And
A processor for executing a program stored in the memory;
The processor is configured to execute the structure crack detection program.
Distortion-correction processing and spatiotemporal coordinate coordinate transformation processing are performed on the raw thermal image images and the raw real image images to generate a space-time integrated thermal image and a real image image;
Performing a phase mapping process on the space-time integrated thermal image to generate a phase image,
Crack detection is performed by performing a deep learning process on the real-time image integrated with the space-time through the artificial neural network where the real-image images for crack evaluation have been learned in advance
The crack region is specified in the real image image in which the crack is detected, and the region corresponding to the same position and size as the specified crack region is specified in the phase image, and the image for each region specified in the phase image is selected from the artificial neural network. Performs a deep learning process to create a thermal image with crack information,
Mapping the thermal image including the crack information to the real image in which the crack is detected to generate a final image in which only the crack is visualized;
The real image image for crack evaluation, at least one of a crack image, a non-crack image, the image containing at least one object information mistaken for a crack, automated structure crack evaluation apparatus.
제 5 항에 있어서,
상기 프로세서는,
상기 시공간 통합된 실화상 이미지에 대해 딥 컨볼루션 뉴럴 네트워크 프로세스(deep convolutional neural network process)를 수행하되,
상기 시공간 통합된 실화상 이미지에 대해 기설정된 합성곱 마스크 크기(convolution mask size)를 적용하여 복수의 합성곱 마스크로 상기 딥 컨볼루션 뉴럴 네트워크 프로세스를 수행한 결과를 중첩하여 균열 검출 신뢰도 맵(probability map)을 획득하고,
상기 신뢰도 맵에 기반하여 균열이 포함된 것으로 검출된 합성곱 마스크 영역에 중앙값 필터(median filter)를 적용하여 균열을 검출하고, 극단값 분포(extreme value distribution, EVS)에 기초한 임계처리(tthresholding process)를 수행하여 점 노이즈를 제거하는 것인, 자동화 구조물 균열 평가 장치.
The method of claim 5,
The processor,
A deep convolutional neural network process is performed on the space-time integrated real image image,
Crack detection reliability maps by overlapping the results of performing the deep convolutional neural network process with a plurality of convolution masks by applying a predetermined convolution mask size to the space-time integrated real image. ),
A crack is detected by applying a median filter to a composite product mask region detected as including a crack based on the reliability map, and a thresholding process based on an extreme value distribution (EVS). To eliminate the point noise by performing the automated structure cracking evaluation apparatus.
제 5 항에 있어서,
상기 프로세서는,
상기 딥러닝 프로세스로서 딥 컨볼루션 뉴럴 네트워크 프로세스(deep convolutional neural network process)를 수행하되,
상기 시공간 통합된 실화상 이미지에서 검출된 균열 중 연속된 균열 별로 각각 하나의 합성곱 마스크로 지정하고,
상기 위상 이미지에서, 상기 합성곱 마스크와 대응된 위치 및 크기의 마스크를 선택하고,
상기 선택된 마스크를 상기 딥 컨볼루션 뉴럴 네트워크 프로세스용으로 기설정된 크기로 이미지 크기를 조절한 마스크 이미지를 생성하고,
상기 마스크 이미지를 입력으로하여 상기 딥 컨볼루션 뉴럴 네트워크 프로세스를 수행하여 균열이 검출된 마스크 이미지들을 추출하고,
상기 추출된 마스크 이미지의 크기를 원래의 크기로 재조절하여 상기 균열 정보가 포함된 열화상 이미지를 생성하고,
상기 균열 정보가 포함된 열화상 이미지를 상기 균열이 검출된 실화상 이미지에 맵핑하여 가짜 균열을 제거하는 것인, 자동화 구조물 균열 평가 장치.
The method of claim 5,
The processor,
As a deep learning process, a deep convolutional neural network process is performed.
Each of the cracks detected in the space-time integrated real image is designated by a composite product mask for each continuous crack,
Selecting a mask having a position and a size corresponding to the composite product mask in the phase image,
Generate a mask image in which the selected mask is resized to an image size preset for the deep convolutional neural network process,
Extracting the mask images in which the crack is detected by performing the deep convolutional neural network process using the mask image as an input,
Resizing the extracted mask image to its original size to generate a thermal image including the crack information,
Automated structure cracking evaluation apparatus to remove the false crack by mapping the thermal image including the crack information to the real image image of the crack detected.
제 5 항에 있어서,
상기 프로세서는,
상기 원시 열화상 이미지들 및 원시 실화상 이미지들과, 교정 마커(calibration marker) 간의 이차원 호모그래피(homography) 행렬을 추정하고,
상기 이차원 호모그래피 행렬을 기초로 카메라 내부 파라미터 및 외부 파라미터를 산출하며,
상기 내부 파라미터 및 외부 파라미터를 기설정된 3차원 실제 세계 및 2차원 이미지 평면 간의 상관 관계 모델에 적용하여 상기 원시 열화상 이미지들 및 원시 실화상 이미지들을 각각 왜곡 보정된 이미지로 변환하는 것인, 자동화 구조물 균열 평가 장치.
The method of claim 5,
The processor,
Estimate a two-dimensional homography matrix between the raw thermal images and the raw real images and a calibration marker,
Calculating camera internal and external parameters based on the two-dimensional homography matrix,
Applying the internal and external parameters to a correlation model between a predetermined three-dimensional real world and a two-dimensional image plane to convert the raw thermal images and the raw real images into distortion-corrected images, respectively. Crack evaluation device.
제 5 항에 있어서,
상기 프로세서는,
상기 대상 구조물에 조사된 연속파 라인 레이저의 열파 분포가 따르는 가우시안 분포에 대해 기설정된 신뢰 구간을 경계로 갖는 분석 영역을 설정하고,
상기 왜곡 보정 처리에 따른 열화상 이미지들 및 실화상 이미지들 각각에 대해 상기 분석 영역을 적용한 후 시공간 통합 좌표 변환을 수행하여, 상기 분석 영역에 대한 시공간 통합된 열화상 이미지 및 실화상 이미지로 변환하는 것인, 자동화 구조물 균열 평가 장치.
The method of claim 5,
The processor,
Setting an analysis region having a predetermined confidence interval for the Gaussian distribution followed by the heat wave distribution of the continuous wave line laser irradiated to the target structure,
After applying the analysis region to each of the thermal image and the real image image according to the distortion correction processing, and performing the spatiotemporal coordinate coordinate transformation, transformed into the spatiotemporal image and real image image for the analysis region Will, automated structure crack evaluation device.
제 5 항에 있어서,
상기 프로세서는,
상기 시공간 통합된 열화상 이미지의 시간축에 대해 힐버트 (hilbert) 변환을 수행하여 픽셀 별 실수 및 복소수 값을 획득하고,
상기 픽셀 별 실수부와 허수부에 대해 순간 위상각(instantaneous phase angle)을 산출하고,
상기 산출된 순간 위상각을 상기 시간축에 대해 더하여 위상 이미지를 생성하는 것인, 자동화 구조물 균열 평가 장치.
The method of claim 5,
The processor,
Performing a Hilbert transform on the time axis of the space-time integrated thermal image to obtain real and complex values for each pixel,
Calculating an instantaneous phase angle with respect to the real part and the imaginary part of each pixel,
And adding the calculated instantaneous phase angle with respect to the time axis to generate a phase image.
제 10 항에 있어서,
상기 프로세서는,
상기 위상 이미지에 대해 상기 스캐닝 방향으로 공간 미분하여 노이즈를 제거하는 것인, 자동화 구조물 균열 평가 장치.
The method of claim 10,
The processor,
Spatially differentiating in the scanning direction with respect to the phase image to remove noise.
자동화 구조물 균열 평가 시스템을 통한 하이브리드 이미지 스캐닝에 기반한 자동화 구조물 균열 평가 방법에 있어서,
가진 장치를 통해 대상 구조물에 연속파 라인 레이저를 조사하는 단계;
상기 가진 장치와 동기화되어 기설정된 스캐닝 방향으로 이동하는 열화상 카메라 및 비전 카메라를 통해, 상기 대상 구조물에서 방사된 열파를 계측하여 원시 열화상 이미지들 및 상기 대상 구조물의 외관을 촬영한 원시 실화상 이미지들을 생성하는 단계;
상기 원시 열화상 이미지들 및 원시 실화상 이미지들에 대해 왜곡 보정 처리 및 시공간 통합 좌표 변환 처리를 수행하여 시공간 통합된 열화상 이미지 및 실화상 이미지를 생성하는 단계;
상기 시공간 통합된 열화상 이미지에 대해 위상 맵핑 처리를 수행하여 위상 이미지를 생성하는 단계;
사전에 균열 평가용 실화상 이미지들이 학습된 인공신경망을 통해 상기 시공간 통합된 실화상 이미지에 대해 딥러닝 프로세스를 수행하여 균열을 검출하는 단계;
상기 균열이 검출된 실화상 이미지에서 균열 영역을 특정하되, 상기 위상 이미지에 상기 특정된 균열 영역과 동일한 위치 및 크기에 대응된 영역을 특정하고, 상기 위상 이미지에 특정된 영역 별 이미지를 상기 인공신경망을 통해 딥러닝 프로세스를 수행하여 균열 정보가 포함된 열화상 이미지를 생성하는 단계; 및
상기 균열 정보가 포함된 열화상 이미지를 상기 균열이 검출된 실화상 이미지에 맵핑하여 균열만 시각화된 최종 이미지를 생성하는 단계를 포함하며,
상기 균열 평가용 실화상 이미지는, 균열 이미지, 무균열 이미지, 균열로 오인된 적어도 하나의 개체 정보가 포함된 이미지 중 적어도 하나를 포함하는 것인, 자동화 구조물 균열 평가 방법.
In the automated structure crack evaluation method based on hybrid image scanning through an automated structure crack evaluation system,
Irradiating a continuous wave line laser to a target structure through an excitation device;
Raw thermal images and raw real image images of external appearances of the target structures are measured by measuring thermal waves radiated from the target structure through a thermal imaging camera and a vision camera synchronized with the excitation device and moving in a predetermined scanning direction. Generating them;
Generating a space-time integrated thermal image and a real image by performing a distortion correction process and a space-time integrated coordinate transformation process on the raw thermal image images and the raw real image images;
Generating a phase image by performing a phase mapping process on the space-time integrated thermal image;
Detecting a crack by performing a deep learning process on the space-time integrated real image image through an artificial neural network with which the real image images for crack evaluation have been previously learned;
The crack region is specified in the real image image in which the crack is detected, and a region corresponding to the same position and size as the specified crack region is specified in the phase image, and the image for each region specified in the phase image is determined by the artificial neural network. Performing a deep learning process to generate a thermal image including crack information; And
Mapping the thermal image image including the crack information to the real image image in which the crack is detected to generate a final image in which only the crack is visualized;
The real image image for crack evaluation, crack image, non-crack image, at least one of the image containing at least one object information mistaken for a crack, automated structure crack evaluation method.
제 12 항에 있어서,
상기 딥러닝 프로세스를 수행하여 균열 정보가 포함된 실화상 이미지를 생성하는 단계는,
상기 시공간 통합된 실화상 이미지에 대해 딥 컨볼루션 뉴럴 네트워크 프로세스(deep convolutional neural network process)를 수행하되,
상기 시공간 통합된 실화상 이미지에 대해 기설정된 합성곱 마스크 크기(convolution mask size)를 적용하여 복수의 합성곱 마스크로 상기 딥 컨볼루션 뉴럴 네트워크 프로세스를 수행한 결과를 중첩하여 균열 검출 신뢰도 맵(probability map)을 획득하고,
상기 신뢰도 맵에 기반하여 균열이 포함된 것으로 검출된 합성곱 마스크 영역에 중앙값 필터(median filter)를 적용하여 균열을 검출하고, 극단값 분포(extreme value distribution, EVS)에 기초한 임계처리(tthresholding process)를 수행하여 점 노이즈를 제거하는 것인, 자동화 구조물 균열 평가 방법.
The method of claim 12,
The deep learning process may include generating a real image image including crack information.
A deep convolutional neural network process is performed on the space-time integrated real image image,
Crack detection reliability maps by overlapping the results of performing the deep convolutional neural network process with a plurality of convolution masks by applying a predetermined convolution mask size to the space-time integrated real image. ),
A crack is detected by applying a median filter to a composite product mask region detected as including a crack based on the reliability map, and a thresholding process based on an extreme value distribution (EVS). To remove the point noise by performing the automated structure crack evaluation method.
제 12 항에 있어서,
상기 인공신경망을 통해 상기 딥러닝 프로세스를 수행하여 균열 정보가 포함된 열화상 이미지를 생성하는 단계는,
상기 딥러닝 프로세스로서 딥 컨볼루션 뉴럴 네트워크 프로세스(deep convolutional neural network process)를 수행하되,
상기 균열이 검출된 실화상 이미지에서 검출된 균열 중 연속된 균열 별로 각각 하나의 합성곱 마스크로 지정하고,
상기 위상 이미지에서, 상기 합성곱 마스크와 대응된 위치 및 크기의 마스크를 선택하고,
상기 선택된 마스크를 상기 딥 컨볼루션 뉴럴 네트워크 프로세스용으로 기설정된 크기로 이미지 크기를 조절한 마스크 이미지를 생성하고,
상기 마스크 이미지를 입력으로하여 상기 딥 컨볼루션 뉴럴 네트워크 프로세스를 수행하여 균열이 검출된 마스크 이미지들을 추출하고,
상기 추출된 마스크 이미지의 크기를 원래의 크기로 재조절하여 상기 균열 정보가 포함된 열화상 이미지를 생성하고,
상기 균열 정보가 포함된 열화상 이미지를 상기 균열이 검출된 실화상 이미지에 맵핑하여 가짜 균열을 제거하는 것인, 자동화 구조물 균열 평가 방법.
The method of claim 12,
The deep learning process may be performed through the neural network to generate a thermal image including crack information.
As a deep learning process, a deep convolutional neural network process is performed.
Each of the cracks detected in the real image image in which the cracks are detected is designated as a composite product mask for each consecutive crack,
Selecting a mask having a position and a size corresponding to the composite product mask in the phase image,
Generate a mask image in which the selected mask is resized to an image size preset for the deep convolutional neural network process,
Extracting the mask images in which the crack is detected by performing the deep convolutional neural network process using the mask image as an input,
Resizing the extracted mask image to its original size to generate a thermal image including the crack information,
Automated structure crack evaluation method for removing the false crack by mapping the thermal image including the crack information to the real image image of the crack detected.
제 12 항 내지 제14항 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체.A computer-readable recording medium having recorded thereon a program for implementing the method of claim 12.
KR1020180069795A 2018-06-18 2018-06-18 System and method for autonomous crack evaluation of structure based on uav mounted-hybrid image scanning KR102122893B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180069795A KR102122893B1 (en) 2018-06-18 2018-06-18 System and method for autonomous crack evaluation of structure based on uav mounted-hybrid image scanning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180069795A KR102122893B1 (en) 2018-06-18 2018-06-18 System and method for autonomous crack evaluation of structure based on uav mounted-hybrid image scanning

Publications (2)

Publication Number Publication Date
KR20190142626A true KR20190142626A (en) 2019-12-27
KR102122893B1 KR102122893B1 (en) 2020-06-15

Family

ID=69062553

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180069795A KR102122893B1 (en) 2018-06-18 2018-06-18 System and method for autonomous crack evaluation of structure based on uav mounted-hybrid image scanning

Country Status (1)

Country Link
KR (1) KR102122893B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111272764A (en) * 2020-01-22 2020-06-12 哈尔滨工业大学 Large intelligent temporary platform non-contact image recognition mobile management and control system and method
KR102159472B1 (en) * 2020-05-27 2020-09-23 유재원 System for managing materials based on deep learning
CN112164024A (en) * 2020-08-29 2021-01-01 北方工业大学 Concrete surface crack detection method and system based on field self-adaptation
CN112488942A (en) * 2020-12-02 2021-03-12 北京字跳网络技术有限公司 Method, device, equipment and computer readable medium for repairing image
KR102256181B1 (en) 2019-12-30 2021-05-27 한국과학기술원 Method of inspecting and evaluating coating state of steel structure and system for the same

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102408407B1 (en) * 2020-08-05 2022-06-14 (주)이포즌 Apparatus and method for detecting concrete construction crack
KR102559790B1 (en) * 2021-07-09 2023-07-27 한국전력공사 Method for detecting crack in structures
KR20230056807A (en) 2021-10-19 2023-04-28 세종대학교산학협력단 Hybrid damage evaluation system for masonry construction structure using image data, and method for the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012098170A (en) * 2010-11-02 2012-05-24 Shimizu Corp Image data processing system
KR20170096298A (en) * 2016-02-15 2017-08-24 성균관대학교산학협력단 Deep learning system and learning method using of convolutional neural network based image patterning
KR20170096719A (en) * 2016-02-17 2017-08-25 한국전자통신연구원 Image processing device and processing method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012098170A (en) * 2010-11-02 2012-05-24 Shimizu Corp Image data processing system
KR20170096298A (en) * 2016-02-15 2017-08-24 성균관대학교산학협력단 Deep learning system and learning method using of convolutional neural network based image patterning
KR20170096719A (en) * 2016-02-17 2017-08-25 한국전자통신연구원 Image processing device and processing method thereof

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102256181B1 (en) 2019-12-30 2021-05-27 한국과학기술원 Method of inspecting and evaluating coating state of steel structure and system for the same
CN113125458A (en) * 2019-12-30 2021-07-16 韩国科学技术院 Method and system for inspecting and evaluating coating state of steel structure
US11494891B2 (en) 2019-12-30 2022-11-08 Korea Advanced Institute Of Science And Technology Method of inspecting and evaluating coating state of steel structure and system therefor
CN113125458B (en) * 2019-12-30 2023-12-22 韩国科学技术院 Method and system for checking and evaluating coating state of steel structure
CN111272764A (en) * 2020-01-22 2020-06-12 哈尔滨工业大学 Large intelligent temporary platform non-contact image recognition mobile management and control system and method
KR102159472B1 (en) * 2020-05-27 2020-09-23 유재원 System for managing materials based on deep learning
CN112164024A (en) * 2020-08-29 2021-01-01 北方工业大学 Concrete surface crack detection method and system based on field self-adaptation
CN112164024B (en) * 2020-08-29 2023-09-05 北方工业大学 Concrete surface crack detection method and system based on field self-adaption
CN112488942A (en) * 2020-12-02 2021-03-12 北京字跳网络技术有限公司 Method, device, equipment and computer readable medium for repairing image

Also Published As

Publication number Publication date
KR102122893B1 (en) 2020-06-15

Similar Documents

Publication Publication Date Title
KR102122893B1 (en) System and method for autonomous crack evaluation of structure based on uav mounted-hybrid image scanning
KR101948852B1 (en) Hybrid image scanning method and apparatus for noncontact crack evaluation
CN110415342B (en) Three-dimensional point cloud reconstruction device and method based on multi-fusion sensor
KR102256181B1 (en) Method of inspecting and evaluating coating state of steel structure and system for the same
CN104713885B (en) A kind of structure light for pcb board on-line checking aids in binocular measuring method
CN102927448B (en) Pipeline non-destructive testing method
KR102256583B1 (en) System for Measuring Position of Subject
CN116879308A (en) Industrial machine vision system image processing method
CN110334701B (en) Data acquisition method based on deep learning and multi-vision in digital twin environment
Protopapadakis et al. Autonomous robotic inspection in tunnels
KR20150128300A (en) method of making three dimension model and defect analysis using camera and laser scanning
CN112740023A (en) Machine learning system and data fusion for optimizing deployment conditions for detecting corrosion under heat preservation layer
Son et al. Learning to remove multipath distortions in time-of-flight range images for a robotic arm setup
KR101809504B1 (en) Continuous wave line laser scanning thermography apparatus and method for nondestructive test
CN115272271A (en) Pipeline defect detecting and positioning ranging system based on binocular stereo vision
Liu et al. Real-time 3D surface measurement in additive manufacturing using deep learning
CN112097688A (en) Multispectral three-dimensional shape measurement method and device based on grating projection three-dimensional imaging
Akhloufi et al. Three-dimensional thermography for non-destructive testing and evaluation
WO2024067435A1 (en) Video-based multi-object displacement tracking monitoring method and apparatus
CN110349209A (en) Vibrating spear localization method based on binocular vision
CN108180871A (en) A kind of method of quantitative assessment surface of composite insulator dusting roughness
Li et al. A novel multispectral fusion defect detection framework with coarse-to-fine multispectral registration
CN115210664A (en) System and method for controlling automated inspection of an article
RU2650857C1 (en) System for determining geometric parameters of three-dimensional objects
Merkle et al. Sensor evaluation for crack detection in concrete bridges

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant