KR20230085299A - System and method for detecting damage of structure by generating multi-scale resolution image - Google Patents

System and method for detecting damage of structure by generating multi-scale resolution image Download PDF

Info

Publication number
KR20230085299A
KR20230085299A KR1020210173335A KR20210173335A KR20230085299A KR 20230085299 A KR20230085299 A KR 20230085299A KR 1020210173335 A KR1020210173335 A KR 1020210173335A KR 20210173335 A KR20210173335 A KR 20210173335A KR 20230085299 A KR20230085299 A KR 20230085299A
Authority
KR
South Korea
Prior art keywords
image
damage detection
resolution
damage
scale
Prior art date
Application number
KR1020210173335A
Other languages
Korean (ko)
Inventor
안윤규
배현진
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to KR1020210173335A priority Critical patent/KR20230085299A/en
Publication of KR20230085299A publication Critical patent/KR20230085299A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

According to an embodiment of the present invention, a structure damage detection method performed by a structure damage detection system using multi-resolution image generation includes the steps of: (a) receiving an image of a structure captured with a vision camera; (b) generating a high-resolution image which satisfies the minimum standard from the received image; (c) dividing the high-resolution image into multi-resolution images of a first scale to an N^th scale and generating damage detection result images for each scale through a damage detection network; (d) stacking each damage detection result image on the first scale damage detection result image, and calculating a class-specific statistical value for pixel-level damage classification based on the stacking result; and (e) determining the class with the largest statistical value as a final label of a high-resolution image detection result pixel to derive a final classification result image. The present invention automates the derivation of final damage detection result.

Description

다중 해상도 이미지 생성을 이용한 구조물 손상 검출 시스템 및 그 방법{SYSTEM AND METHOD FOR DETECTING DAMAGE OF STRUCTURE BY GENERATING MULTI-SCALE RESOLUTION IMAGE}Structure damage detection system and method using multi-resolution image generation

본 발명은 다중 해상도 이미지 생성을 이용한 구조물 손상 검출 시스템 및 그 방법에 관한 것이다.The present invention relates to a structure damage detection system and method using multi-resolution image generation.

일반적으로, 대형 시설물 외관 손상 평가시 인력 접근의 한계로 전체 구조물에 대한 평가가 어려워, 비전 카메라를 탑재한 드론이나 로봇 등의 무인체를 통해 디지털 이미지 데이터를 취득하여 활용한다. 취득한 데이터를 대상으로 손상 평가시 그 양이 매우 방대하여 전문가 인력 기반의 기존 방식은 객관성 저하뿐 아니라 시간 및 경제적 비용의 큰 손실을 초래하여 인공지능 기반의 자동화 검출 네트워크를 활용한다. 다음으로 검출된 손상 영역을 정량적으로 평가하는 과정에서 취득한 디지털 이미지 데이터의 해상도는 정밀한 평가 기준에 부족하다는 문제점이 있다.In general, when evaluating the exterior damage of a large facility, it is difficult to evaluate the entire structure due to limitations in human access, so digital image data is acquired and utilized through an unmanned body such as a drone or robot equipped with a vision camera. The amount of damage evaluation for the acquired data is very large, so the existing method based on expert manpower not only reduces objectivity, but also causes a large loss of time and economic cost, so an artificial intelligence-based automated detection network is used. Next, there is a problem in that the resolution of digital image data acquired in the process of quantitatively evaluating the detected damaged area is insufficient for precise evaluation criteria.

이러한 무인체 기반의 이미지 데이터를 통한 자동화 손상 평가는 과정에 따라 2가지로 분류할 수 있다.Automated damage evaluation through such unmanned body-based image data can be classified into two types according to the process.

먼저, 드론 기반 비전 데이터 취득 방법은 비전 카메라를 탑재한 드론을 활용하여 인력이 접근하기 어려운 곳의 디지털 이미지를 취득하는 방법이다. 인력 접근이 어려운 부분의 디지털 이미지를 촬영 각도의 제한 없이 취득할 수 있다는 장점이 있으나, 무인 비행체 자체의 진동이나 이동 시 나타나는 모션블러 등의 문제로 인해 데이터의 질이 저하될 가능성이 높다. 특히 비행 안전상의 이유로 대상 구조물과 무인 비행체 간의 수 미터(m) 이내의 안전 이격거리를 유지해야 하므로, 취득한 이미지의 해상도가 손상의 정량적 평가시 유의미한 최소 기준치를 검출하기 위해 필요한 해상도보다 부족할 수 있으며, 이로 인해 정밀한 평가가 어려울 수 있다. First, the drone-based vision data acquisition method uses a drone equipped with a vision camera to acquire digital images in places that are difficult to access by manpower. Although it has the advantage of being able to acquire digital images of parts that are difficult to access by personnel without limiting the shooting angle, there is a high possibility that the quality of data will be deteriorated due to problems such as vibration of the unmanned aerial vehicle itself or motion blur during movement. In particular, for flight safety reasons, it is necessary to maintain a safe separation distance of several meters (m) between the target structure and the unmanned aerial vehicle, so the resolution of the acquired image may be less than the resolution required to detect a meaningful minimum standard value in the quantitative evaluation of damage, This can make precise evaluation difficult.

다음으로, 인공지능 기반의 손상 검출 네트워크 활용 방법은 대형 구조물에서 취득한 다량의 데이터를 처리하기 위해 인공지능 기반의 네트워크를 통해 손상을 자동적으로 검출하는 방법이다. 기존의 인력 기반의 손상 평가와 달리 빠른 시간 내 효율적으로 데이터를 처리하여 손상을 평가할 수 있다는 장점이 있으나, 입력 이미지의 해상도 크기에 따라 검출 결과가 달라지는 치명적인 문제점이 있다. 특히, 해상도가 너무 크거나 부족할 경우 모두 손상 검출이 어렵고, 촬영 환경에 따라 이미지별로 최적의 검출 결과를 보장하는 해상도 크기가 모두 달라 해상도 최적화가 어렵다.Next, the artificial intelligence-based damage detection network utilization method is a method of automatically detecting damage through an artificial intelligence-based network in order to process a large amount of data acquired from large structures. Unlike conventional manpower-based damage assessment, it has the advantage of being able to evaluate damage by efficiently processing data in a short period of time, but has a fatal problem in that the detection result varies depending on the resolution size of the input image. In particular, it is difficult to detect damage when the resolution is too large or insufficient, and it is difficult to optimize the resolution because the size of the resolution that guarantees an optimal detection result for each image is different depending on the shooting environment.

이와 같이, 인력 접근이 어려운 대형 시설물의 손상 평가를 위해 비전카메라를 탑재한 드론을 통해 관심 영역의 디지털 이미지를 취득한다. 이때 드론의 경우 안전거리 확보로 인한 근접촬영이 어렵고, 비전 카메라의 제한적인 해상도로, 취득한 디지털 이미지는 정밀한 손상 검출 및 정량적 평가를 위한 해상도가 부족한 경우가 종종 발생한다. 또한 자동화 손상 검출을 목적으로 활용되는 인공지능 기반의 다양한 손상 검출 네트워크는 입력 이미지의 해상도에 따라 그 검출률이 달라진다. In this way, digital images of the area of interest are acquired through a drone equipped with a vision camera for damage assessment of large facilities that are difficult to access by human resources. At this time, in the case of drones, it is difficult to take close-up shots due to securing a safe distance, and due to the limited resolution of vision cameras, the acquired digital images often lack resolution for precise damage detection and quantitative evaluation. In addition, the detection rate of various damage detection networks based on artificial intelligence used for the purpose of automated damage detection varies depending on the resolution of the input image.

대한민국 등록특허공보 제10-1780057호(발명의 명칭: 고해상도 영상 복원 방법 및 장치)Republic of Korea Patent Registration No. 10-1780057 (Title of Invention: Method and Apparatus for Restoring High Resolution Images)

본 발명의 일 실시예에 따른 구조물 손상 검출 시스템에 의한 구조물 손상 검출 방법은 시설물 외관 손상의 정량적 평가를 위한 최소 기준치를 만족하는 고해상도 이미지를 생성한 후, 다중 스케일의 해상도로 수정 및 분할하여 각각의 손상 검출 결과를 고해상도 이미지의 검출 결과에 상응하도록 적층한다. 적층 결과를 바탕으로 픽셀의 클래스별 통계값을 산출하고, 가장 큰 값의 클래스를 고해상도 이미지의 검출 결과 픽셀에 새로운 라벨로 반영하여, 최종 손상 검출 결과 도출을 자동화하는 하고자 한다.A structure damage detection method using a structure damage detection system according to an embodiment of the present invention generates a high-resolution image that satisfies the minimum standard value for quantitative evaluation of exterior damage of a facility, and then corrects and divides the image into multi-scale resolutions, The damage detection result is stacked to correspond to the detection result of the high-resolution image. It is intended to automate the derivation of the final damage detection result by calculating a statistical value for each pixel class based on the stacking result and reflecting the class with the largest value as a new label in the detection result pixel of the high-resolution image.

본 발명의 일 실시예에 따른 다중 해상도 이미지 생성을 통한 구조물 손상 검출 시스템에 의해 수행되는 구조물의 손상 검출 방법은 (a) 비전 카메라로 촬영된 구조물의 이미지를 수신하는 단계; (b) 수신된 이미지로부터 최소기준치를 만족하는 고해상도 이미지를 생성하는 단계; (c) 고해상도 이미지를 제1 스케일 내지 제N 스케일의 다중 해상도 이미지로 분할하고, 손상 검출 네트워크를 통해 각 스케일 별 손상 검출 결과 이미지를 생성하는 단계; (d) 각 손상 검출 결과 이미지를 제1스케일의 손상 검출 결과 이미지에 적층하고, 적층 결과를 기초로 픽셀 단위의 손상 분류를 위한 클래스별 통계값을 산출하는 단계; 및 (e) 가장 큰 통계값의 클래스를 고해상도 이미지의 검출 결과 픽셀의 최종 라벨로 결정하여 최종 분류 결과 이미지를 도출하는 단계를 포함한다.A structure damage detection method performed by a structure damage detection system through multi-resolution image generation according to an embodiment of the present invention includes the steps of (a) receiving an image of a structure captured by a vision camera; (b) generating a high-resolution image that satisfies the minimum standard value from the received image; (c) dividing the high-resolution image into multi-resolution images of first to Nth scales, and generating damage detection result images for each scale through a damage detection network; (d) stacking each damage detection result image on a first scale damage detection result image, and calculating a statistical value for each class for damage classification in pixel units based on the stacking result; and (e) deriving a final classification result image by determining a class having the largest statistical value as a final label of a detection result pixel of the high resolution image.

본 발명의 다른 실시예에 따른 다중 해상도 이미지 생성을 이용한 구조물 손상 검출 시스템은 구조물의 손상 검출 방법을 제공하는 프로그램이 저장된 메모리; 및 메모리에 저장된 프로그램을 실행하는 프로세서를 포함하고, 프로세서는 프로그램의 실행에 따라, 비전 카메라로 촬영된 구조물의 이미지를 수신하고, 수신된 이미지로부터 최소기준치를 만족하는 고해상도 이미지를 생성하고, 고해상도 이미지를 제1 스케일 내지 제N 스케일의 다중 해상도 이미지로 분할하고, 손상 검출 네트워크를 통해 각 스케일 별 손상 검출 결과 이미지를 생성하고, 각 손상 검출 결과 이미지를 제1스케일의 손상 검출 결과 이미지에 적층하고, 적층 결과를 기초로 픽셀 단위의 손상 분류를 위한 클래스별 통계값을 산출하고, 가장 큰 통계값의 클래스를 고해상도 이미지의 검출 결과 픽셀의 최종 라벨로 결정하여 최종 분류 결과 이미지를 도출하는 구조물의 손상을 검출한다.A structure damage detection system using multi-resolution image generation according to another embodiment of the present invention includes a memory storing a program for providing a structure damage detection method; and a processor that executes a program stored in a memory, wherein the processor receives an image of a structure photographed by a vision camera according to the execution of the program, generates a high-resolution image that satisfies a minimum standard value from the received image, and generates a high-resolution image Divide into multi-resolution images of the first scale to the Nth scale, generate damage detection result images for each scale through the damage detection network, and stack each damage detection result image on the damage detection result image of the first scale, Based on the stacking result, statistical values for each class are calculated for damage classification in pixel units, and the class with the largest statistical value is determined as the final label of the pixel as a result of detection of the high-resolution image to determine the damage of the structure that derives the final classification result image. detect

본 발명의 일 실시예에 따른 구조물 손상 검출 시스템에 의한 구조물 손상 검출 방법에 따르면 드론에 탑재된 비전 카메라를 통해 디지털 이미지를 취득한 후 검출 기준에 적합성 여부를 판단하여 딥러닝 네트워크를 기반으로 적합한 고해상도 이미지를 복원한 후, 생성한 다중 해상도 이미지의 다양한 손상을 자동 검출 후 적층하여 통계적 기법을 통해 입력 이미지의 크기에 따라 가변적인 인공지능 기반 네트워크의 손상 검출능을 보완하여 최종 검출 결과 도출을 자동화하는 효과가 있다.According to the structure damage detection method by the structure damage detection system according to an embodiment of the present invention, after acquiring a digital image through a vision camera mounted on a drone, it is determined whether or not the detection standard is suitable, and a suitable high-resolution image is based on a deep learning network. After restoring, the effect of automatically detecting and stacking various damages of the generated multi-resolution image to supplement the damage detection ability of the AI-based network, which is variable according to the size of the input image through statistical techniques, to automate the derivation of the final detection result. there is

도 1은 본 발명의 일 실시예에 따른 구조물 손상 검출 시스템의 구성을 보여주는 도면이다.
도 2는 본 발명의 일 실시예에 따른 구조물 손상 검출 시스템을 이용한 구조물 손상 검출 방법을 설명하기 위한 개략도이다.
도 3은 본 발명의 일 실시예에 따른 구조물 손상 검출 시스템을 이용한 고해상도 이미지 생성 과정을 보여주는 개략도이다.
도 4는 본 발명의 일 실시예에 따른 구조물 손상 검출 시스템을 이용한 다중 해상도 이미지 생성 및 손상 검출 과정을 보여주는 개략도이다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 구조물 손상 검출 시스템을 이용한 통계적 의사 결정 기반의 손상 분류 과정을 보여주는 개략도이다.
도 7은 본 발명의 일 실시예에 따른 구조물 손상 검출 시스템을 이용한 최종 손상 검출 결과 생성 과정을 보여주는 개략도이다.
도 8 및 도 9는 본 발명의 일 실시예에 따른 구조물 손상 검출 시스템을 통한 실험적 검증을 위해 해상도 별 이미지 손상 검출 결과를 비교 도시한 것이다.
도 10은 본 발명의 일 실시예에 따른 다중 해상도 이미지 생성을 이용한 구조물 손상 검출 방법을 설명하기 위한 순서도이다.
1 is a diagram showing the configuration of a structure damage detection system according to an embodiment of the present invention.
Figure 2 is a schematic diagram for explaining a structure damage detection method using a structure damage detection system according to an embodiment of the present invention.
Figure 3 is a schematic diagram showing a high-resolution image generation process using a structure damage detection system according to an embodiment of the present invention.
4 is a schematic diagram showing a multi-resolution image generation and damage detection process using a structure damage detection system according to an embodiment of the present invention.
5 and 6 are schematic diagrams showing a damage classification process based on statistical decision making using a structure damage detection system according to an embodiment of the present invention.
7 is a schematic diagram showing a process of generating a final damage detection result using a structure damage detection system according to an embodiment of the present invention.
8 and 9 compare image damage detection results for each resolution for experimental verification through the structure damage detection system according to an embodiment of the present invention.
10 is a flowchart illustrating a structure damage detection method using multi-resolution image generation according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참조하여, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고, 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice it. However, the present invention may be embodied in many different forms and is not limited to the embodiments set forth herein. And, in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is said to be “connected” to another part, this includes a case where it is “directly connected” and a case where it is “electrically connected” with another element interposed therebetween. In addition, when a part "includes" a certain component, it means that it may further include other components without excluding other components unless otherwise stated.

본 명세서에 있어서 '부(部)'란, 하드웨어 또는 소프트웨어에 의해 실현되는 유닛(unit), 양방을 이용하여 실현되는 유닛을 포함하며, 하나의 유닛이 둘 이상의 하드웨어를 이용하여 실현되어도 되고, 둘 이상의 유닛이 하나의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, 'unit' includes a unit realized by hardware or software, or a unit realized using both, and one unit may be realized using two or more hardware, and two or more units may be implemented. The above units may be realized by one piece of hardware. Meanwhile, '~unit' is not limited to software or hardware, and '~unit' may be configured to be in an addressable storage medium or configured to reproduce one or more processors. Therefore, as an example, '~unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and '~units' may be combined into smaller numbers of components and '~units' or further separated into additional components and '~units'. In addition, the components and '~units' may be implemented to regenerate one or more CPUs in the device.

이하, 도면을 참조하여 본 발명의 일 실시예에 따른 다중 해상도 이미지 생성을 이용한 구조물 손상 검출 시스템(이하, ‘구조물 손상 검출 시스템’이라 함)에 대해서 상세히 설명하도록 한다. Hereinafter, a structure damage detection system (hereinafter, referred to as a 'structure damage detection system') using multi-resolution image generation according to an embodiment of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 구조물 손상 검출 시스템의 구성을 보여주는 도면이다.1 is a diagram showing the configuration of a structure damage detection system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 구조물 손상 검출 시스템(100)은 통신 모듈(110), 메모리(120), 프로세서(130) 및 데이터베이스를 포함한다.Referring to FIG. 1 , a structure damage detection system 100 according to an embodiment of the present invention includes a communication module 110, a memory 120, a processor 130, and a database.

통신 모듈(110)은 통신망과 연동하여 구조물 손상 검출 시스템(100)에 비전 카메라로 촬영된 이미지를 송수신할 수 있는 통신 인터페이스를 제공하는데, 특히 비전 카메라 기기 및 관리 서버와의 데이터를 송수신하는 역할을 수행할 수 있다. 여기서, 통신 모듈(110)은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. The communication module 110 interworks with the communication network to provide a communication interface capable of transmitting and receiving images captured by the vision camera to the structure damage detection system 100, and in particular, plays a role in transmitting and receiving data between the vision camera device and the management server. can be done Here, the communication module 110 may be a device including hardware and software necessary for transmitting and receiving a signal such as a control signal or a data signal with another network device through a wired or wireless connection.

예를 들어 비전 카메라는 대상 구조물을 촬영하기 위해 무인체, 클라이밍 로봇, 드론 등의 부착형 무인체에 탑재되어 사용될 수 있다.For example, a vision camera may be mounted and used on an attachable unmanned vehicle such as an unmanned vehicle, a climbing robot, or a drone to photograph a target structure.

메모리(120)는 구조물 손상 검출 방법을 제공하기 위한 프로그램이 기록된 것일 수 있다. 또한, 메모리(120)는 프로세서(130)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다. 여기서, 메모리(120)는 휘발성 저장 매체(volatile storage media) 또는 비휘발성 저장 매체(non-volatile storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The memory 120 may have a program recorded thereon to provide a structure damage detection method. Also, the memory 120 may temporarily or permanently store data processed by the processor 130 . Here, the memory 120 may include volatile storage media or non-volatile storage media, but the scope of the present invention is not limited thereto.

메모리(120)에는 구조물 손상 검출 프로그램이 저장된다. 이러한 메모리(120)에는 구조물 손상 검출 시스템(100)의 구동을 위한 운영 체제나 구조물 손상 검출 프로그램의 실행 과정에서 발생되는 여러 종류가 데이터가 저장된다.A structure damage detection program is stored in the memory 120 . The memory 120 stores various types of data generated during the execution of an operating system for driving the structure damage detection system 100 or a structure damage detection program.

프로세서(130)는 메모리(120)에 저장된 프로그램을 실행하되, 구조물 손상 검출 프로그램의 실행에 따라 다음과 같은 처리를 수행한다.The processor 130 executes the program stored in the memory 120, and performs the following processing according to the execution of the structure damage detection program.

프로세서(130)는 비전 카메라가 대상 구조물을 촬영한 구조물의 이미지를 통신 모듈(110)을 통해 수신하고, 수신된 이미지로부터 최소기준치를 만족하는 고해상도 이미지를 생성하고, 고해상도 이미지를 제1 스케일 내지 제N 스케일의 다중 해상도 이미지로 분할하고, 손상 검출 네트워크를 통해 각 스케일 별 손상 검출 결과 이미지를 생성하고, 각 손상 검출 결과 이미지를 제1스케일의 손상 검출 결과 이미지에 적층하고, 적층 결과를 기초로 픽셀 단위의 손상 분류를 위한 클래스별 통계값을 산출하고, 가장 큰 통계값의 클래스를 고해상도 이미지의 검출 결과 픽셀의 최종 라벨로 결정하여 최종 분류 결과 이미지를 도출하는 구조물의 손상을 검출한다. 프로그램의 실행에 따른 구조물 손상 검출 과정의 구체적인 각 단계에 대해서는 도 2 내지 도 7를 참조하여 후술하도록 한다.The processor 130 receives an image of a structure captured by a vision camera through the communication module 110, generates a high-resolution image satisfying a minimum standard value from the received image, and converts the high-resolution image to a first scale to a second scale. Dividing into N-scale multi-resolution images, generating damage detection result images for each scale through a damage detection network, stacking each damage detection result image on the damage detection result image of the first scale, and pixel based on the stacking result Statistical values for each class for unit damage classification are calculated, and the class with the largest statistical value is determined as the final label of the pixel as a result of detection of the high-resolution image to detect damage to the structure that derives the final classification result image. Each specific step of the structure damage detection process according to the execution of the program will be described later with reference to FIGS. 2 to 7 .

이러한 프로세서(130)는 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이 크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The processor 130 may include any type of device capable of processing data. For example, it may refer to a data processing device embedded in hardware having a physically structured circuit to perform a function expressed as a code or command included in a program. As an example of such a data processing device built into hardware, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific ASIC integrated circuits), field programmable gate arrays (FPGAs), etc., but the scope of the present invention is not limited thereto.

데이터베이스는 구조물 손상 검출 방법을 수행하기 위해 공동으로 필요한 데이터를 유기적으로 결합하여 저장한 매체일 수 있다. 데이터베이스는 구조물 손상과 관련된 이미지 및 학습 데이터가 저장된 것일 수 있다. 이러한 데이터베이스는 메모리(120)와는 별도의 구성 요소로서 포함되거나, 또는 메모리(120)의 일부 영역에 구축될 수도 있다.The database may be a medium that organically combines and stores commonly required data to perform the structure damage detection method. The database may store images and learning data related to structure damage. Such a database may be included as a component separate from the memory 120 or may be built in a partial area of the memory 120 .

도 2는 본 발명의 일 실시예에 따른 구조물 손상 검출 시스템을 이용한 구조물 손상 검출 방법을 설명하기 위한 개략도이다.Figure 2 is a schematic diagram for explaining a structure damage detection method using a structure damage detection system according to an embodiment of the present invention.

도 2를 참조하면, 프로세서(130)는 메모리(120)에 저장된 프로그램의 실행에 따라 다양한 기능을 수행하는 세부 모듈을 포함할 수 있다. 세부 모듈은 고해상도 이미지 생성부(140), 다중 해상도 이미지 생성 및 손상 검출부(150), 손상 분류부(160) 및 손상 검출 결과 생성부(170)를 포함한다.Referring to FIG. 2 , the processor 130 may include detailed modules that perform various functions according to the execution of programs stored in the memory 120 . The detailed module includes a high-resolution image generation unit 140, a multi-resolution image generation and damage detection unit 150, a damage classification unit 160, and a damage detection result generation unit 170.

먼저 프로세서(130)는 비전 카메라로 촬영된 구조물의 이미지를 수신하고, 수신된 이미지로부터 최소기준치를 만족하는 고해상도 이미지를 생성한다.First, the processor 130 receives an image of a structure photographed by a vision camera, and generates a high-resolution image that satisfies a minimum standard value from the received image.

예시적으로 드론(UAV)에 탑재한 비전 카메라를 통해 인력이 접근하기 어려운 대상 구조물(Target bridge)의 외관 영역을 촬영하여 구조물 이미지를 취득할 수 있다. 이때 취득된 원본 이미지는 촬영 장소의 조도, 촬영각도, 촬영 이격거리 등의 촬영 환경 문제와 비전 카메라의 FOV, 해상도, 렌즈 등의 카메라 성능 문제 등으로 인해 구조물의 외관 손상의 검출 결과가 정밀한 정량적 평가에 적합하지 않을 수 있다. 이를 해결하기 위해 손상 영역을 정의하는 한 개 픽셀의 물리적 크기에 대한 최소 기준이 요구된다. 예를 들어 국토교통부에서 구조물의 안전성을 평가하기 위해 제안한 유의미한 최소균열 두께는 200 μm 이다. For example, a structure image may be acquired by photographing an exterior area of a target bridge that is difficult to access by manpower through a vision camera mounted on a drone (UAV). The original image obtained at this time is a precise quantitative evaluation of the detection result of the external damage of the structure due to camera performance problems such as camera performance problems such as field of view (FOV), resolution, and lens of the vision camera and shooting environment problems such as illumination of the shooting location, shooting angle, shooting separation distance, etc. may not be suitable for To solve this, a minimum criterion for the physical size of one pixel defining the damaged area is required. For example, the minimum meaningful crack thickness proposed by the Ministry of Land, Infrastructure and Transport to evaluate the safety of structures is 200 μm.

따라서, 본 발명의 최소기준치는 최소균열 두께 200 μm를 한 개 픽셀의 최소 물리적 크기로 정의한다. 즉, 해당 기준을 만족하는 이미지의 해상도는 고해상도 이미지로 정의할 수 있다. 예를 들어, 1 K 해상도 이미지의 경우 카메라 작업 거리(Working distance)에 따라 정량적 평가를 위한 픽셀 해상도가 부족할 수 있으며 이를 고해상도 이미지로 정의할 수 없다. Therefore, the minimum standard value of the present invention defines the minimum crack thickness of 200 μm as the minimum physical size of one pixel. That is, the resolution of an image that satisfies the criterion may be defined as a high-resolution image. For example, in the case of a 1K resolution image, the pixel resolution for quantitative evaluation may be insufficient depending on the camera working distance, and this cannot be defined as a high-resolution image.

이에 따라 손상 평가에 적합한 고해상도 이미지의 최소 해상도 크기를 계산하기 위해 핀홀 카메라 모듈(Pinhole camera model)에 기반하여 수식1을 도출하고, 고해상도 이미지의 최소 해상도(최소 기준치)를 산출한다.Accordingly, in order to calculate the minimum resolution size of the high-resolution image suitable for damage evaluation, Equation 1 is derived based on the pinhole camera model, and the minimum resolution (minimum reference value) of the high-resolution image is calculated.

<수식1 ><Equation 1>

Figure pat00001
Figure pat00001

여기서, RP는 고해상도 이미지의 최소 픽셀 해상도(Pixel resolution)이고, WD는 작업 거리(Working distance)이고, CS는 카메라 센서의 크기, CFL는 카메라의 초점 거리(Focal length)이다. Here, R P is the minimum pixel resolution of the high-resolution image, W D is the working distance, C S is the size of the camera sensor, and C FL is the focal length of the camera.

입력 이미지의 픽셀 해상도가 보다 작으면 손상의 정밀한 정량적 평가를 위해 손상 검출 전에 부합한 크기로 재생성해야한다. 값을 충족시키기 위해 입력 이미지를 재생성하기 위한 스케일 지수(Scale factor)(λ)는 다음 수식2로 산출 가능하다.If the pixel resolution of the input image is smaller, it must be recreated to a suitable size before damage detection for precise quantitative evaluation of damage. A scale factor (λ) for regenerating an input image to satisfy the value can be calculated by Equation 2 below.

<수식2><Equation 2>

Figure pat00002
Figure pat00002

여기서, λ는 입력 이미지의 해상도를 증가시키기 위한 스케일 지수(Scale factor)이고, RI는 입력 이미지의 해상도이다.Here, λ is a scale factor for increasing the resolution of the input image, and R I is the resolution of the input image.

도 3은 본 발명의 일 실시예에 따른 구조물 손상 검출 시스템을 이용한 고해상도 이미지 생성 과정을 보여주는 개략도이다. Figure 3 is a schematic diagram showing a high-resolution image generation process using a structure damage detection system according to an embodiment of the present invention.

도 3을 참조하면 고해상도 이미지 생성부(140)는 알고리즘의 입력 이미지(VR)가 최소 손상 정량화에 적합한 해상도 기준에 해당할 경우 λ값으로 1을 산출하여 본 단계를 생략할 수 있다. 반면, λ값이 1보다 큰 경우 해상도가 부족한 것으로 판단되는 경우, 고해상도 이미지 생성부(140)는 기준에 부합하는 고해상도 디지털 이미지를 생성한다. Referring to FIG. 3 , the high-resolution image generating unit 140 may omit this step by calculating 1 as the λ value when the input image VR of the algorithm corresponds to the resolution criterion suitable for quantifying the minimum damage. On the other hand, when it is determined that the resolution is insufficient when the value of λ is greater than 1, the high-resolution image generating unit 140 generates a high-resolution digital image that meets the criteria.

구체적으로, 고해상도 이미지 생성부(140)는 수신된 이미지(VR)로부터 ?汰? 특징(Shallow Feature)을 추출하는 ?汰? 특징 모듈, 수신된 이미지로부터 깊은 특징(Deep Feature)을 추출하는 깊은 특징 모듈, 추출된 ?汰? 특징과 깊은 특징을 이용하여 구성된 이미지의 특징 데이터를 고해상도 사이즈로 업스케일(Upscale)하는 업스케일 모듈, 업스케일된 이미지의 특징 데이터로부터 고해상도 이미지를 생성하는 복원 모듈을 포함한다.Specifically, the high-resolution image generating unit 140 extracts ?汰? from the received image VR ? ?汰? to extract shallow features. Feature module, deep feature module that extracts deep features from the received image, extracted ?汰? It includes an upscale module that upscales feature data of an image constructed using features and deep features to a high-resolution size, and a restoration module that generates a high-resolution image from feature data of the upscaled image.

첫 번째 파트로서 ?汰? 특징은 입력 이미지(VR)인 저해상도(Low-resolution, LR) 이미지에 대한 특징을 의미한다. ?汰? 특징 모듈은 단일 컨볼루션 레이어(Convolutional layer)로 구성된다. 이때, 컨볼루션 레이어는 사이즈 3 x 3 커널 64개로 이루어져 있고, 스트라이드(Stride)는 1로 LR 이미지의 특징 추출을 수행할 수 있다. As the first part, ?汰? The feature means a feature of a low-resolution (LR) image that is the input image VR . ?汰? A feature module consists of a single convolutional layer. In this case, the convolution layer is composed of 64 kernels of size 3 x 3, and a stride of 1 may perform feature extraction of the LR image.

두 번째 파트로서 깊은 특징은 LR 이미지와 쌍을 이루는 고해상도(High-resolution, HR) 이미지의 가장 큰 차이점인 선이나 엣지 등으로 구성된 고주파 정보를 의미한다. 이를 위해 깊은 특징 모듈은 RIR 구조를 사용했으며, 20개의 잔차 블록(Residual block)으로 이루어진 각 10개의 잔차 그룹(Residual group)들과 컨볼루션 레이어 1개로 구성된다. 예시적으로 RIR 구조의 잔차 그룹들은 롱 스킵 커넥션(Long Skip Connection)으로, 잔차 그룹 내부를 구성하는 다수의 잔차 블록들은 숏 스킵 커넥션(Short Skip Connection)으로 연결된 매우 깊은 구조이다. 스킵 커넥션(Skip connection)은 각 잔차 그룹과 잔차 블록, 마지막 레이어인 컨볼루션 레이어를 통과해 출력되는 깊은 특징과 입력된 ?汰? 특징을 더해줌으로써, LR 이미지에 HR 이미지와의 차이점만 추가적으로 학습하게 한다. 스킵 커넥션을 통해 LR 이미지의 대부분을 구성하는 저주파 정보들을 우회함으로써 메인 네트워크가 좀 더 효과적인 고주파 정보를 학습하는 것을 잔차 학습(Residual learning)으로 정의한다. 이때 각 컨볼루션 레이어는 첫 번째 파트의 단일 컨볼루션 레이어와 동일한 형태이다. 이미지의 고주파 정보를 좀 더 효율적으로 추출하기 위해서 각 잔차 블록 내부에서 채널 어텐션(Channel Attention, CA) 메커니즘을 수행한다. CA 메커니즘은 이미지를 구성하는 각 채널 별의 평균값을 추출하고, 이를 바탕으로 좀 더 유용한 채널에 집중한 차별 학습 능력을 향상시키게 된다. 각 잔차 블록 내부에서, 글로벌 평균 풀링(Global Average Pooling), 컨볼루션, ReLU, 시그모이드(sigmoid) 레이어를 통해 CA 메커니즘이 수행될 수 있다. As the second part, deep features refer to high-frequency information composed of lines or edges, which are the biggest difference between LR images and high-resolution (HR) images paired with them. To this end, the deep feature module uses the RIR structure, and is composed of 10 residual groups each consisting of 20 residual blocks and one convolution layer. Exemplarily, the residual groups of the RIR structure have a long skip connection, and a plurality of residual blocks constituting the inside of the residual group are connected through a short skip connection to have a very deep structure. Skip connection passes through each residual group, residual block, and the last layer, the convolution layer, and outputs deep features and input ? By adding the features, only differences from the LR image and the HR image are additionally learned. Residual learning is defined as learning the high-frequency information more effectively by the main network by bypassing the low-frequency information constituting most of the LR image through the skip connection. At this time, each convolution layer has the same shape as the single convolution layer of the first part. In order to more efficiently extract the high-frequency information of the image, a Channel Attention (CA) mechanism is performed inside each residual block. The CA mechanism extracts the average value of each channel constituting the image, and based on this, improves discrimination learning ability by focusing on more useful channels. Inside each residual block, CA mechanisms can be performed through Global Average Pooling, convolution, ReLU, and sigmoid layers.

세 번째 파트로서 업스케일 모듈은 각 잔차 블록과 잔차 그룹을 거친 이미지의 특징 데이터를 최종적으로 수행하고자 하는 고해상화 사이즈로 확장하는 단계이다. 디컨볼루션 레이어(Deconvolution Layer)로 구성되어 있으며, 사이즈 3 x 3 커널 256개로 이루어져 있고, 스트라이드는 1로 각 픽셀의 사이즈가 앞서 수식 2에서 산출한 λ배 확장될 수 있다. As the third part, the upscaling module is a step of expanding feature data of an image that has passed through each residual block and residual group to a high resolution size to be finally performed. It is composed of a deconvolution layer and consists of 256 kernels of size 3 x 3, with a stride of 1, and the size of each pixel can be expanded by λ times calculated in Equation 2 above.

네 번째 파트로서 단일 컨볼루션 레이어를 통해 고해상도 이미지(VSR)로 생성하게 되는 복원 모듈은 사이즈 3 x 3 커널 3개로 이루어져 있고, 스트라이드는 1로 손상 검출을 위한 고해상도 이미지(VSR)가 생성될 수 있다.As the fourth part, the reconstruction module, which is generated as a high-resolution image (V SR ) through a single convolution layer, consists of three kernels of size 3 x 3, and a high-resolution image (V SR ) for damage detection with a stride of 1 is generated. can

도 4는 본 발명의 일 실시예에 따른 구조물 손상 검출 시스템을 이용한 다중 해상도 이미지 생성 및 손상 검출 과정을 보여주는 개략도이다.4 is a schematic diagram showing a multi-resolution image generation and damage detection process using a structure damage detection system according to an embodiment of the present invention.

다중 해상도 이미지 생성 및 손상 검출부(150)는 고해상도 이미지(VFI)를 제1 스케일(1st Scale) 내지 제N 스케일(Nth Scale)의 다중 해상도 이미지로 분할하고, 손상 검출 네트워크(151)를 통해 각 스케일 별 손상 검출 결과 이미지(VD)를 생성한다.The multi-resolution image generation and damage detection unit 150 divides the high-resolution image (V FI ) into multi-resolution images of a first scale (1 st Scale) to an N-th scale (N th Scale), and the damage detection network 151 Through this, a damage detection result image (V D ) for each scale is generated.

예시적으로, 고해상도 이미지 생성부(140)로부터 생성된 고해상도 이미지(VSR) 또는 비전 카메라의 원본 이미지 중 최소기준치를 만족하는 고해상도 이미지가 다중 해상도 이미지 생성 및 손상 검출부(150)에 손상 검출을 위한 최종 이미지(VFI)로서 입력될 수 있다. Illustratively, a high-resolution image (V SR ) generated by the high-resolution image generating unit 140 or a high-resolution image that satisfies the minimum standard among the original images of the vision camera is used to generate a multi-resolution image and damage the damage detection unit 150 for detecting damage. It may be input as the final image (V FI ).

다중 해상도 이미지 생성 및 손상 검출부(150)는 입력된 고해상도 이미지(VFI)를 바이큐빅 보간(Bicubic interpolation) 알고리즘을 기반으로, 제1 스케일 내지 제N 스케일의 다중 해상도 이미지(

Figure pat00003
)로 생성할 수 있다. 이때 제1 스케일은 입력 이미지인 고해상도 이미지 크기, 제N 스케일의 이미지는 손상 검출 네트워크(151)의 학습 이미지 크기로 정의하며, 다음 단계에서 진행될 확률적 판단의 신뢰도를 확보하기위해 제1 스케일 내지 제N 스케일은 최소 200 단계 이상의 스케일로 구성된 다중 해상도 이미지로 생성되는 것이 바람직하다.The multi-resolution image generation and damage detection unit 150 converts the input high-resolution image (V FI ) to a multi-resolution image (of a first scale to an N-th scale) based on a bicubic interpolation algorithm.
Figure pat00003
) can be created. At this time, the first scale is defined as the size of the high-resolution image, which is the input image, and the image of the Nth scale is defined as the size of the training image of the damage detection network 151. The N scale is preferably created as a multi-resolution image consisting of at least 200 scales.

이어서, 다중 해상도 이미지 생성 및 손상 검출부(150)는 다중 해상도 이미지(

Figure pat00004
)를 DCNN(Deep convolution neural network)에 입력하여, 낮은 레벨(Low-level) 특징을 추출하고, 다중 해상도별 생성된 특징 맵을 누적하여 제1 특징 맵을 생성하고, 제1 특징 맵과 낮은 레벨 특징을 누적하여 제2 특징 맵을 생성하고, 제2 특징 맵의 특징을 각 스케일별 픽셀 단위의 손상 라벨로 분류하고, 손상 검출 네트워크(151)의 학습 클래스별 손상 검출 결과로서 업샘플링 층을 통해 손상 검출 결과 이미지(
Figure pat00005
)를 생성할 수 있다.Then, the multi-resolution image generation and damage detection unit 150 is a multi-resolution image (
Figure pat00004
) into a deep convolution neural network (DCNN) to extract low-level features, generate a first feature map by accumulating feature maps generated by multiple resolutions, and generate a first feature map and a low-level feature map. The features are accumulated to generate a second feature map, the features of the second feature map are classified into damage labels in units of pixels for each scale, and as a damage detection result for each learning class of the damage detection network 151, through an upsampling layer. Damage detection result image (
Figure pat00005
) can be created.

예시적으로, 손상 검출 네트워크(151)는 인공지능 네트워크의 일종인 DeepLab v3+[1]을 손상 검출에 적합하도록 전이학습을 수행하여 구축될 수 있다.Illustratively, the damage detection network 151 may be constructed by performing transfer learning to make DeepLab v3+[1], which is a kind of artificial intelligence network, suitable for damage detection.

손상 검출 네트워크(151)는 입력 이미지(

Figure pat00006
)를 다운샘플링하여 손상 특성을 추출하는 엔코더(Encoder)와 손상 특성을 업샘플링하여 픽셀의 다중 라벨(Label)을 분류하는 디코더(Decoder)로 구성된다. 여기서 CNN 기반 네트워크인 Resnet-50 네트워크를 엔코더와 디코더의 콘볼루션 레이어로 사용한다. The damage detection network 151 is an input image (
Figure pat00006
) is composed of an encoder that extracts damage characteristics by downsampling and a decoder that classifies multiple labels of pixels by upsampling the damage characteristics. Here, the Resnet-50 network, a CNN-based network, is used as the convolutional layer of the encoder and decoder.

엔코더는 입력 이미지(

Figure pat00007
)를 아트러스 컨볼루션(Atrous convolution)을 통과시켜 특징 맵(Feature map)을 형성하고, 아트러스 컨볼루션은 디코더에서 사용되는 낮은 레벨(Low-level)의 특징들을 추출한다. 여기서 아트러스 컨볼루션은 기존의 컨볼루션과 달리 필터(Filter) 사이에 몇 개의 간격을 두어, 파라미터(Parameter)의 수를 늘리지 않고 수용 필드(Receptive field)를 증가시켜 고해상도의 특징 맵을 생성하여 학습에 매우 효율적이다. The encoder is an input image (
Figure pat00007
) is passed through Atrous convolution to form a feature map, and Atrous convolution extracts low-level features used in the decoder. Unlike conventional convolution, here, atrus convolution puts several gaps between filters, increases the receptive field without increasing the number of parameters, and creates high-resolution feature maps for learning. very efficient for

또한, 엔코더는 DCNN(Deep convolution neural network)을 통해 입력 이미지의 특징 맵을 생성하며, 컨볼루션 레이어와 풀링 레이어로 구성된 ASPP(Atrous spatial pyramid pooling)를 거쳐 다중 해상도의 특징 맵을 누적하여 제1 특징 맵을 생성한다. 또한, 제1 특징 맵이 4 배 업샘플링될 수 있다. 여기서 생성된 제1 특징 맵은 다양한 크기의 필터를 통과한 결과가 누적된 형태로, 검출 대상 물체(구조물)의 다양한 스케일에 대한 검출성을 향상시킨다. In addition, the encoder generates a feature map of an input image through a deep convolution neural network (DCNN), and accumulates multi-resolution feature maps through ASPP (Atrous spatial pyramid pooling) composed of a convolution layer and a pooling layer to generate a first feature. create a map Also, the first feature map may be upsampled 4 times. The first feature map generated here is an accumulated form of results passing through filters of various sizes, and improves detectability for various scales of the object (structure) to be detected.

다음으로, 디코더는 4 배 업샘플링된 제1 특징 맵과 엔코더에서 DCNN을 통해 추출된 낮은 레벨의 특징을 결합하여 제2 특징 맵으로 누적한다. 그 결과 결합된 제2 특징 맵은 3×3 컨볼루션 레이어를 통해 엣지(Edge) 및 라인(Line)과 같은 고주파수의 특징이 강조될 수 있다. Next, the decoder accumulates the second feature map by combining the 4-times upsampled first feature map and low-level features extracted from the encoder through DCNN. As a result, in the combined second feature map, high-frequency features such as edges and lines may be emphasized through a 3×3 convolutional layer.

즉, 다중 해상도 이미지(

Figure pat00008
)로부터 추출된 특징은 각 스케일별 픽셀 단위의 손상 라벨로 분류될 수 있다. 일 예로, 손상 라벨은 크랙, 크랙 같은(Non-crack), 엣지(Non-crack) 및 배경을 포함한다.That is, multi-resolution images (
Figure pat00008
) can be classified as damage labels in units of pixels for each scale. As an example, damage labels include crack, crack-like (Non-crack), edge (Non-crack), and background.

마지막으로, 손상 라벨의 특징은 해당 영역 별로 픽셀 단위로 분류되고, 손상 검출 네트워크(151)의 학습 클래스별 손상 검출 결과는 손상 검출 결과 이미지(

Figure pat00009
)로서 업샘플링 층을 통해 생성된다. Finally, the feature of the damage label is classified in pixel units for each corresponding region, and the damage detection result for each learning class of the damage detection network 151 is the damage detection result image (
Figure pat00009
) is generated through the upsampling layer.

도 5 및 도 6은 본 발명의 일 실시예에 따른 구조물 손상 검출 시스템을 이용한 통계적 의사 결정 기반의 손상 분류 과정을 보여주는 개략도이다. 5 and 6 are schematic diagrams showing a damage classification process based on statistical decision making using a structure damage detection system according to an embodiment of the present invention.

도 5를 참조하면 손상 분류부(160)는 각 손상 검출 결과 이미지(VD)를 제1스케일(1st Scale)의 손상 검출 결과 이미지(VD)에 적층하고, 적층 결과를 기초로 픽셀 단위의 손상 분류를 위한 클래스별 통계값을 산출하고, 가장 큰 통계값의 클래스를 픽셀의 최종 라벨로 결정하여 최종 분류 결과 이미지(

Figure pat00010
)를 도출할 수 있다.Referring to FIG. 5, the damage classification unit 160 stacks each damage detection result image (V D ) on a damage detection result image (V D ) of a first scale (1 st Scale), and based on the stacking result, in pixel units. The final classification result image (
Figure pat00010
) can be derived.

구체적으로, 도5에 도시된 것처럼 손상 분류부(160)는 각 스케일 별(1st Scale - Nth Scale)로 생성된 손상 검출 결과 이미지(VD)를 최대 해상도와 동일한 크기로 업 샘플링할 수 있다. 이때 업 샘플링 방법은 바이큐빅 보간(Bicubic interpolation) 알고리즘을 사용하며, 동일한 해상도로 업샘플링된 N개의 손상 검출 결과 이미지(VD)는 제1스케일(1st Scale)의 손상 검출 결과 이미지(VD)에 적층될 수 있다.Specifically, as shown in FIG. 5, the damage classification unit 160 upsamples the damage detection result image (V D ) generated for each scale (1 st Scale - N th Scale) to the same size as the maximum resolution. there is. At this time, the upsampling method uses a bicubic interpolation algorithm, and N damage detection result images (V D ) upsampled to the same resolution are damage detection result images (V D ) of the 1st scale. can be stacked on

즉, 손상 분류부(160)는 N개의 손상 검출 결과 이미지(VD)를 제1스케일(1st Scale)의 손상 검출 결과 이미지(VD)에 적층하여, 픽셀 단위의 각 클래스에 대한 누적 결과 이미지(

Figure pat00011
)를 생성할 수 있다. That is, the damage classification unit 160 stacks the N damage detection result images V D on the damage detection result image V D of the first scale ( 1st Scale), and accumulates results for each class in pixel units. image(
Figure pat00011
) can be created.

예를 들어, 누적 결과 이미지(

Figure pat00012
)는 손상 검출 결과 이미지(VD)의 픽셀 단위로 분류된 손상라벨을 포함할 수 있다. 이때, 손상 라벨 중에서 배경의 경우, 손상에 해당하지 않으므로, 손상 분류를 위한 클래스에서 제외한다. 따라서, 손상 클래스는 크랙, 크랙 같은(Non-crack) 및 엣지(Non-crack)로 구성될 수 있다.For example, the cumulative result image (
Figure pat00012
) may include damage labels classified in pixel units of the damage detection result image V D . At this time, the background among the damage labels is excluded from the damage classification class because it does not correspond to damage. Accordingly, damage classes may consist of cracks, crack-like (non-crack) and edge (non-crack).

클래스의 라벨 (ℓ) 별로 생성되는 누적 결과 이미지(

Figure pat00013
)는 수식3에 의해 산출된다. Cumulative result image generated for each class label (ℓ) (
Figure pat00013
) is calculated by Equation 3.

<수식3><Equation 3>

Figure pat00014
Figure pat00014

여기서

Figure pat00015
는 누적 결과 이미지의 픽셀이고, ℓ 은 네트워크 학습 클래스의 손상 라벨로 정의하며 해당 네트워크에서 1은 크랙(Crack), 2는 크랙 같은(Crack-like), 3은 엣지(Edge)로 정의한다.here
Figure pat00015
is the pixel of the accumulated result image, and ℓ is defined as a damage label of the network learning class. In the network, 1 is defined as crack, 2 as crack-like, and 3 as edge.

도 6을 참조하면, 손상 분류부(160)는 각 클래스에 대하여 생성된 누적 결과 이미지(

Figure pat00016
)를 기초로 누적 횟수에 대한 확률값을 도출하여 픽셀 단위 이미지(
Figure pat00017
)를 생성할 수 있다. 이때 픽셀별 확률값은 수식4를 통해 산출될 수 있다.Referring to FIG. 6 , the damage classification unit 160 generates cumulative result images for each class (
Figure pat00016
) by deriving a probability value for the number of accumulations based on the pixel unit image (
Figure pat00017
) can be created. At this time, the probability value for each pixel may be calculated through Equation 4.

<수식4><Equation 4>

Figure pat00018
Figure pat00018

도6에 도시된 것처럼, 손상 분류부(160)는 생성된 픽셀 단위 이미지(

Figure pat00019
)에서 동일한 위치(p, q)의 픽셀을 기준으로 각각의 라벨에 해당하는 확률값을 비교하여 해당 픽셀의 최종 라벨값 L(p, q)을 결정할 수 있다. 크랙 같은과 엣지는 논-크랙(Non-crack) 유형으로 손상으로 확률값을 더해 LNC(p, q)로, 크랙(Crack)에 대한 확률값은 LCr(p, q)로 정의한다. 이어서, LNC(p, q)와 LCr(p, q)값을 비교하여 LCr(p, q)의 값이 더 크거나 같은 경우 L(p, q)은 크랙(C)으로 결정하고, LCr(p, q)의 값이 작은 경우, L(p, q)은 논-크랙(NC)으로 결정되며, 최종 분류 결과 이미지(VC.R)가 생성될 수 있다. As shown in FIG. 6, the damage classification unit 160 generates a pixel unit image (
Figure pat00019
), the final label value L(p, q) of the corresponding pixel may be determined by comparing probability values corresponding to respective labels based on pixels at the same location (p, q). Cracks and edges are non-crack types, and the probability value is added as damage to L NC (p, q), and the probability value for crack is defined as L Cr (p, q). Subsequently, L NC (p, q) and L Cr (p, q) values are compared, and if the value of L Cr (p, q) is greater than or equal to, L (p, q) is determined as crack (C) , L Cr (p, q) is small, L (p, q) is determined to be non-crack (NC), and a final classification result image (V CR ) may be generated.

도 7은 본 발명의 일 실시예에 따른 구조물 손상 검출 시스템을 이용한 최종 손상 검출 결과 생성 과정을 보여주는 개략도이다. 7 is a schematic diagram showing a process of generating a final damage detection result using a structure damage detection system according to an embodiment of the present invention.

도 7을 참조하면 손상 검출 결과 생성부(170)는 손상 검출 결과 이미지(VD)의 픽셀에 새로운 라벨값을 할당하기 위해 이미지 처리 과정을 통해 바이너리 이미지(VB)를 생성하고, 최종 분류 결과 이미지(VC.R)를 바이너리 이미지(VB)에 픽셀 단위로 곱하여 최종 손상 검출 결과 이미지(VF)를 생성할 수 있다. Referring to FIG. 7 , the damage detection result generating unit 170 generates a binary image V B through an image processing process in order to assign new label values to pixels of the damage detection result image V D , and the final classification result. A final damage detection result image V F may be generated by multiplying the image V CR by the binary image V B in units of pixels.

이때, 최종 손상 검출 결과 이미지(VF)는 SR 네트워크를 이용한 다중 해상도 이미지 적층 알고리즘을 통해 생성된 최종 손상 검출 결과이다. 즉, 입력 이미지의 손상 검출 결과보다 균열 손상 검출능이 향상되고, 최소 두께200 μm 의 정량적 평가가 가능하다.In this case, the final damage detection result image V F is a final damage detection result generated through a multi-resolution image stacking algorithm using an SR network. That is, the crack damage detection ability is improved compared to the damage detection result of the input image, and quantitative evaluation of the minimum thickness of 200 μm is possible.

이하, 도 8 내지 도 9를 참조하여, 본 발명의 일 실시예에 따른 구조물 손상 검출 시스템의 실험적 검증을 위한 네트워크 학습 및 구축 방법을 설명한다.Hereinafter, a method for learning and constructing a network for experimental verification of a structure damage detection system according to an embodiment of the present invention will be described with reference to FIGS. 8 and 9 .

도 8및 도 9는 본 발명의 일 실시예에 따른 구조물 손상 검출 시스템을 통한 실험적 검증을 위해 해상도 별 이미지 손상 검출 결과를 비교 도시한 것이다. 8 and 9 show comparison of image damage detection results for each resolution for experimental verification through the structure damage detection system according to an embodiment of the present invention.

예시적으로, 본 발명은 구조물 외관 손상 검출능에 보다 적합한 이미지 고해상화 네트워크를 구축하기 위해, 이미지 고해상화를 위한 학습 데이터셋과 손상 검출을 위한 학습 데이터셋을 각각 구성하여 학습한다. 먼저, 고해상화를 위한 학습 데이터셋은 단일 이미지 초고해상도(single image super-resolution)에 널리 알려진 학습 데이터셋인 DIV2K 데이터셋의 학습용 이미지 800장을 동일하게 사용하고, 검증용 데이터셋으로 실제 도시, 건축 구조물에 대한 100장의 고해상도 사진으로 구성된 Urban100 데이터셋을 사용하였다. HD 사이즈 1,280 x 720 이상의 다양한 크기로 구성된 총 800장의 학습 데이터셋은 이미지 플립 및 90, 180, 270도 이미지 회전을 통해 8장으로 증가(Augmentation)되어 전체 800장의 학습 데이터에 8배 증가한 6,400장이 학습에 사용되었다. 학습용 데이터는 총 1,000회를 반복하여 네트워크 학습에 사용되었고, 1회 학습 단계별 사용한 데이터 수로 배치 크기(Batch size)는 16장을 선택하였다. Exemplarily, in the present invention, in order to build a high-resolution image network more suitable for detecting damage on the exterior of a structure, a learning dataset for image resolution and a learning dataset for damage detection are respectively configured and learned. First, the training dataset for high resolution uses the same 800 training images of the DIV2K dataset, which is a widely known training dataset in single image super-resolution, and uses real cities as a verification dataset, We used the Urban100 dataset consisting of 100 high-resolution photos of architectural structures. A total of 800 training datasets in various sizes of HD size 1,280 x 720 or more are augmented to 8 through image flip and 90, 180, and 270 degree image rotation, resulting in 6,400 training datasets, an increase of 8 times the total 800 training data. was used in The learning data was used for network learning by repeating a total of 1,000 times, and 16 batch sizes were selected as the number of data used for each learning step.

다음으로 손상 검출을 위한 학습 데이터셋은 외관 손상에 관련된 데이터셋을 새롭게 구성하여 네트워크 학습을 수행한다. 학습은 360 x 480 사이즈로 고정하여 균열 손상 이미지 1,756장을 학습하였다. 이때 손상 학습을 위해 폴리곤 툴을 이용하여 영역을 정의해준다. 손상 학습이 완료된 네트워크를 활용하여 입력 이미지(Input image)에 존재하는 손상을 자동으로 검출하여 출력 이미지(Output image)인 결과 이미지(Resultant image)를 취득할 수 있다.Next, as a learning dataset for damage detection, a new dataset related to exterior damage is newly configured and network learning is performed. For learning, 1,756 crack damage images were learned by fixing the size to 360 x 480. At this time, a region is defined using a polygon tool for damage learning. Damage existing in an input image may be automatically detected using a network for which damage learning has been completed, and a resultant image, which is an output image, may be acquired.

도 8은 해상도 별 이미지 손상 검출 결과로서, 도8(a)는 저해상도 이미지이고, 도8(b)는 저해상도 이미지 손상 검출 결과이고, 도8(c)는 원본 이미지이고, 도 8(d)는 원본 이미지 손상 검출 결과이고, 도8(e)는 고해상도 이미지이고, 도8(f)는 고해상도 이미지 손상 검출 결과이다.8 shows image damage detection results for each resolution, FIG. 8(a) is a low-resolution image, FIG. 8(b) is a low-resolution image damage detection result, FIG. 8(c) is an original image, and FIG. Original image damage detection result, Fig. 8(e) is a high-resolution image, and Fig. 8(f) is a high-resolution image damage detection result.

도 8을 참조하면 제안하는 네트워크의 실험적 검증을 위해 강릉에 있는 장덕교를 테스트베드로 활용하여 실험을 수행하였다. 비전 카메라가 탑재된 DJI PHANTOM 4 Pro 드론을 통해 30 fps로 약 2분간 이미지를 취득하였으며, 취득된 이미지는 크기는 1,920 × 1,440 이다. 이미지 해상도에 따라 구축한 네트워크의 손상 검출 결과가 달라지는지 검증하기 위해, 원본 이미지의 사이즈각각 480 × 360 의 저해상도 이미지와 3,840 × 2,880 의 고해상도 이미지로 바이큐빅 보간 알고리즘을 사용하여 재생성한다. Referring to FIG. 8, for experimental verification of the proposed network, an experiment was performed using Jangdeokgyo Bridge in Gangneung as a test bed. The image was acquired for about 2 minutes at 30 fps using a DJI PHANTOM 4 Pro drone equipped with a vision camera, and the size of the acquired image is 1,920 × 1,440. In order to verify whether the damage detection result of the constructed network differs depending on the image resolution, the original image is regenerated using a bicubic interpolation algorithm with a low-resolution image of 480 × 360 and a high-resolution image of 3,840 × 2,880, respectively.

도 8(b), 8(d), 8(f)는 각 해상도별 균열 손상 검출 결과이며, 동일한 이미지임에도 저해상도, 원본, 고해상도 이미지에 따라 균열 검출 결과가 모두 달라 네트워크의 균열 검출능이 해상도에 영향을 받는다는 것을 확인할 수 있다. 또한, 균열 영역에 해당하는 픽셀을 확대해보면 동일한 영역임에도 불구하고 해상도에 따라 다양한 개수와 크기의 픽셀로 이루어진 형태임을 알 수 있고, 이는 정량적 평가시 각기 다른 물리적 영역(Physical area)으로 정의되어 그 결과값에 큰 차이를 유발한다. 물리적 영역은 이미지내 한 개의 픽셀이 실제로 가지는 물리적 크기를 의미하는 스케일 지수(s)와 해당 균열 영역내의 픽셀 개수를 곱하여 산출할 수 있다. s는 핀홀 카메라에 기반하여 이미지 취득당시 사용한 카메라 스펙과 촬영 거리값 등을 토대로 산출 가능하며, 각 해상도별로 확대한 균열 영역의 최대 너비(Width)와 길이(Length)값을 비교해보면 표 1과 같다. 해상도가 높아질수록 값이 작아질뿐 아니라 동일한 균열 영역임에도 불구하고, 균열의 최대 너비와 길이 모두 최대 1mm 이상 차이가 나는 정량화 결과를 확인할 수 있다.8(b), 8(d), and 8(f) show crack detection results for each resolution, and crack detection results are all different depending on low resolution, original, and high resolution images even though they are the same image, and the crack detection ability of the network affects the resolution You can confirm that you receive . In addition, when the pixel corresponding to the crack area is enlarged, it can be seen that it is composed of pixels of various numbers and sizes depending on the resolution, even though it is the same area, and this is defined as different physical areas during quantitative evaluation, and as a result cause a big difference in value. The physical area can be calculated by multiplying the scale index (s), which means the actual physical size of one pixel in the image, and the number of pixels in the crack area. s can be calculated based on the pinhole camera and the specifications of the camera used at the time of image acquisition and the shooting distance value, etc. Table 1 compares the maximum width and length values of the enlarged crack area for each resolution. . As the resolution increases, the value not only decreases, but also the quantification result shows that both the maximum width and length of the crack differ by more than 1 mm even though the crack area is the same.

<표1> 해상도별 이미지내 검출된 균열 영역의 물리적 영역 비교 결과<Table 1> Comparative result of physical area of crack area detected in image by resolution

Figure pat00020
Figure pat00020

도9는 다중 해상도 적층 이미지의 손상 검출 결과를 검증하기 위해 도면을 비교도시한 것으로, 도9(a)는 실측 자료 이미지이고, 도9(b)는 원본 이미지의 손상 검출 결과이고, 도9(c)는 다중 해상도 적층 이미지의 손상 검출 결과이고, 도9(d)는 원본 이미지의 거짓 경보(False alarm) 이미지이고, 도9(e)는 다중 해상도 적층 이미지에서 손상 검출 결과의 거짓 경보 이미지이다.Figure 9 is a comparison of the drawings to verify the damage detection result of the multi-resolution stacked image, Figure 9 (a) is the actual data image, Figure 9 (b) is the damage detection result of the original image, Figure 9 ( c) is the damage detection result of the multi-resolution stacked image, FIG. 9(d) is a false alarm image of the original image, and FIG. 9(e) is a false alarm image of the damage detection result from the multi-resolution stacked image. .

최소 손상 정량화에 적합한 해상도 기준에 취득한 원본 이미지의 해상도 1,920 × 1,440의 부합 여부를 알아보기 위해 λ를 산출한 결과 그 값은 2로, 앞서 구축한 딥러닝 기반 고해상도 이미지 생성 네트워크를 통해 사이즈 3,840 × 2,880을 만족하는 고해상도 이미지를 생성한다. 생성된 고해상도 이미지를 대상으로 250 단계 스케일의 다중 해상도 이미지를 생성하여 구축한 인공지능 네트워크 기반의 손상 검출을 수행한 후, 통계적 기법을 통해 각 픽셀의 라벨별 확률값을 산출하여 최종 분류 결과 라벨을 고해상도 이미지의 손상 검출 결과에 맵핑한다. 도9(b)는 크기 1,920 × 1,440인 원본 이미지에 대한 손상 검출 결과이며, 도 9(c)는 구축한 딥러닝 기반 다중 해상도 적층 이미지 손상 검출 네트워크를 활용하여 원본 이미지를 2 배 고해상화한 뒤, 생성된 크기 3,840 × 2,160의 고해상도 이미지에 250 단계 스케일의 다중 해상도 이미지의 검출 결과를 적층 후 최종적으로 손상 검출을 수행한 결과이다. 이때, 균열 검출 결과를 정량적으로 비교하기 위해 도9(a)와 같이 실측 자료(Ground truth) 이미지를 해상도별로 수동으로(Manually) 생성하였다.As a result of calculating λ to determine whether the resolution of 1,920 × 1,440 of the acquired original image meets the resolution standard suitable for minimum damage quantification, the value is 2, and the size of 3,840 × 2,880 through the previously built deep learning-based high-resolution image generation network to generate a high-resolution image that satisfies After performing damage detection based on an artificial intelligence network built by generating multi-resolution images of 250-step scale for the generated high-resolution image, the probability value for each label of each pixel is calculated through statistical techniques to obtain the final classification result label in high resolution. It is mapped to the damage detection result of the image. Figure 9 (b) is the damage detection result for the original image with a size of 1,920 × 1,440, and Figure 9 (c) uses the deep learning-based multi-resolution layered image damage detection network to double the resolution of the original image. , This is the result of final damage detection after stacking the detection results of the multi-resolution image of the 250-step scale on the generated high-resolution image of size 3,840 × 2,160. At this time, in order to quantitatively compare the crack detection results, ground truth images were manually generated for each resolution as shown in FIG. 9 (a).

도9에 도시된 것처럼 검출 결과를 정량적으로 비교하기 위해 실측 자료 이미지와 원본 이미지 및 다중 해상도 적층 이미지의 손상 검출 결과를 비교하였다. 거짓 경보 중 실제 균열임에도 불구하고 검출하지 못한 거짓 음성 경보(False negative alarm)의 결과는 도9(d)와 도9(e)의 분홍색 영역에 해당한다. 반대로 실제 균열이 아닌 영역을 균열으로 검출하는 거짓 양성 경보(False positive alarm)은 정량화 과정에서 필터링(Filtering)과 같은 이미지 처리 알고리즘 등을 통해 보완이 가능하지만 거짓 음성 경보의 경우 이러한 보완책이 미비하다. 또한, 시설물의 손상 평가시 미검출된 균열 손상은 안전 및 유지관리 측면에서 그 중요도가 높아 이를 평가하는 지표인 재현율 (Recall)을 계산해 정리해보면 표 2와 같다. As shown in FIG. 9, in order to quantitatively compare the detection results, the damage detection results of the actual data image, the original image, and the multi-resolution stacked image were compared. Among the false alarms, the results of false negative alarms that were not detected despite actual cracks correspond to the pink areas in FIGS. 9(d) and 9(e). Conversely, a false positive alarm that detects an area that is not an actual crack as a crack can be supplemented through image processing algorithms such as filtering in the quantification process, but in the case of false negative alarms, these supplementary measures are insufficient. In addition, undetected crack damage during the damage evaluation of facilities has a high importance in terms of safety and maintenance, and the recall, which is an evaluation index, is calculated and summarized as shown in Table 2.

<표2> 이미지 균열 검출 결과의 재현율(%)<Table 2> Recall rate (%) of image crack detection results

Figure pat00021
Figure pat00021

표2는 도8 및 도9에 도시된 케이스 1뿐만 아니라 다른 케이스 2와 3의 검증 결과를 추가하여, 저해상도와 고해상도 이미지의 손상 검출 결과를 함께 비교하였다. 원본 이미지의 결과에 비해 알고리즘 결과 이미지의 검출능이 평균적으로 약 9.73 % 향상된 결과를 보이는 것을 확인할 수 있다. 특히 세 가지 케이스의 각 해상도에 따라 네트워크의 균열 검출능이 모두 다르며, 케이스별로 검출능이 가장 좋은 해상도가 달라 균열 검출시 입력 이미지의 해상도 최적화가 어려움을 알 수 있다.Table 2 adds verification results of cases 2 and 3 as well as case 1 shown in FIGS. 8 and 9, and compares damage detection results of low-resolution and high-resolution images together. Compared to the result of the original image, it can be seen that the detection ability of the algorithm result image is improved by about 9.73% on average. In particular, the crack detection ability of the network is different according to each resolution of the three cases, and the resolution with the best detectability for each case is different, so it can be seen that it is difficult to optimize the resolution of the input image when detecting cracks.

이하에서는 상술한 도 1 내지 도9에 도시된 구성 중 동일한 기능을 수행하는 구성의 경우 설명을 생략하기로 한다.Hereinafter, descriptions of components performing the same function among the components shown in FIGS. 1 to 9 will be omitted.

도 10은 본 발명의 일 실시예에 따른 다중 해상도 이미지 생성을 이용한 구조물 손상 검출 방법을 설명하기 위한 순서도이다.10 is a flowchart illustrating a structure damage detection method using multi-resolution image generation according to an embodiment of the present invention.

도 10을 참조하면, 본 발명의 다중 해상도 이미지 생성을 통한 구조물 손상 검출 시스템에 의해 수행되는 구조물의 손상 검출 방법은 비전 카메라로 촬영된 구조물의 이미지를 수신하는 단계(S110), 수신된 이미지로부터 최소기준치를 만족하는 고해상도 이미지를 생성하는 단계(S120), 고해상도 이미지를 제1 스케일 내지 제N 스케일의 다중 해상도 이미지로 분할하고, 손상 검출 네트워크를 통해 각 스케일 별 손상 검출 결과 이미지를 생성하는 단계(S130), 각 손상 검출 결과 이미지를 제1스케일의 손상 검출 결과 이미지에 적층하고, 적층 결과를 기초로 픽셀 단위의 손상 분류를 위한 클래스별 통계값을 산출하는 단계(S140) 및 가장 큰 통계값의 클래스를 고해상도 이미지의 검출 결과 픽셀의 최종 라벨로 결정하여 최종 분류 결과 이미지를 도출하는 단계(S150)를 포함한다.Referring to FIG. 10, the structure damage detection method performed by the structure damage detection system through multi-resolution image generation of the present invention includes receiving an image of a structure captured by a vision camera (S110), and from the received image Generating a high-resolution image that satisfies the reference value (S120), dividing the high-resolution image into multi-resolution images of the first to Nth scales, and generating damage detection result images for each scale through a damage detection network (S130). ), stacking each damage detection result image on the damage detection result image of the first scale, calculating a statistical value for each class for damage classification in pixel units based on the stacking result (S140), and the class of the largest statistical value Deriving a final classification result image by determining a final label of a pixel as a detection result of the high-resolution image (S150).

S120단계는 수신된 이미지로부터 ?汰? 특징(Shallow Feature)을 추출하는 단계, 수신된 이미지로부터 깊은 특징(Deep Feature)을 추출하는 단계, 추출된 ?汰? 특징과 깊은 특징을 이용하여 구성된 이미지의 특징 데이터를 고해상도 사이즈로 업스케일(Upscale)하는 단계 및 업스케일된 이미지의 특징 데이터로부터 고해상도 이미지를 생성하는 단계를 포함한다.In step S120, ?汰? The step of extracting a shallow feature, the step of extracting a deep feature from a received image, the extracted ?汰? Upscaling feature data of an image constructed using features and deep features to a high-resolution size, and generating a high-resolution image from the feature data of the upscaled image.

S130 단계는 바이큐빅 보간(Bicubic interpolation) 알고리즘에 기초하여 고해상도 이미지를 제1 스케일 내지 제N 스케일의 다중 해상도 이미지로 생성하는 단계, 다중 해상도 이미지를 DCNN(Deep convolution neural network)에 입력하여, 낮은 레벨(Low-level) 특징을 추출하고, 다중 해상도별 생성된 특징 맵을 누적하여 제1 특징 맵을 생성하는 단계, 제1 특징 맵과 낮은 레벨 특징을 누적하여 제2 특징 맵을 생성하고, 제2 특징 맵의 특징을 각 스케일별 픽셀 단위의 손상 라벨로 분류하는 단계 및 손상 검출 네트워크의 학습 클래스별 손상 검출 결과로서 업샘플링 층을 통해 손상 검출 결과 이미지를 생성하는 단계를 포함한다.Step S130 is a step of generating a high-resolution image as a multi-resolution image of a first scale to an N-th scale based on a bicubic interpolation algorithm, inputting the multi-resolution image to a deep convolution neural network (DCNN), and low level extracting (low-level) features and generating a first feature map by accumulating feature maps generated for each resolution; generating a second feature map by accumulating the first feature map and low-level features; Classifying the features of the feature map into damage labels in units of pixels for each scale, and generating a damage detection result image through an upsampling layer as a damage detection result for each learning class of the damage detection network.

S140 단계는 각 스케일 별로 생성된 손상 검출 결과 이미지를 최대 해상도와 동일한 크기로 업 샘플링하는 단계, 동일한 해상도로 업샘플링된 N개의 손상 검출 결과 이미지를 제1스케일의 손상 검출 결과 이미지에 적층하는 단계 및 픽셀 단위의 각 클래스에 대한 누적 결과 이미지를 생성하고, 누적 결과 이미지를 기초로 누적 횟수에 대한 확률값을 도출하는 단계를 포함한다.Step S140 includes upsampling the damage detection result image generated for each scale to the same size as the maximum resolution, stacking N damage detection result images upsampled at the same resolution on the damage detection result image of the first scale, and Generating an accumulation result image for each class in pixel units, and deriving a probability value for the accumulation number based on the accumulation result image.

S150 단계 이후에 손상 검출 결과 이미지의 픽셀에 새로운 라벨값을 할당하기 위해 이미지 처리 과정을 통해 바이너리 이미지를 생성하는 단계 및 최종 분류 결과 이미지를 바이너리 이미지에 픽셀 단위로 곱하여 최종 손상 검출 결과 이미지를 생성하는 단계를 포함한다.Generating a binary image through an image processing process to assign new label values to pixels of the damage detection result image after step S150, and multiplying the final classification result image by pixel units to generate a final damage detection result image Include steps.

이상에서 설명한 방법은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The method described above may be implemented in the form of a recording medium including instructions executable by a computer, such as program modules executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer readable media may include computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 상술한 설명을 기초로 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해되어야만 한다. 본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art to which the present invention pertains will be able to understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention based on the above description. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The scope of the present invention is indicated by the following claims, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be interpreted as being included in the scope of the present invention.

100: 구조물 손상 검출 시스템
110: 통신 모듈
120: 메모리
130: 프로세서
140: 고해상도 이미지 생성부
150: 다중 해상도 이미지 생성 및 손상 검출부
160: 손상 분류부
170: 손상 검출 결과 생성부
100: structure damage detection system
110: communication module
120: memory
130: processor
140: high-resolution image generating unit
150: multi-resolution image generation and damage detection unit
160: damage classification unit
170: damage detection result generating unit

Claims (10)

다중 해상도 이미지 생성을 통한 구조물 손상 검출 시스템에 의해 수행되는 구조물의 손상 검출 방법에 있어서,
(a) 비전 카메라로 촬영된 구조물의 이미지를 수신하는 단계;
(b) 상기 수신된 이미지로부터 최소기준치를 만족하는 고해상도 이미지를 생성하는 단계;
(c) 상기 고해상도 이미지를 제1 스케일 내지 제N 스케일의 다중 해상도 이미지로 분할하고, 손상 검출 네트워크를 통해 각 스케일 별 손상 검출 결과 이미지를 생성하는 단계;
(d) 상기 각 손상 검출 결과 이미지를 상기 제1스케일의 손상 검출 결과 이미지에 적층하고, 적층 결과를 기초로 픽셀 단위의 손상 분류를 위한 클래스별 통계값을 산출하는 단계; 및
(e) 가장 큰 통계값의 클래스를 상기 고해상도 이미지 검출결과 픽셀의 최종 라벨로 결정하여 최종 분류 결과 이미지를 도출하는 단계를 포함하는. 구조물의 손상 검출 방법.
A method for detecting damage to a structure performed by a structure damage detection system through multi-resolution image generation,
(a) receiving an image of a structure photographed by a vision camera;
(b) generating a high-resolution image that satisfies a minimum reference value from the received image;
(c) dividing the high-resolution image into multi-resolution images of a first scale to an N-th scale, and generating a damage detection result image for each scale through a damage detection network;
(d) stacking each damage detection result image on the first scale damage detection result image, and calculating a statistical value for each class for damage classification in a pixel unit based on the stacking result; and
(e) deriving a final classification result image by determining a class having the largest statistical value as a final label of a pixel as a result of detecting the high-resolution image. Methods for detecting damage to structures.
제1항에 있어서,
상기 (b) 단계는
상기 수신된 이미지로부터 ?汰? 특징(Shallow Feature)을 추출하는 단계;
상기 수신된 이미지로부터 깊은 특징(Deep Feature)을 추출하는 단계;
상기 추출된 ?汰? 특징과 깊은 특징을 이용하여 구성된 이미지의 특징 데이터를 고해상도 사이즈로 업스케일(Upscale)하는 단계; 및
상기 업스케일된 이미지의 특징 데이터로부터 고해상도 이미지를 생성하는 단계를 포함하는 것인, 구조물의 손상 검출 방법.
According to claim 1,
The step (b) is
From the received image, ?汰? Extracting features (shallow features);
extracting a deep feature from the received image;
The extracted ?汰? Upscaling feature data of an image constructed using features and deep features to a high-resolution size; and
A method of detecting damage to a structure comprising generating a high-resolution image from feature data of the upscaled image.
제1항에 있어서,
상기 (c) 단계는
바이큐빅 보간(Bicubic interpolation) 알고리즘에 기초하여 상기 고해상도 이미지를 제1 스케일 내지 제N 스케일의 다중 해상도 이미지로 생성하는 단계;
상기 다중 해상도 이미지를 DCNN(Deep convolution neural network)에 입력하여, 낮은 레벨(Low-level) 특징을 추출하고, 다중 해상도별 생성된 특징 맵을 누적하여 제1 특징 맵을 생성하는 단계;
상기 제1 특징 맵과 상기 낮은 레벨 특징을 누적하여 제2 특징 맵을 생성하고, 상기 제2 특징 맵의 특징을 각 스케일별 픽셀 단위의 손상 라벨로 분류하는 단계; 및
상기 손상 검출 네트워크의 학습 클래스별 손상 검출 결과로서 업샘플링 층을 통해 상기 손상 검출 결과 이미지를 생성하는 단계를 포함하는 것인, 구조물의 손상 검출 방법.
According to claim 1,
The step (c) is
generating a multi-resolution image of a first to Nth scale from the high-resolution image based on a bicubic interpolation algorithm;
generating a first feature map by inputting the multi-resolution image to a deep convolution neural network (DCNN), extracting low-level features, and accumulating feature maps generated for each multi-resolution;
generating a second feature map by accumulating the first feature map and the low level feature, and classifying features of the second feature map into damage labels in units of pixels for each scale; and
And generating the damage detection result image through an upsampling layer as a damage detection result for each learning class of the damage detection network.
제1항에 있어서,
상기 (d) 단계는
각 스케일 별로 생성된 상기 손상 검출 결과 이미지를 최대 해상도와 동일한 크기로 업 샘플링하는 단계;
동일한 해상도로 업샘플링된 N개의 손상 검출 결과 이미지를 상기 제1스케일의 손상 검출 결과 이미지에 적층하는 단계; 및
픽셀 단위의 각 클래스에 대한 누적 결과 이미지를 생성하고, 상기 누적 결과 이미지를 기초로 누적 횟수에 대한 확률값을 도출하는 단계를 포함하는 것인, 구조물의 손상 검출 방법.
According to claim 1,
The step (d) is
up-sampling the damage detection result image generated for each scale to a size equal to a maximum resolution;
stacking N damage detection result images upsampled to the same resolution on the damage detection result image of the first scale; and
A method of detecting damage to a structure comprising generating an accumulation result image for each class in units of pixels and deriving a probability value for an accumulation number based on the accumulation result image.
제1항에 있어서,
상기 (e) 단계 이후에
상기 손상 검출 결과 이미지의 픽셀에 새로운 라벨값을 할당하기 위해 이미지 처리 과정을 통해 바이너리 이미지를 생성하는 단계; 및
상기 최종 분류 결과 이미지를 상기 바이너리 이미지에 픽셀 단위로 곱하여 최종 손상 검출 결과 이미지를 생성하는 단계를 포함하는 것인, 구조물의 손상 검출 방법.
According to claim 1,
After step (e) above
generating a binary image through an image processing process to assign a new label value to a pixel of the image as a result of the damage detection; and
The damage detection method of a structure comprising the step of multiplying the final classification result image by the binary image in pixel units to generate a final damage detection result image.
다중 해상도 이미지 생성을 이용한 구조물 손상 검출 시스템에 있어서,
구조물의 손상 검출 방법을 제공하는 프로그램이 저장된 메모리; 및
상기 메모리에 저장된 프로그램을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 프로그램의 실행에 따라,
비전 카메라로 촬영된 구조물의 이미지를 수신하고, 상기 수신된 이미지로부터 최소기준치를 만족하는 고해상도 이미지를 생성하고, 상기 고해상도 이미지를 제1 스케일 내지 제N 스케일의 다중 해상도 이미지로 분할하고, 손상 검출 네트워크를 통해 각 스케일 별 손상 검출 결과 이미지를 생성하고, 상기 각 손상 검출 결과 이미지를 상기 제1스케일의 손상 검출 결과 이미지에 적층하고, 적층 결과를 기초로 픽셀 단위의 손상 분류를 위한 클래스별 통계값을 산출하고, 가장 큰 통계값의 클래스를 상기 고해상도 이미지 검출결과 픽셀의 최종 라벨로 결정하여 최종 분류 결과 이미지를 도출하는 상기 구조물의 손상을 검출하는, 구조물 손상 검출 시스템.
In the structure damage detection system using multi-resolution image generation,
a memory storing a program providing a method for detecting damage to a structure; and
A processor for executing a program stored in the memory;
According to the execution of the program, the processor,
Receives an image of a structure photographed by a vision camera, generates a high-resolution image that satisfies a minimum standard value from the received image, divides the high-resolution image into multi-resolution images of a first scale to an Nth scale, and damage detection network A damage detection result image for each scale is generated through, each damage detection result image is stacked on the damage detection result image of the first scale, and a statistical value for each class for damage classification in pixel units is generated based on the stacking result. and detecting damage of the structure to derive a final classification result image by determining a class of the highest statistical value as a final label of a pixel as a result of the detection of the high-resolution image.
제6항에 있어서,
상기 프로세서는
상기 고해상도 이미지를 생성하는 경우,
상기 수신된 이미지로부터 ?汰? 특징(Shallow Feature)을 추출하고,
상기 수신된 이미지로부터 깊은 특징(Deep Feature)을 추출하고,
상기 추출된 ?汰? 특징과 깊은 특징을 이용하여 구성된 이미지의 특징 데이터를 고해상도 사이즈로 업스케일(Upscale)하고,
상기 업스케일된 이미지의 특징 데이터로부터 고해상도 이미지를 생성하는 것인, 구조물 손상 검출 시스템.
According to claim 6,
The processor
When generating the high-resolution image,
From the received image, ?汰? Extract shallow features,
Extracting a deep feature from the received image;
The extracted ?汰? Upscale the feature data of the image constructed using features and deep features to a high-resolution size,
A structure damage detection system that generates a high-resolution image from feature data of the upscaled image.
제6항에 있어서,
상기 프로세서는
상기 손상 검출 결과 이미지를 생성하는 경우,
바이큐빅 보간(Bicubic interpolation) 알고리즘에 기초하여 상기 고해상도 이미지를 제1 스케일 내지 제N 스케일의 다중 해상도 이미지로 생성하고,
상기 다중 해상도 이미지를 DCNN(Deep convolution neural network)에 입력하여, 낮은 레벨(Low-level) 특징을 추출하고, 다중 해상도별 생성된 특징 맵을 누적하여 제1 특징 맵을 생성하고,
상기 제1 특징 맵과 상기 낮은 레벨 특징을 누적하여 제2 특징 맵을 생성하고, 상기 제2 특징 맵의 특징을 각 스케일별 픽셀 단위의 손상 라벨로 분류하고,
상기 손상 검출 네트워크의 학습 클래스별 손상 검출 결과로서 업샘플링 층을 통해 상기 손상 검출 결과 이미지를 생성하는 것인, 구조물 손상 검출 시스템.
According to claim 6,
The processor
When generating an image as a result of the damage detection,
Generating the high-resolution image into a multi-resolution image of a first scale to an N-th scale based on a bicubic interpolation algorithm;
Inputting the multi-resolution image to a deep convolution neural network (DCNN), extracting low-level features, accumulating feature maps generated for each resolution to generate a first feature map,
A second feature map is generated by accumulating the first feature map and the low level features, and features of the second feature map are classified into damage labels in units of pixels for each scale;
And generating the damage detection result image through an upsampling layer as a damage detection result for each learning class of the damage detection network.
제6항에 있어서,
상기 프로세서는
상기 클래스별 통계값을 산출하는 경우,
각 스케일 별로 생성된 상기 손상 검출 결과 이미지를 최대 해상도와 동일한 크기로 업 샘플링하고,
동일한 해상도로 업샘플링된 N개의 손상 검출 결과 이미지를 상기 제1스케일의 손상 검출 결과 이미지에 적층하고,
픽셀 단위의 각 클래스에 대한 누적 결과 이미지를 생성하고, 상기 누적 결과 이미지를 기초로 누적 횟수에 대한 확률값을 도출하는 것인, 구조물 손상 검출 시스템.
According to claim 6,
The processor
When calculating the statistical value for each class,
Upsampling the damage detection result image generated for each scale to the same size as the maximum resolution,
Stacking N damage detection result images upsampled to the same resolution on the damage detection result image of the first scale,
A structure damage detection system comprising: generating an accumulation result image for each class in units of pixels, and deriving a probability value for an accumulation number based on the accumulation result image.
제6항에 있어서,
상기 프로세서는
상기 손상 검출 결과 이미지의 픽셀에 새로운 라벨값을 할당하기 위해 이미지 처리 과정을 통해 바이너리 이미지를 생성하고,
상기 최종 분류 결과 이미지를 상기 바이너리 이미지에 픽셀 단위로 곱하여 최종 손상 검출 결과 이미지를 생성하는 것인, 구조물 손상 검출 시스템.
According to claim 6,
The processor
Creating a binary image through an image processing process to assign a new label value to a pixel of the image as a result of the damage detection;
Wherein the final classification result image is multiplied by the binary image in pixel units to generate a final damage detection result image.
KR1020210173335A 2021-12-07 2021-12-07 System and method for detecting damage of structure by generating multi-scale resolution image KR20230085299A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210173335A KR20230085299A (en) 2021-12-07 2021-12-07 System and method for detecting damage of structure by generating multi-scale resolution image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210173335A KR20230085299A (en) 2021-12-07 2021-12-07 System and method for detecting damage of structure by generating multi-scale resolution image

Publications (1)

Publication Number Publication Date
KR20230085299A true KR20230085299A (en) 2023-06-14

Family

ID=86744776

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210173335A KR20230085299A (en) 2021-12-07 2021-12-07 System and method for detecting damage of structure by generating multi-scale resolution image

Country Status (1)

Country Link
KR (1) KR20230085299A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117974637A (en) * 2024-03-28 2024-05-03 济宁金牛重工有限公司 Intelligent detection method and system for guide wheel crack defects based on image features

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101780057B1 (en) 2016-08-02 2017-09-19 한양대학교 에리카산학협력단 Apparatus and method for restroing high resolution image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101780057B1 (en) 2016-08-02 2017-09-19 한양대학교 에리카산학협력단 Apparatus and method for restroing high resolution image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117974637A (en) * 2024-03-28 2024-05-03 济宁金牛重工有限公司 Intelligent detection method and system for guide wheel crack defects based on image features

Similar Documents

Publication Publication Date Title
CN111681273B (en) Image segmentation method and device, electronic equipment and readable storage medium
CN107909026B (en) Small-scale convolutional neural network based age and/or gender assessment method and system
US20220262002A1 (en) Feedbackward decoder for parameter efficient semantic image segmentation
CN112308200A (en) Neural network searching method and device
CN112912928B (en) Method and system for dynamically selecting deep neural networks of feature related points from a point cloud
CN108073898B (en) Method, device and equipment for identifying human head area
KR102157610B1 (en) System and method for automatically detecting structural damage by generating super resolution digital images
CN109543691A (en) Ponding recognition methods, device and storage medium
CN112308087B (en) Integrated imaging identification method based on dynamic vision sensor
CN111898539A (en) Multi-target detection method, device, system, equipment and readable storage medium
Vetrivel et al. Towards automated satellite image segmentation and classification for assessing disaster damage using data-specific features with incremental learning
CN113887472A (en) Remote sensing image cloud detection method based on cascade color and texture feature attention
CN116612103B (en) Intelligent detection method and system for building structure cracks based on machine vision
CN114596316A (en) Road image detail capturing method based on semantic segmentation
CN116052026A (en) Unmanned aerial vehicle aerial image target detection method, system and storage medium
CN115546742A (en) Rail foreign matter identification method and system based on monocular thermal infrared camera
KR20230085299A (en) System and method for detecting damage of structure by generating multi-scale resolution image
CN117690128B (en) Embryo cell multi-core target detection system, method and computer readable storage medium
CN110942097A (en) Imaging-free classification method and system based on single-pixel detector
Ren et al. A lightweight object detection network in low-light conditions based on depthwise separable pyramid network and attention mechanism on embedded platforms
Kheder et al. Transfer learning based traffic light detection and recognition using CNN inception-V3 model
CN111339808A (en) Vehicle collision probability prediction method and device, electronic equipment and storage medium
CN116863227A (en) Hazardous chemical vehicle detection method based on improved YOLOv5
CN111666819B (en) High-precision video abnormal event detection method integrating multivariate information
CN113191991A (en) Multi-modal image fusion method, system, device and medium based on information bottleneck