KR102346676B1 - Method for creating damage figure using the deep learning-based damage image classification of facility - Google Patents

Method for creating damage figure using the deep learning-based damage image classification of facility Download PDF

Info

Publication number
KR102346676B1
KR102346676B1 KR1020210097087A KR20210097087A KR102346676B1 KR 102346676 B1 KR102346676 B1 KR 102346676B1 KR 1020210097087 A KR1020210097087 A KR 1020210097087A KR 20210097087 A KR20210097087 A KR 20210097087A KR 102346676 B1 KR102346676 B1 KR 102346676B1
Authority
KR
South Korea
Prior art keywords
damage
image
damaged
image data
data
Prior art date
Application number
KR1020210097087A
Other languages
Korean (ko)
Inventor
김용조
Original Assignee
주원씨엔시 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주원씨엔시 주식회사 filed Critical 주원씨엔시 주식회사
Priority to KR1020210097087A priority Critical patent/KR102346676B1/en
Application granted granted Critical
Publication of KR102346676B1 publication Critical patent/KR102346676B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a method for generating a damage figure using deep learning-based facility damage image classification, which comprises: (a) augmenting, by an image data augmentation module, the number of acquired image data of a facility; (b) training, by a map learning module, a convolutional neural network (CNN) by using damage image data and non-damage image data, which complete labeling to designate the presence or absence of damage by class and pixel, as training data; (c) automatically classifying, by a damaged image classifier which is a CNN completing map learning, the damaged images by using test image data or arbitrary image data to acquire a damage figure as input data; (d) pre-processing, by a damage image data pre-processing module, the data classified as the damage image, which is output data through the damaged image classifier, to efficiently detect a damage area; (e) detecting, by a damage area detection module, the damage image area to increase accuracy of the damage figure and extract a damage shape pattern for the damage image completing the pre-processing operation; and (f) automatically generating, by a damage figure generating module, the damage figure by repeatedly using a feature vector and short line segment for the damage. Accordingly, since a deep learning technology is applied to detailed inspection of facilities, a method that has been carried out by manpower for a long time is replaced, and thus damage can be recognized objectively, promptly, and automatically.

Description

딥러닝 기반의 시설물 손상영상 분류를 활용한 손상도 생성방법 {Method for creating damage figure using the deep learning-based damage image classification of facility}{Method for creating damage figure using the deep learning-based damage image classification of facility}

본 발명은 딥러닝 기반의 시설물 손상영상 분류를 활용한 손상도 생성방법에 관한 것으로, 더욱 상세하게는 시설물 정밀점검에 딥러닝 기술을 도입하여 오랜 시간 인력 중심으로 진행해 왔던 방식을 객관적이고 신속하며 자동으로 손상 인식이 가능하도록 하는, 딥러닝 기반의 시설물 손상영상 분류를 활용한 손상도 생성방법에 관한 것이다.The present invention relates to a damage level generation method using deep learning-based facility damage image classification. It relates to a damage level generation method using deep learning-based facility damage image classification that enables damage recognition with

국내 건설기술의 고도화와 4차 산업기술의 발달은 점차 건축물을 포함한 시설물의 고층화·대형화·복합화를 양산시키고 있다. 이에 비해, 현재 건축물 정밀 점검은 주로 조사자의 육안 관찰, 수기방식 및 부분 사진촬영 등의 방식에 의존하고 있어, 객관적이고 정량적인 평가가 어려우며 건축물의 상시관찰이 불가능하고, 그 결과가 보고서 형태로 관리되어 정보 활용도가 저조하다는 문제가 발생하고 있다.The advancement of domestic construction technology and the development of 4th industrial technology are gradually mass-producing high-rise, large-scale, and complex of facilities including buildings. In contrast, the current detailed inspection of buildings mainly relies on the investigator's visual observation, handwriting method, and partial photography, making it difficult to evaluate objectively and quantitatively, and it is impossible to observe the building at all times, and the results are managed in the form of a report. As a result, there is a problem that the utilization of information is low.

이에 건축물을 포함한 시설물 정밀점검에 빠르게 진화하고 있는 4차 산업기술인 인공지능(Artificial Intelligence, AI), 특히 딥러닝(Deep Learning) 기술을 도입하여 오랜 시간 인력 중심으로 진행해 왔던 현재의 방식을 획기적이고 신뢰성이 우수한 체계로 구축할 필요가 있다.In this regard, artificial intelligence (AI), a rapidly evolving 4th industrial technology, especially deep learning technology, has been introduced in the detailed inspection of facilities including buildings, and the current method, which has been carried out for a long time centered on human resources, is innovative and reliable. We need to build this excellent system.

기존에도 건축물에 대한 손상 인식을 자동으로 수행하기 위한 연구가 진행된 바 있는데, 특정 손상(균열)등에 대한 감지 가능성 검토와, 딥러닝 네트워크의 성능 비교에 그치는 연구가 주를 이루고 있다. 또 다른 선행연구에서는 예산 및 기간에 따른 손상 영상 데이터 축적에 많은 어려움이 있었으며, 하드웨어적 문제로 근접 촬영 및 고해상도 영상 데이터가 부족하였고 결과적으로 오픈 데이터셋을 학습하였다. 한국건설기술연구원에 따르면, 시설물의 영상 빅데이터 확보 방안 및 실제 시설물의 유지관리 실정과 규정 절차의 이해는 저조한 실정이며, 손상평가에 기초한 상태평가까지 발전될 가능성이 희박하다. 특히나 터널 등의 대형 구조물을 대상으로 한 연구들에 비해, 건축물을 대상으로 인공지능 기반의 정밀 점검 및 진단 기술을 실용화 단계까지 진행한 연구가 부족한 실정이다.Existing studies have been conducted to automatically perform damage recognition on buildings, but the main focus is on the detection of specific damage (cracks) and the comparison of the performance of the deep learning network. In another previous study, there were many difficulties in accumulating damaged image data according to budget and period, and close-up and high-resolution image data were insufficient due to hardware problems. As a result, open datasets were learned. According to the Korea Institute of Construction Technology, the understanding of measures to secure image big data of facilities and the maintenance and management of actual facilities and regulatory procedures is poor, and it is unlikely that a condition assessment based on damage assessment will be developed. In particular, compared to studies on large structures such as tunnels, there is a lack of research that has progressed to the stage of practical use of AI-based precision inspection and diagnosis technology for buildings.

따라서 실제 현장에서 딥러닝 기반의 건축물 정밀점검을 가능케 하기 위해서는, 건축물 손상 영상 취득을 위한 기계적인 스펙개발 뿐만 아니라 양질의 데이터 취득에 대한 기술적 발전과 건축물 유지관리 현황과 방식에 대한 이해가 필요하다.Therefore, in order to enable deep learning-based detailed inspection of buildings in the actual field, it is necessary not only to develop mechanical specifications for acquiring images of damage to buildings, but also to develop technical developments for acquiring high-quality data and to understand the status and methods of building maintenance.

이에 본 발명에서는 시설물의 정밀정검 시 인공지능기술을 기반으로 시설물의 손상을 객관적이고 신속하며 정량적으로 평가하는 기술을 개발하고자 한다. 이를 통하여 시설물에 대한 실시간 모니터링이 가능하며 각종 안전사고와 재난을 예방할 수 있을 뿐만 아니라 효율적인 안전관리 체계를 구축할 수 있다.Accordingly, the present invention intends to develop a technology for objectively, quickly, and quantitatively evaluating the damage of a facility based on artificial intelligence technology during a precise inspection of the facility. Through this, real-time monitoring of facilities is possible, various safety accidents and disasters can be prevented, and an efficient safety management system can be established.

한편, 종래 기술로는 대한민국 등록특허공보 제10-2095751호(2020년04월01일 공고)에 개시되어 있는 바와 같이, 구조물에 가속도 계측부를 설치하는 단계; 상기 가속도 계측부에서 측정된 구조물 가속도 응답을 얻는 단계; 구조물 가속도 응답을 이용하여 인공지능 모델을 학습시키는 단계; 인공지능 모델의 학습결과를 이용하여 예측 모델링부를 생성하는 단계; 상기 예측 모델링부를 이용하여 구조물 가속도 응답을 예측하는 단계; 및 구조물의 손상 여부를 판단하는 단계;를 포함하며, 상기 인공지능 모델을 학습시키는 단계는, 이전 시간 단계에서 측정된 상기 제1 계측부 및 상기 제2 계측부의 구조물 가속도 응답을 입력 데이터로 정의하고 다음 시간 단계에서 측정된 상기 제2 계측부의 구조물 가속도 응답을 출력 데이터로 정의하여 인공지능 모델을 학습시키는 것을 특징으로 하고 있으나, 이 또한 객관성, 합리성 및 정확성 측면에서는 한계가 있다.Meanwhile, in the prior art, as disclosed in Korean Patent Publication No. 10-2095751 (announced on April 01, 2020), installing an acceleration measuring unit in a structure; obtaining a structure acceleration response measured by the acceleration measurement unit; training an artificial intelligence model using the structure acceleration response; generating a predictive modeling unit using the learning result of the artificial intelligence model; predicting a structure acceleration response using the predictive modeling unit; and determining whether the structure is damaged; in which the training of the artificial intelligence model includes defining the structure acceleration responses of the first measurement unit and the second measurement unit measured in the previous time step as input data, and then It is characterized in that an artificial intelligence model is trained by defining the structure acceleration response of the second measurement unit measured in time step as output data, but this also has limitations in objectivity, rationality and accuracy.

대한민국 등록특허공보 제10-2095751호(2020년04월01일 공고, 발명의 명칭: 구조물 손상 감지 시스템 및 방법)Republic of Korea Patent Publication No. 10-2095751 (Announcement on April 01, 2020, title of invention: Structure damage detection system and method)

본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 시설물 정밀점검에 빠르게 진화하고 있는 4차 산업기술인 인공지능(AI), 특히 딥러닝(Deep Learning) 기술을 도입하여 오랜 시간 인력 중심으로 진행해 왔던 방식을 객관적이고 신속하며 자동으로 손상 인식이 가능하도록 하는, 딥러닝 기반의 시설물 손상영상 분류를 활용한 손상도 생성방법을 제공하는데 있다.The present invention has been devised to solve the above problems, and an object of the present invention is to introduce artificial intelligence (AI), in particular, deep learning technology, which is a rapidly evolving 4th industrial technology in the detailed inspection of facilities, for a long time. The purpose of this project is to provide a damage level generation method using deep learning-based facility damage image classification that enables objective, rapid and automatic damage recognition in the method that has been conducted based on time and manpower.

본 발명의 다른 목적은 객관적이고 효율적인 시설물의 상태평가로 시설물의 합리적인 안전등급 산정이 가능하도록 하는 것이다.Another object of the present invention is to enable rational evaluation of safety ratings of facilities through objective and efficient condition evaluation of facilities.

본 발명의 또 다른 목적은 딥러닝 기반의 손상 영상 분류를 거친 손상영상에 한번 더 손상영역 검출을 적용함으로써 정확한 손상도를 생성시키기 위한 것이다.Another object of the present invention is to generate an accurate degree of damage by applying damage area detection to the damaged image that has undergone deep learning-based damage image classification once more.

상기와 같은 목적을 달성하기 위하여, 본 발명은 (a) 영상 데이터 증강모듈이 취득된 시설물의 영상 데이터(손상 영상 데이터와 비손상 영상 데이터)의 개수를 증강시키는 단계와; (b) 지도학습모듈이 클래스와 픽셀별 손상유무를 지정하는 라벨링을 거친 상기 손상 영상 데이터와 비손상 영상 데이터를 훈련데이터로 하여 CNN(Convolutional Neural Network)을 학습시키는 단계와; (c) 지도학습이 완료된 CNN인 손상 영상 분류기가 손상도(損傷圖)를 얻고자 하는 테스트영상 데이터 또는 임의의 영상 데이터를 입력데이터로 하여 자동으로 손상 영상을 분류하는 단계와; (d) 손상영상 데이터 전처리모듈이 효율적인 손상영역 검출을 위해 상기 손상 영상 분류기를 통한 출력데이터인 손상 영상으로 분류된 데이터를 전처리하는 단계와; (e) 손상영역 검출모듈이 상기 전처리작업이 완료된 손상 영상에 대해서 손상도(損傷圖)의 정확도를 높이고 손상 형상 패턴을 추출하기 위해 영상 손상영역을 검출하는 단계, 및 (f) 손상도 생성모듈이 손상에 대한 특징 벡터와 짧은 선분을 반복 사용하여 손상도를 자동으로 생성시키는 단계로 이루어지는 것을 특징으로 한다.In order to achieve the above object, the present invention comprises the steps of: (a) augmenting the number of image data (damaged image data and non-damaged image data) of the acquired facility by the image data augmentation module; (b) learning, by a supervised learning module, a Convolutional Neural Network (CNN) using the damaged image data and the undamaged image data that have undergone labeling to designate the presence or absence of damage for each class and pixel as training data; (c) automatically classifying the damaged image by using the damaged image classifier, which is a CNN supervised learning, the test image data or arbitrary image data to obtain a degree of damage as input data; (d) pre-processing, by the damaged image data pre-processing module, the data classified as the damaged image as output data through the damaged image classifier to efficiently detect the damaged area; (e) detecting, by the damaged area detection module, the image damaged area in order to increase the accuracy of the damage degree and extract the damage shape pattern for the damaged image on which the pre-processing operation has been completed, and (f) the damage level generating module It is characterized in that it consists of a step of automatically generating a degree of damage by repeatedly using a feature vector and a short line segment for this damage.

또한, 본 발명의 상기 단계(a)에서 증강은 Flip 기법, Translate 기법, Rotate 기법 및 Color modification 기법을 사용한다.In addition, the augmentation in step (a) of the present invention uses a flip technique, a translate technique, a rotate technique, and a color modification technique.

또한, 본 발명의 상기 단계(b)의 학습과정에서 찾고자 하는 손상에 대해, 손상 검출을 수행할 최소 영상 크기와 이진화할 색상 타입, 지도학습 훈련 횟수, 각각의 영상의 명도와 대비 변화값 및 손상이 없는 영상과 손상이 존재하는 영상을 구분하기 위한 경계값을 파라미터로 활용한다.In addition, for the damage to be found in the learning process of step (b) of the present invention, the minimum image size to perform damage detection, the color type to be binarized, the number of supervised learning training times, the brightness and contrast change values of each image, and damage A boundary value is used as a parameter to distinguish an image without damage from an image with damage.

또한, 본 발명의 상기 단계(d)에서 전처리 과정은, 영상에 평균필터(mean filter)를 사용하여 영상 내 인접영역과의 픽셀명도를 평균처리하는 단계와, 영상에 미디언 필터(median filter)를 사용하여 평균필터로 저하된 영상의 선명도를 보상하고 노이즈를 감소시키는 단계, 및 영상 노이즈를 제거하고 영상 처리에 있어서 연산속도를 빠르게하는 영상 이진화(binarization) 단계가 순차적으로 이루어진다.In addition, the pre-processing in step (d) of the present invention includes the steps of averaging the pixel brightness with an adjacent region in the image using a mean filter on the image, and using a median filter on the image Compensating for image sharpness and reducing noise by using the average filter, and image binarization step of removing image noise and speeding up operation in image processing are sequentially performed.

또한, 본 발명의 상기 단계(e)에서 손상영역 검출은, 손상이 아닌 불필요한 데이터를 구분하여 시설물의 비선형적이면서 다양한 방향성을 갖는 손상을 탐지하는 분리(segmentation) 단계와, 분리된 형상으로부터 손상을 추출하기 위해 형상별 중요 특성이 포함되어 있는 특징값들을 산출하고 Fisher의 선형 판별식(Fisher’s linear discriminant)을 통해 특징점을 추출하는 단계, 및 서포트 벡터 머신(SVM, support vector machine)을 이용하여 상기 특징점들을 대상으로 비손상에 대한 특징 벡터와 손상에 대한 특징 벡터로 판정하는 단계가 순차적으로 이루어진다.In addition, in the step (e) of the present invention, the detection of the damaged area includes a segmentation step of classifying unnecessary data rather than damage to detect non-linear and diverse damage of the facility, and damage from the separated shape. To extract, feature values including important features for each shape are calculated, and feature points are extracted through Fisher's linear discriminant, and the feature points using a support vector machine (SVM) Steps of determining the feature vector for non-damage and the feature vector for damage are sequentially performed.

또한, 본 발명에서 상기 분리(segmentation)는 다음의 수학식,In addition, in the present invention, the segmentation is the following equation,

Figure 112021085391542-pat00001
(여기서, T는 출력 영상, I는 입력 영상(전처리된 손상영상), S는 연산에 포함된 주위픽셀에 대한 선형 구성요소(0도,45도,90도,135도 방향))을 이용하고, 상기 특징값들은 이심률(분리된 영역과 동일한 2차 모멘트를 갖는 타원의 이심률), 상기 타원 면적으로 나눈 분리된 영역의 면적, 고형비(볼록 껍질(convex hull) 면적 대비 Contour면적의 비율) 및 수직-수평 픽셀 좌표간 상관계수의 절대값(
Figure 112021085391542-pat00002
(여기서, x와 y는 영상의 손상영역에 속하는 요소의 픽셀값,
Figure 112021085391542-pat00003
Figure 112021085391542-pat00004
는 손상영역에 속하는 모든 요소의 평균값))이다.
Figure 112021085391542-pat00001
(where T is the output image, I is the input image (preprocessed damage image), and S is the linear component (0 degree, 45 degree, 90 degree, 135 degree direction) of the surrounding pixels included in the calculation) , the characteristic values are the eccentricity (the eccentricity of an ellipse having the same second moment as the separated region), the area of the isolated region divided by the ellipse area, the solid ratio (the ratio of the contour area to the convex hull area) and Absolute value of correlation coefficient between vertical-horizontal pixel coordinates (
Figure 112021085391542-pat00002
(where x and y are pixel values of elements belonging to the damaged area of the image,
Figure 112021085391542-pat00003
Wow
Figure 112021085391542-pat00004
is the average value of all elements belonging to the damaged area)).

또한, 본 발명의 상기 단계(f)에서 손상도 생성은 다음의 수학식,In addition, the generation of damage in the step (f) of the present invention is the following equation,

Figure 112021085391542-pat00005
(여기서, Jm은 스케일 m의 선분에 대한 손상도, Smin은 선분의 최소크기, Ck는 손상에 대한 특징 벡터인 k를 선분으로 사용하여 생성된 손상영상, u와 v는 손상도 영상의 픽셀좌표, [] 는 올림함수)을 이용하되, 상기 손상영역 검출에서의 손상에 대한 특징 벡터를 활용하고 상기 수학식에 의한 각각의 픽셀좌표에 대한 짧은 선분인 손상도의 조합으로 이루어진다.
Figure 112021085391542-pat00005
(where J m is the damage degree for the line segment of scale m, S min is the minimum size of the line segment, C k is the damage image generated using k, a feature vector for damage, as the line segment, and u and v are the damage degree images. pixel coordinates, [] is a rounding function), but using a feature vector for damage in the detection of the damage area, and a combination of degree of damage that is a short line segment for each pixel coordinate according to the above equation.

이상에서 살펴본, 본 발명인 딥러닝 기반의 시설물 손상영상 분류를 활용한 손상도 생성방법은 시설물 정밀점검에 딥러닝 기술을 도입하여 오랜 시간 인력 중심으로 진행해 왔던 방식을 객관적이고 신속하며 자동으로 손상 인식이 가능하도록 하고, 객관적이고 효율적인 시설물의 상태평가로 시설물의 합리적인 안전등급 산정이 가능하도록 하며, 딥러닝 기반의 손상 영상 분류를 거친 손상영상에 한번 더 손상영역 검출을 적용함으로써 정확한 손상도를 생성시키는 효과가 있다.As seen above, the damage generation method using deep learning-based facility damage image classification, which is the present invention, introduces deep learning technology to a detailed facility inspection, and the method that has been carried out for a long time centered on manpower objectively, quickly and automatically recognizes damage. The effect of creating an accurate degree of damage by applying the detection of the damaged area once more to the damaged image that has undergone deep learning-based damage image classification. there is

도 1 은 본 발명에 따른 딥러닝 기반의 시설물 손상영상 분류를 활용한 손상도 생성방법의 전체 흐름도를 나타낸 도면.
도 2 는 본 발명에서 영상 데이터 증강의 일실시예를 나타낸 도면.
도 3 은 본 발명에서 손상영역 클래스로 라벨링된 일실시예를 나타낸 도면.
도 4 는 본 발명에서 손상 영상 분류기에 의해 손상 영상으로 분류된 데이터의 일실시예를 나타낸 도면.
도 5 는 본 발명에서 전처리 작업의 이진화가 수행된 이후 영상의 일실시예를 나타낸 도면.
도 6 은 본 발명에서 전처리된 손상영상으로부터 검출된 손상영역의 일실시예를 나타낸 도면.
도 7 은 본 발명에서 생성된 손상도(損傷圖)의 일실시예를 나타낸 도면.
도 8 은 본 발명에 따른 딥러닝 기반의 시설물 손상영상 분류를 활용한 손상도 생성방법과 관련된 장치의 일실시예를 나타낸 구성도.
1 is a diagram showing an overall flow chart of a damage level generation method using deep learning-based facility damage image classification according to the present invention.
2 is a view showing an embodiment of image data augmentation in the present invention.
3 is a view showing an embodiment labeled with a damaged area class in the present invention.
4 is a diagram illustrating an embodiment of data classified as an injured image by an injured image classifier in the present invention.
5 is a view showing an embodiment of an image after binarization of a pre-processing operation is performed in the present invention.
6 is a view showing an embodiment of the damaged area detected from the pre-processed damaged image in the present invention.
7 is a view showing an embodiment of the damage generated in the present invention (損傷圖).
8 is a block diagram showing an embodiment of a device related to a damage degree generation method using deep learning-based facility damage image classification according to the present invention.

상기와 같이 구성된 본 발명의 바람직한 실시예를 첨부된 도면을 참조하면서 상세히 설명하면 다음과 같다. 첨부된 도면들 및 이를 참조한 설명은 본 발명에 관하여 당해 기술 분야에서 통상의 지식을 가진 자들이 쉽게 이해할 수 있도록 하기 위해 예시된 것이며, 본 발명의 사상 및 범위를 한정하려는 의도로 제시된 것은 아님에 유의하여야 할 것이다.A preferred embodiment of the present invention configured as described above will be described in detail with reference to the accompanying drawings. It should be noted that the accompanying drawings and the description referring to them are exemplified so that those of ordinary skill in the art can easily understand the present invention, and are not intended to limit the spirit and scope of the present invention. will have to

도 8은 본 발명에 따른 딥러닝 기반의 시설물 손상영상 분류를 활용한 손상도 생성방법과 관련된 장치의 일실시예를 나타낸 구성도로, 손상영상 분류를 활용한 손상도 생성장치(10)는 시설물 정밀점검에 딥러닝 기술을 도입하여 오랜 시간 인력 중심으로 진행해 왔던 방식을 객관적이고 신속하며 자동으로 손상 인식이 가능하도록 하고 객관적이고 효율적인 시설물의 상태평가로 시설물의 합리적인 안전등급 산정이 가능하도록 하는 것으로, 취득된 시설물의 영상 데이터의 개수를 증강시키는 영상 데이터 증강모듈(11), 라벨링을 거친 손상 영상 데이터와 비손상 영상 데이터를 훈련데이터로 하여 CNN(Convolutional Neural Network, 합성곱신경망)을 학습시키는 지도학습모듈(12), 효율적인 손상영역 검출을 위해 손상 영상 분류기를 통한 출력데이터인 손상 영상으로 분류된 데이터를 전처리하는 손상영상 데이터 전처리모듈(13), 전처리작업이 완료된 손상 영상에 대해서 손상도(損傷圖)의 정확도를 높이고 손상 형상 패턴을 추출하기 위한 영상 손상영역을 검출하는 손상영역 검출모듈(14), 영상의 손상도(외관조사망도)를 자동으로 생성시키는 손상도 생성모듈(15)을 포함한다. 즉, 영상 데이터 증강모듈(11), 지도학습모듈(12), 손상영상 데이터 전처리모듈(13), 손상영역 검출모듈(14) 및 손상도 생성모듈(15)은 본 발명이 컴퓨터상에서 수행되도록 하기 위한 기술적 수단으로 영상 데이터 증강부, 지도학습부, 손상영상 데이터 전처리부, 손상영역 검출부 및 손상도 생성부로 각각 명명할 수도 있다.8 is a block diagram showing an embodiment of a device related to a damage level generating method using deep learning-based facility damage image classification according to the present invention, and the damage level generating device 10 using damage image classification is facility precision By introducing deep learning technology to inspection, the method that has been carried out for a long time centered on manpower enables objective, rapid and automatic damage recognition, and objective and efficient facility condition evaluation to enable reasonable safety rating of facilities to be calculated. An image data augmentation module 11 that augments the number of image data of a facility, a supervised learning module that trains a CNN (Convolutional Neural Network) by using the labeled damaged image data and the non-injured image data as training data (12), damage image data pre-processing module (13) that pre-processes data classified as damage image, which is output data through the damage image classifier, for efficient damage area detection It includes a damage area detection module 14 that detects an image damage area for increasing the accuracy of the image and extracts a damage shape pattern, and a damage level generation module 15 that automatically generates a damage level (appearance survey network) of the image. . That is, the image data augmentation module 11, the supervised learning module 12, the damaged image data preprocessing module 13, the damaged area detection module 14 and the damage level generating module 15 allow the present invention to be performed on a computer. As a technical means for this, the image data augmentation unit, the supervised learning unit, the damaged image data preprocessor, the damaged area detection unit, and the damage level generator may be respectively named.

한편, 손상 영상 분류기는 지도학습이 완료된 CNN을 가리키는 것으로 별도로 도 8에 도시하지는 않았다.On the other hand, the damaged image classifier refers to a CNN on which supervised learning has been completed, and is not separately shown in FIG. 8 .

상기 손상영상 분류를 활용한 손상도 생성장치(10)는 서버, 데스크톱, 노트북 또는 휴대용 단말기 등으로, 딥러닝 기반의 시설물 손상영상 분류를 활용한 손상도 생성을 수행하기 위한 소프트웨어를 저장 포함한다.The damage level generating device 10 using the damage image classification is a server, desktop, laptop or portable terminal, etc., and includes storing software for performing damage generation using deep learning-based facility damage image classification.

더불어 상기 손상영상 분류를 활용한 손상도 생성장치(10)에서 연산되거나 입출력되는 자료 및 훈련 데이터 등은 별도의 저장 장치(20)에 저장되도록 하는 것이 좋으나, 상기 손상영상 분류를 활용한 손상도 생성장치(10)는 저장 장치(20)를 포함할 수도 있다.In addition, it is preferable that the data and training data calculated or input/output in the damage level generating device 10 using the damage image classification be stored in a separate storage device 20, but the damage level using the damage image classification is generated Device 10 may also include storage device 20 .

본 발명에 필요한 후술할 훈련 데이터는 RGB 영상 데이터로 이러한 영상 데이터는 영상의 위치와 광학정보를 포함하고 있고 영상 데이터의 취득 방법은 드론을 활용함이 바람직하지만 이에 한정되는 것은 아니고 다른 방법으로 취득된 영상 데이터도 해당될 수 있다.Training data, which will be described later, required for the present invention is RGB image data. Such image data includes the position and optical information of the image, and the method of acquiring image data is preferably using a drone, but is not limited thereto. Image data may also be applicable.

이러한 드론 즉, UAV로터 취득되는 영상은 위성 및 항공 영상에 비해 저렴하고, 촬영주기가 빠르고, 해상도가 높다는 특징이 있으며, 저렴함을 통해 조사 단가의 감소, 짧은 촬영주기를 통해 잦은 갱신, 높은 해상도를 통해 풍부하고 정확한 해석을 수행할 수 있다.The images acquired from such drones, that is, UAVs, are cheaper than satellite and aerial images, have a faster shooting cycle, and have high resolution. rich and accurate analysis can be performed.

본 발명에서 드론의 활용시에는 인력에 의한 매뉴얼 비행이 아니라 자율비행 방식 채택함이 바람직한데 드론과 조종 장치 간 송수신 문제를 해결하기 위해 비행체 자체 자율비행 컨트롤 보드가 탑재되어 있는 것이 바람직하고, 비행 컨트롤러(flight controller)는 드론을 공중에서 안정적으로 비행할 수 있게 해주는 제어장치로, 자이로, 가속도계, GPS 등 센서 정보를 결합하여 속도 제어부에 신호를 주어 드론을 제어한다.When using the drone in the present invention, it is preferable to adopt the autonomous flight method rather than manual flight by manpower. (flight controller) is a control device that allows the drone to fly stably in the air. It controls the drone by combining sensor information such as gyro, accelerometer, and GPS to give a signal to the speed controller.

여기에 사용자가 미션을 올려 수동 조작 없이 원하는 임무를 수행할 수 있게 하는 기술을 자동비행항법 기술이라 하며, 내비게이션 유도 제어 분야가 접합된 기술로 드론의 자동비행항법(automatic flight navigation)은 대부분 경로지점설정 방법을 적용하고 있으며, 이는 원격 제어 (remote control)로 연결된 영상패드(imaging display)에서 드론이 비행하고자 하는 경로를 지도상에 기록(recording)한 후 자동 비행하는 방법이다.Here, the technology that allows the user to upload a mission and perform the desired mission without manual operation is called automatic flight navigation technology. A setting method is applied, which is a method of automatically flying after recording the route the drone wants to fly on the map on an imaging display connected by a remote control.

일반적인 경로지점설정 방법은 주로 인력으로 접근이 힘든 광범위한 곳이나 3차원 지형정보 측량 등에 적용하기 위한 비행에는 적합하지만, 구조물 계측에서는 비행경로에 대한 비행안정성 및 정확도가 낮아 직접 적용이 불가능하여 절대적 위치를 표시하는 경위도 좌표계를 활용한 경로지점설정 방법을 적용한다. 또한 드론의 비행경로를 설정하는 웨이 포인트 방식의 비행제어는 정확하고 안정적인 자율비행을 가능하게 할 수 있다.The general route point setting method is suitable for flight to a wide area where it is difficult to access mainly by manpower or to apply 3D topographic information surveying, etc., but in structure measurement, the flight stability and accuracy of the flight path are low, so it cannot be directly applied. The route point setting method using the displayed longitude and latitude coordinate system is applied. In addition, the waypoint-based flight control that sets the drone's flight path can enable accurate and stable autonomous flight.

이동 측위는 정밀한 위치정보를 가지고 있는 기준국의 반송파 위상에 대한 보정치를 이용하여 이동국에서 실시간으로 측위 결과를 얻는 일련의 측량 과정으로 드론에 이동국 GPS를 설치하고 지상 기준국의 정보를 전송하여 센티미터 단위의 정확도를 얻을 수 있는데, 여기서 보정 방식은 지상에 GPS를 설치하고 이 보정 정보를 이동국으로 전송하는 지상국에 의한 방식을 사용하면 정확도 면에서 기선거리가 짧은 지상국 방식이 유리하다.Mobile positioning is a series of surveying processes in which the mobile station obtains the positioning results in real time using the correction value for the carrier phase of the reference station that has precise location information. In this case, the ground station method with a short base distance is advantageous in terms of accuracy if a method by a ground station that installs a GPS on the ground and transmits this calibration information to a mobile station is used for the calibration method.

상기 GPS는 3개의 인공위성이 보내는 전파를 받아 삼변 측량법으로 지구상 위치를 계산하게 되는데 위성의 위치에 따라 3-10m 정도 오차가 날 수 있고, 이 기준 정보에 따라 비행 제어를 수행해도 기체에 따라 1-4m의 오차가 추가로 발생될 것으로 예상할 수 있다.The GPS receives radio waves from three artificial satellites and calculates the position on the earth by trilateration. Depending on the position of the satellite, an error of about 3-10m may occur, and even if flight control is performed according to this reference information, 1- An error of 4 m can be expected to occur additionally.

드론의 리턴투홈(return to home) 오차를 최소 합산 오차인 4m 이내로 설정함이 바람직하고, 비행체인 드론에 위성 수신율을 향상시킬 수 있는 실시간 이동측위(RTK, real time kinematic)와 이를 제어할 수 있는 탑재체를 채용하여 드론의 정밀 위치를 추정할 수 있다.It is desirable to set the return to home error of the drone within 4m, which is the minimum summation error, and the real time kinematic (RTK) that can improve the satellite reception rate for the flying-chain drone, By employing a payload, the precise location of the drone can be estimated.

본 발명에서 촬영 대상인 시설물은 건축물, 터널, 교량, 제방, 댐 등으로 이러한 시설물의 영상 촬영 섹션 크기는 최소 140cm인 것이 바람직하고, 시설물 부분 영상 취득시에 촬영 지점의 기준이 되는 웨이포인트(way-point) 오차를 70cm 이내(영상 촬영 섹션 크기의 절반)로 설정하여 중첩 촬영 후 누락 부분이 없도록하여야 하며, 균열의 경우 균열폭 0.3mm 이상 감지와 영상 분석 손상 검출율은 80% 이상이 바람직하다.In the present invention, the facilities to be photographed are buildings, tunnels, bridges, embankments, dams, etc., and the size of the image capturing section of these facilities is preferably at least 140 cm. point) error should be set to within 70cm (half of the size of the imaging section) so that there is no missing part after overlapping shooting.

본 발명은 도 1에 도시된 바와 같은 과정으로 구성되는데 아래에서는 이를 상술해 보겠다.The present invention consists of a process as shown in FIG. 1, which will be described in detail below.

우선, 상기 취득된 제한적인 영상 데이터는 손상 영상 데이터와 비손상 영상 데이터로 구분될 수 있고 후술하는 지도학습 과정에서 입력 데이터인 훈련 데이터로 활용되는데 상기 영상 데이터(즉, 훈련 데이터)를 활용하는 딥러닝 환경에서는 영상 증강기술(Image augmentation)을 활용하여 영상 데이터의 수를 증가시킬 수 있고(S10), 이는 딥러닝 학습 성능 향상에 긍정적인 영향을 미친다. 한편, 촬영 대상인 시설물 별로 손상의 양상이 차이가 있을 수 있으므로 이러한 훈련 데이터는 시설물별로 데이터셋이 마련됨이 바람직하다.First, the acquired limited image data can be divided into damaged image data and non-injured image data, and is used as training data, which is input data, in a supervised learning process to be described later. Deep using the image data (ie, training data) In the learning environment, the number of image data can be increased by using image augmentation (S10), which has a positive effect on the improvement of deep learning learning performance. On the other hand, since the pattern of damage may be different for each facility to be photographed, it is preferable that such training data is provided in a dataset for each facility.

인공신경망을 학습시킬 때에는 항상 과적합(Overfitting) 에 유의해야 하는데 이러한 과적합은 데이터 수가 부족할 때 흔히 일어나므로 이 문제를 해소하는 방법 중 하나는 임의로 영상 데이터에 조작을 가해 영상 데이터의 개수를 증강시키는 상기 영상 증강 기술을 활용하여 임의로 데이터를 자르고, 상하좌우 반전 및 랜덤 대비, 색 변경을 통해 영상 데이터의 가상 개수를 늘리는 영상 데이터의 증강으로 과적합 문제를 해소하는 것이다.When training an artificial neural network, it is always necessary to pay attention to overfitting. This overfitting often occurs when the number of data is insufficient. One way to solve this problem is to increase the number of image data by arbitrarily manipulating the image data. This is to solve the overfitting problem by augmenting the image data that randomly cuts data using the image augmentation technology, increases the virtual number of image data through vertical inversion, random contrast, and color change.

본 발명에서는 상기 훈련 데이터인 영상 데이터 증강을 위하여 다음과 같은 Flip, Translate, Rotate, Color modification 의 4가지 방법(도 2a는 증강 전의 원영상)을 사용하는데 이러한 과정을 통해 전체 학습 영상의 수가 약 8~10배 정도 증가할 수 있다.In the present invention, the following four methods of Flip, Translate, Rotate, and Color modification (FIG. 2A is the original image before augmentation) are used to augment the image data, which is the training data. Through this process, the total number of training images is about 8. It can be increased by ~10 times.

① Flip 기법: 원영상(original image)을 좌우 혹은 상하로 반전(도 2b)① Flip technique: Invert the original image left and right or up and down (Fig. 2b)

② Translate 기법: 원영상을 다양한 방향으로 약간씩 옮겨줌(도 2c)② Translate technique: The original image is slightly moved in various directions (Fig. 2c)

③ Rotate 기법: 원영상을 다양한 각도로 회전(도 2d)③ Rotate technique: Rotate the original image at various angles (Fig. 2d)

④ Color modification 기법: 원영상의 컬러를 변경(도 2e)④ Color modification technique: Change the color of the original image (Fig. 2e)

이에 영상 데이터 증강모듈(11)은 취득된 시설물의 영상 데이터(손상 영상 데이터와 비손상 영상 데이터)의 개수를 증강시키게 되는데, 이러한 증강 과정은 최종적으로 컴퓨터로 수행하기 위해 프로그램 언어를 통해 알고리즘으로 코딩한 프로그램이고, 다시 말해 이러한 프로그램은 손상도 생성장치(10) 또는 저장 장치(20)에 저장되어 영상 데이터 증강모듈(11)이 손상도 생성장치(10) 또는 저장 장치(20)에 입력저장된 상기 시설물의 영상 데이터와 상기 프로그램을 이용하여 시설물 영상 데이터의 개수를 증강시키게 되는 것이다.Accordingly, the image data augmentation module 11 augments the number of acquired image data (damaged image data and non-damaged image data) of the facility. This augmentation process is coded with an algorithm through a programming language to finally be performed by a computer. In other words, such a program is stored in the damage level generating device 10 or the storage device 20, and the image data augmentation module 11 is input and stored in the damage level generating device 10 or the storage device 20. By using the image data of the facility and the program, the number of image data of the facility is increased.

한편, 상기 증강된 손상 영상 데이터의 손상영역을 라벨링하는데(도 3 참조) 같은 클래스의 픽셀 값들을 그룹화하는 라벨링(Labeling) 작업 후, xml형태로 파일을 변환하는 과정을 거쳐 데이터셋을 구축한다. 즉, 클래스와 픽셀별 손상유무를 지정한 후 그룹화된 라벨링 영상파일을 추출하는데 이러한 라벨링 작업은 정확해야 하므로 본 발명에서는 수동작업으로 함이 바람직하다. 여기서 클래스는 재질(콘크리트, 황토, 유리 등)과 손상(균열, 철근노출, 박리, 박락, 누수, 백태 등) 유무의 정보를 담은 카테고리를 말한다.On the other hand, to label the damaged area of the augmented damaged image data (see FIG. 3 ), after a labeling operation of grouping pixel values of the same class, a data set is constructed through a process of converting a file into an xml format. That is, after specifying the class and the presence or absence of damage for each pixel, a grouped labeling image file is extracted. Since this labeling operation must be accurate, it is preferable to do it manually in the present invention. Here, the class refers to a category that contains information on the material (concrete, loess, glass, etc.) and damage (crack, rebar exposure, peeling, peeling, leaking, whitening, etc.).

이렇게 손상영역 라벨링된 손상 영상 데이터는 후술하는 지도학습 단계에서 입력데이터로 활용된다.In this way, the damaged area labeled damage image data is used as input data in the supervised learning step to be described later.

다음으로 딥러닝 기반의 플랫폼을 이용하여 지도학습(Supervised learning)을 통해 여러 타입의 손상이 검출된 다수의 샘플 영상(즉, 입력데이터로 라벨링된 손상 영상 데이터와 비손상 영상 데이터)을 학습함으로써 찾고자 하는 손상에 대한 다음의 4가지 특징값(지도학습을 위한 주요 파라미터)이 입력데이터(즉, 훈련데이터)의 다양한 손상을 검출해 낼 수 있는 충분한 데이터로 학습과정에서 활용할 수 있도록 한다(S20).Next, using a deep learning-based platform, we want to find by learning a number of sample images (that is, damaged image data and uninjured image data labeled as input data) in which various types of damage are detected through supervised learning. The following four characteristic values (main parameters for supervised learning) for the damage done are sufficient data to detect various damage in the input data (ie, training data) so that they can be utilized in the learning process (S20).

① 특징점 크기 및 색상(feature size/color): 손상 검출을 수행할 최소 영상 크기와 이진화할 색상 타입① Feature size/color: Minimum image size to perform damage detection and color type to be binarized

② 학습횟수(count epochs): 지도학습 훈련 횟수② Number of learning (count epochs): Number of supervised learning training

③ 명도와 대비(luminance/contrast): 각각의 영상의 명도와 대비 변화값③ Luminance/contrast: Changes in brightness and contrast of each image

④ 경계값(threshold): 손상이 없는 영상과 손상이 존재하는 영상을 구분하기 위한 경계값으로 1에 가까울수록 불량 확률이 높은 것으로 판단④ Threshold: A threshold value for distinguishing images without damage and images with damage. The closer to 1, the higher the probability of failure.

본 발명에서는 딥러닝 기술인 CNN(Convolutional Neural Network, 합성곱신경망)의 일종인 VGGNet를 학습하여 사용함으로써 상기 지도학습을 수행하고 최종적으로 손상도(損傷圖) 생성을 수행함이 바람직하다. 상기 CNN은 시각적 영상을 분석하는 데 사용되는 다층의 피드-포워드적인 인공신경망의 한 종류로, 딥러닝에서 심층 신경망으로 분류되며, 또한 공유 가중치 구조와 변환 불변성 특성에 기초하여 변이 불변 또는 공간 불변 인공 신경망 (SIANN)으로도 알려져 있고, 영상 및 동영상 인식, 추천 시스템, 영상 분류, 의료 영상 분석 및 자연어 처리 등에 응용된다.In the present invention, it is preferable to perform the supervised learning by learning and using VGGNet, which is a kind of convolutional neural network (CNN), which is a deep learning technology, and finally to perform damage level generation. The CNN is a type of multi-layer feed-forward artificial neural network used to analyze visual images, and is classified as a deep neural network in deep learning. Also known as a neural network (SIANN), it has applications in image and video recognition, recommendation systems, image classification, medical image analysis, and natural language processing.

이렇게 지도학습이 완료된 CNN은 본 발명에서 손상 영상 분류기로 작동할 수 있고, 상기 손상 영상 분류기에 의해 손상도(損傷圖)를 얻고자 하는 테스트영상 데이터 또는 임의의 영상 데이터를 입력데이터로 하여 다양한 타입의 손상이 있는 경우 자동으로 손상 영상으로 분류하게 된다(S30, 도 4 참조).In this way, the supervised learning CNN can operate as a damaged image classifier in the present invention, and various types using test image data or arbitrary image data to obtain a degree of damage by the damaged image classifier as input data If there is damage, it is automatically classified as a damaged image (S30, see FIG. 4).

이에 지도학습모듈(12)은 클래스와 픽셀별 손상유무를 지정하는 라벨링을 거친 상기 손상 영상 데이터와 비손상 영상 데이터를 훈련데이터로 하여 CNN(Convolutional Neural Network, 합성곱신경망)을 학습시키게 되고 이렇게 지도학습이 완료된 CNN은 손상 영상 분류기로 역할을 할 수 있는데, 이러한 학습 과정과 임의의 영상 데이터의 손상 영상 분류는 최종적으로 컴퓨터로 수행하기 위해 프로그램 언어를 통해 알고리즘으로 코딩한 프로그램이고, 다시 말해 이러한 프로그램은 상기 CNN을 포함하면서 손상도 생성장치(10) 또는 저장 장치(20)에 저장되어 지도학습모듈(12)과 손상 영상 분류기는 손상도 생성장치(10) 또는 저장 장치(20)에 입력저장된 상기 훈련데이터와 임의의 영상 데이터 및 상기 프로그램을 이용하여 지도학습과 손상 영상 분류가 이루어지게 되는 것이다.Accordingly, the supervised learning module 12 learns a CNN (Convolutional Neural Network) by using the damaged image data and the undamaged image data that have undergone labeling to designate the presence or absence of damage for each class and pixel as training data. A CNN that has been trained can act as a damaged image classifier, and this learning process and damaged image classification of arbitrary image data is a program coded with an algorithm through a programming language to finally be performed by a computer, that is, such a program is stored in the damage level generating device 10 or storage device 20, including the CNN, so that the supervised learning module 12 and the damage image classifier are input and stored in the damage level generating device 10 or the storage device 20 Supervised learning and damage image classification are made using training data, arbitrary image data, and the program.

그 다음으로, 후술할 영상 손상영역 검출 단계 전에 영상 손상영역 검출 단계에서 사용하기 적절한 형태로 상기 손상 영상 분류기를 통한 출력데이터인 손상 영상으로 분류된 데이터를 전처리한다(S40).Next, before the image damaged area detection step to be described later, the data classified as the damaged image, which is output data through the damaged image classifier, is preprocessed in a form suitable for use in the image damaged area detection step (S40).

이러한 영상 데이터 전처리 작업은 다음과 같이 3가지 단계가 순차적으로 이루어진다.The image data pre-processing is performed sequentially in three steps as follows.

1단계는, 영상에 평균필터(mean filter)를 사용하여 영상 내 인접영역과의 픽셀명도를 평균처리(현재 픽셀과 이웃 픽셀 사이의 큰 밝기분포가 있다는 노이즈 특성을 이용하여 평균을 취하는 방법)하는 것으로, 노이즈(가우시안 노이즈, 균일 노이즈)를 감소시키지만, 단점으로는 손상영역인 엣지도 노이즈로 취급되어 영상이 흐릿해진다.Step 1 is to average the pixel brightness with an adjacent area in the image using a mean filter on the image (a method of taking the average using the noise characteristic that there is a large brightness distribution between the current pixel and neighboring pixels) As a result, it reduces noise (Gaussian noise, uniform noise), but the disadvantage is that the edge, which is the damaged area, is also treated as noise and the image becomes blurry.

2단계는, 영상에 미디언 필터(median filter)를 사용하여 평균필터로 저하된 영상의 선명도를 보상하고 노이즈를 감소시키는 것으로, 미디언 필터는 손상영역인 엣지는 그대로 두고 노이즈만 제거하는 특성을 보인다. 평균적으로 연산 시간이 평균필터의 연산시간보다 5배 이상이 소요된다.Step 2 is to use a median filter on the image to compensate for the image sharpness that has been degraded by the average filter and to reduce noise. see. On average, the calculation time is 5 times longer than the calculation time of the average filter.

3단계는, 영상 이진화(binarization)로 오츄(Otsu) 알고리즘으로 구현할 수 있는데, 영상 노이즈를 제거하고 최종적으로는 영상 처리에 있어서 제일 중요한 연산속도를 빠르게 하기 위함이다(도 5 참조).Step 3 is image binarization, which can be implemented with the Otsu algorithm, in order to remove image noise and ultimately speed up the operation, which is the most important in image processing (see FIG. 5 ).

이에 손상영상 데이터 전처리모듈(13)은 효율적인 손상영역 검출을 위해 상기 손상 영상 분류기를 통한 출력데이터인 손상 영상으로 분류된 데이터를 전처리하게 되는데, 이러한 전처리 작업은 최종적으로 컴퓨터로 수행하기 위해 프로그램 언어를 통해 알고리즘으로 코딩한 프로그램이고, 다시 말해 이러한 프로그램은 손상도 생성장치(10) 또는 저장 장치(20)에 저장되어 손상영상 데이터 전처리모듈(13)이 손상도 생성장치(10) 또는 저장 장치(20)에 입력저장된 상기 손상 영상으로 분류된 데이터와 상기 프로그램을 이용하여 전처리가 이루어지게 되는 것이다.Accordingly, the damaged image data pre-processing module 13 pre-processes the data classified as the damaged image, which is the output data through the damaged image classifier, for efficient detection of the damaged area. It is a program coded with an algorithm through ), the pre-processing is performed using the data classified as the damaged image and stored in the program.

그 다음으로, 상기 전처리작업이 완료된 손상 영상에 대해서 손상도(損傷圖)의 정확도를 높이고 손상과 유사한 형상 패턴을 추출하기 위한 작업인 영상 손상영역 검출을 수행한다(S50, 도 6 참조). 여기서 손상은 상술한 바와 같이 균열, 철근노출, 박리, 박락, 누수, 백태 등이다.Next, for the damaged image on which the pre-processing operation has been completed, the image damaged area detection is performed, which is an operation for increasing the accuracy of the damage degree and extracting a shape pattern similar to the damage (S50, see FIG. 6). Here, the damage is, as described above, cracks, rebar exposure, peeling, peeling, water leakage, whitening, and the like.

상기 영상 손상영역 검출은 다음의 3가지 과정으로 순차적으로 진행된다.The detection of the image damaged area is sequentially performed in the following three processes.

① 분리(segmentation) 기법 : 손상 검출을 위해 손상 유사형상을 1차적으로 상기 전처리가 완료된 손상 영상에서 탐지한다.① Segmentation technique: In order to detect damage, a damage-like shape is primarily detected from the damage image that has been pre-processed.

이러한 분리 기법의 목적은 영상에서 손상이 확실히 아닌 불필요한 데이터들을 구분함으로서 분석 효율을 증가시키는 것인데, 본 발명에서는 그 일실시예로 모폴로지 기법을 활용하여 시설물의 비선형적인 손상을 탐지하는 데 효과적으로 적용할 수 있게 한다.The purpose of this separation technique is to increase the analysis efficiency by classifying unnecessary data that is not clearly damaged in the image. let there be

상기 모폴로지 기법은 다양한 방향성을 갖는 손상을 검출하도록 하는데, 다음의 수학식 1을 적용할 수 있다.The morphology technique detects damage having various directions, and the following Equation 1 can be applied.

Figure 112021085391542-pat00006
Figure 112021085391542-pat00006

(여기서, T는 출력 영상, I는 입력 영상(전처리된 손상영상), S는 연산에 포함된 주위픽셀에 대한 선형 구성요소(0도,45도,90도,135도 방향))(Where T is the output image, I is the input image (preprocessed damage image), and S is the linear component of the surrounding pixels included in the operation (0 degree, 45 degree, 90 degree, 135 degree direction))

상기 수학식 1과 같은 비선형 필터를 이용하면, 손상을 윤곽선으로 인식하여 처리하는 제한적인 윤곽선 추출 기법과는 달리 촬영 대상인 시설물 내 손상 전체를 직접적으로 추출할 수 있다.By using the nonlinear filter as in Equation 1, the entire damage in the facility to be photographed can be directly extracted, unlike the limited contour extraction technique that recognizes and processes damage as an outline.

② 특징점 추출(feature extraction)기법: 상기 분리기법에서 탐지된 형상 중 손상으로 인식될 수 있는 중요 특징점들을 추출한다.② Feature extraction technique: important feature points that can be recognized as damage among the shapes detected by the separation technique are extracted.

상기 분리기법에서 손상형상을 분리한 후, 분리된 형상으로부터 아래의 특징값으로 정의된 특징점을 추출하며, 아래의 4가지 특징은 특정 형상을 인식할 수 있는 형상별 중요 특성들이 포함되어 있고 손상을 검출하는 목적에 부합하는 손상 형상 패턴의 차별적인 4가지 특징들을 도출하기 위해 다수의 특징에 대한 분석을 진행하게 된다.After separating the damaged shape in the above separation technique, the feature points defined by the following feature values are extracted from the separated shape. In order to derive four distinctive features of the damage shape pattern that meet the purpose of detection, analysis of a number of features is carried out.

본 발명에서는 손상 분석에 적합한 4개의 특징을 선택한 후, 최종적으로 95%의 유의수준으로 Fisher의 선형 판별식(Fisher’s linear discriminant)을 적용하여 손상을 추출하기 위한 다음 특징값들(4가지 특징의 값들)의 추출방법을 적용한다. 즉, 4개의 특징값을 산출하여 Fisher의 선형 판별식에 입력값으로 입력하면 특징점이 추출된다.In the present invention, after selecting four features suitable for damage analysis, the following feature values (values of the four features) for extracting damage by finally applying Fisher's linear discriminant at a significance level of 95% ) is applied. That is, when four feature values are calculated and input as input values to Fisher's linear discriminant, the feature points are extracted.

ⅰ) 이심률(eccentricity): 분리된 영역과 동일한 2차 모멘트를 갖는 타원의 이심률i) eccentricity: the eccentricity of an ellipse with the same second moment as the separated region

ⅱ) 상기 ⅰ의 타원 면적으로 나눈 분리된 영역의 면적ii) the area of the separated region divided by the area of the ellipse in i)

ⅲ) 고형비(solidity ratio): 볼록 껍질(convex hull) 면적 대비 Contour면적의 비율(수학식 2)iii) solidity ratio: ratio of the area of the contour to the area of the convex hull (Equation 2)

Figure 112021085391542-pat00007
Figure 112021085391542-pat00007

ⅳ) 수직-수평 픽셀 좌표간 상관계수의 절대값(수학식 3)iv) Absolute value of correlation coefficient between vertical-horizontal pixel coordinates (Equation 3)

Figure 112021085391542-pat00008
Figure 112021085391542-pat00008

(여기서, x와 y는 영상의 손상영역에 속하는 요소의 픽셀값,

Figure 112021085391542-pat00009
Figure 112021085391542-pat00010
는 손상영역에 속하는 모든 요소의 평균값)(where x and y are pixel values of elements belonging to the damaged area of the image,
Figure 112021085391542-pat00009
Wow
Figure 112021085391542-pat00010
is the average value of all elements belonging to the damaged area)

③ 손상 판정(decision making)기법: 손상을 분류하기 위한 분류기(classifier)의 학습 및 평가를 위해, 상기 추출된 특징점에서 n1개의 비손상에 대한 특징 벡터와 n2개의 손상에 대한 특징 벡터로 구성된 특징 집합을 구성한다. 이 과정에서 비손상 특징 벡터는 상기 전처리된 손상영상 내에서 분리된다.③ Decision making technique: For learning and evaluation of a classifier for classifying damage, a feature set consisting of n1 non-damaged feature vectors and n2 damaged feature vectors from the extracted feature points. make up In this process, the intact feature vector is separated from the preprocessed damaged image.

구성된 특징 집합에서 약 60%의 특징 벡터 집합을 상기 손상 분류기의 학습에 사용하고, 나머지 특징 벡터들은 손상 분류 성능 평가 실험에 사용할 수 있다.About 60% of the feature vector set from the configured feature set is used for learning the damage classifier, and the remaining feature vectors can be used for the damage classification performance evaluation experiment.

상기 손상 분류기는 3차 다항식 커널을 사용한 서포트 벡터 머신(SVM, support vector machine)을 사용함이 바람직하고, 학습 및 평가를 위한 특징점 데이터가 불충분한 경우, 확보되어 있는 실제 손상을 수동으로 분리하고 이를 이용하여 임의로 다시 손상을 생성시켜 이를 학습시키는 알고리즘을 개발하여 적용 가능하다.Preferably, the damage classifier uses a support vector machine (SVM) using a cubic polynomial kernel, and when the feature point data for learning and evaluation is insufficient, manually separate the secured actual damage and use it Therefore, it is possible to develop and apply an algorithm to learn damage by randomly regenerating it.

즉, 상기 손상 분류기인 SVM을 이용해서 상기 특징점들을 대상으로 손상영역의 정확한 검출(비손상에 대한 특징 벡터와 손상에 대한 특징 벡터로 판정)이 가능하고, 상기 손상에 대한 특징 벡터는 후술할 손상도(損傷圖)에 활용된다.That is, by using the damage classifier, SVM, it is possible to accurately detect a damaged area (determining a feature vector for non-damage and a feature vector for damage) based on the feature points, and the feature vector for damage is a damage to be described later. It is used for Tao (損傷圖).

이에 손상영역 검출모듈(14)은 상기 전처리작업이 완료된 손상 영상에 대해서 손상도(損傷圖)의 정확도를 높이고 손상 형상 패턴을 추출하기 위한 영상 손상영역 검출을 수행하게 되는데, 이러한 손상영역 검출은 최종적으로 컴퓨터로 수행하기 위해 프로그램 언어를 통해 알고리즘으로 코딩한 프로그램이고, 다시 말해 이러한 프로그램은 상기 수학식 1 내지 수학식 3을 포함하면서 손상도 생성장치(10) 또는 저장 장치(20)에 저장되어 손상영역 검출모듈(14)이 손상도 생성장치(10) 또는 저장 장치(20)에 입력저장된 상기 프로그램을 이용하여 손상영역을 검출하게 되는 것이다.Accordingly, the damaged area detection module 14 performs image damage area detection to increase the accuracy of the damage degree and extract a damage shape pattern for the damaged image on which the pre-processing operation has been completed. It is a program coded with an algorithm through a program language to be performed by a computer as The area detection module 14 detects the damaged area using the program input and stored in the damage level generating device 10 or the storage device 20 .

마지막으로, 손상도(損傷圖) 생성 단계로 상기 손상영역 검출 과정을 거쳐 최종적으로 영상의 손상도(외관조사망도)를 자동으로 생성하기 위하여 다양한 크기의 짧은 선분을 반복 사용해서 손상도를 생성시킨다(S60).Lastly, in the damage level generation step, the damage area detection process is followed to generate the damage level by repeatedly using short line segments of various sizes to automatically generate the damage level (appearance survey network) of the image. make it (S60).

이러한 과정을 통하여 생성된 손상도(외관조사망도)에는 선형 손상인 균열이나 면적형 손상인 백태 등의 특징에 따라 위치에 맞게 다양한 크기의 짧은 선분이 사용된다.Short line segments of various sizes are used according to the location according to the characteristics such as cracks, which are linear damages, or white spots, which are area-type damages, in the damage diagram (exterior survey network diagram) generated through this process.

다음의 수학식 4는 손상도(외관조사망도) 생성식이다.Equation 4 below is an equation for generating damage (appearance survey network).

Figure 112021085391542-pat00011
Figure 112021085391542-pat00011

(여기서, Jm은 스케일 m의 선분에 대한 손상도, Smin은 선분의 최소크기, Ck는 손상에 대한 특징 벡터인 k를 선분으로 사용하여 생성된 손상영상, u와 v는 손상도 영상의 픽셀좌표, [] 는 올림함수)(where J m is the damage degree for the line segment of scale m, S min is the minimum size of the line segment, C k is the damage image generated using k, a feature vector for damage, as the line segment, and u and v are the damage degree images. pixel coordinates, [] is a rounding function)

즉, 각각의 픽셀좌표에 대한 손상도(수학식 4)가 모여 도 7과 같은 손상도가 생성되는데 도 7의 손상도는 상기 수학식 4의 짧은 선분들이 조합되어 이루어진 것이다.That is, the degree of damage (Equation 4) for each pixel coordinate is gathered to generate a degree of damage as shown in FIG. 7, and the degree of damage shown in FIG. 7 is formed by combining the short line segments of the above formula (4).

이에 손상도 생성모듈(15)은 상기 손상에 대한 특징 벡터를 이용하여 영상의 손상도(외관조사망도)를 자동으로 생성하기 위하여 다양한 크기의 짧은 선분을 반복 사용해서 손상도를 생성시키게 되는데, 이러한 손상도 생성은 최종적으로 컴퓨터로 수행하기 위해 프로그램 언어를 통해 알고리즘으로 코딩한 프로그램이고, 다시 말해 이러한 프로그램은 상기 수학식 4를 포함하면서 손상도 생성장치(10) 또는 저장 장치(20)에 저장되어 손상도 생성모듈(15)이 손상도 생성장치(10) 또는 저장 장치(20)에 입력저장된 상기 손상에 대한 특징 벡터와 상기 프로그램을 이용하여 손상도를 생성하게 되는 것이다.Accordingly, the damage level generating module 15 generates a degree of damage by repeatedly using short line segments of various sizes to automatically generate a degree of damage (appearance survey network) of an image using the feature vector for the damage. Such damage level generation is a program coded with an algorithm through a program language to be finally performed by a computer, that is, such a program is stored in the damage level generating device 10 or the storage device 20 while including the above Equation 4 Thus, the damage level generating module 15 generates a degree of damage by using the feature vector for the damage input and stored in the damage level generating device 10 or the storage device 20 and the program.

10: 손상영상 분류를 활용한 손상도 생성장치
11: 영상 데이터 증강모듈
12: 지도학습모듈
13: 손상영상 데이터 전처리모듈
14: 손상영역 검출모듈
15: 손상도 생성모듈
20: 저장 장치
10: Damage level generating device using damage image classification
11: Image data augmentation module
12: Supervised Learning Module
13: Damaged image data pre-processing module
14: damage area detection module
15: damage generation module
20: storage device

Claims (7)

(a) 영상 데이터 증강모듈(11)이 취득된 시설물의 영상 데이터(손상 영상 데이터와 비손상 영상 데이터)의 개수를 증강시키는 단계(S10)와;
(b) 지도학습모듈(12)이 클래스와 픽셀별 손상유무를 지정하는 라벨링을 거친 상기 손상 영상 데이터와 비손상 영상 데이터를 훈련데이터로 하여 CNN(Convolutional Neural Network)을 학습시키는 단계(S20)와;
(c) 지도학습이 완료된 CNN인 손상 영상 분류기가 손상도(損傷圖)를 얻고자 하는 테스트영상 데이터 또는 임의의 영상 데이터를 입력데이터로 하여 자동으로 손상 영상을 분류하는 단계(S30)와;
(d) 손상영상 데이터 전처리모듈(13)이 효율적인 손상영역 검출을 위해 상기 손상 영상 분류기를 통한 출력데이터인 손상 영상으로 분류된 데이터를 전처리하는 단계(S40)와;
(e) 손상영역 검출모듈(14)이 상기 전처리작업이 완료된 손상 영상에 대해서 손상도(損傷圖)의 정확도를 높이고 손상 형상 패턴을 추출하기 위해 영상 손상영역을 검출하는 단계(S50), 및
(f) 손상도 생성모듈(15)이 손상에 대한 특징 벡터와 짧은 선분을 반복 사용하여 손상도를 자동으로 생성시키는 단계(S60)로 이루어지되,
상기 단계(f)에서 손상도 생성은 다음의 수학식,
Figure 112021119020741-pat00029

(여기서, Jm은 스케일 m의 선분에 대한 손상도, Smin은 선분의 최소크기, Ck는 손상에 대한 특징 벡터인 k를 선분으로 사용하여 생성된 손상영상, u와 v는 손상도 영상의 픽셀좌표, [] 는 올림함수)을 이용하여, 상기 손상영역 검출에서의 손상에 대한 특징 벡터를 활용하고 상기 수학식에 의한 각각의 픽셀좌표에 대한 짧은 선분인 손상도의 조합으로 이루어지는 것을 특징으로 하는, 딥러닝 기반의 시설물 손상영상 분류를 활용한 손상도 생성방법.
(a) augmenting the number of image data (damaged image data and non-damaged image data) of the acquired facility by the image data augmentation module 11 (S10);
(b) the supervised learning module 12 learning the CNN (Convolutional Neural Network) by using the damaged image data and the undamaged image data that have undergone labeling to designate the presence or absence of damage for each class and pixel as training data (S20) and ;
(c) automatically classifying the damaged image using the test image data or arbitrary image data for which the supervised learning is completed CNN damage classifier to obtain the degree of damage as input data (S30);
(d) pre-processing, by the damaged image data pre-processing module 13, the data classified as the damaged image, which is the output data through the damaged image classifier, in order to efficiently detect the damaged area (S40);
(e) detecting, by the damaged area detection module 14, the image damaged area in order to increase the accuracy of the degree of damage and extract the damage shape pattern for the damaged image on which the pre-processing operation has been completed (S50), and
(f) the damage level generating module 15 automatically generates a degree of damage by repeatedly using the feature vector and short line segment for damage (S60),
In the step (f), the generation of damage is the following equation,
Figure 112021119020741-pat00029

(where J m is the damage degree for the line segment of scale m, S min is the minimum size of the line segment, C k is the damage image generated using k, a feature vector for damage, as the line segment, and u and v are the damage degree images. It is characterized in that by using the pixel coordinates of , [] is a rounding function), the feature vector for damage in the detection of the damage area is used, and the damage degree is a combination of short line segments for each pixel coordinate according to the above equation. A damage level generation method using deep learning-based facility damage image classification.
제 1 항에 있어서,
상기 단계(a)에서 증강은 Flip 기법, Translate 기법, Rotate 기법 및 Color modification 기법을 사용하는 것을 특징으로 하는, 딥러닝 기반의 시설물 손상영상 분류를 활용한 손상도 생성방법.
The method of claim 1,
In step (a), the augmentation is a damage generation method using deep learning-based facility damage image classification, characterized in that it uses a flip technique, a translate technique, a rotate technique, and a color modification technique.
제 1 항에 있어서,
상기 단계(b)의 학습과정에서 찾고자 하는 손상에 대해,
손상 검출을 수행할 최소 영상 크기와 이진화할 색상 타입, 지도학습 훈련 횟수, 각각의 영상의 명도와 대비 변화값 및 손상이 없는 영상과 손상이 존재하는 영상을 구분하기 위한 경계값을 파라미터로 활용하는 것을 특징으로 하는, 딥러닝 기반의 시설물 손상영상 분류를 활용한 손상도 생성방법.
The method of claim 1,
For the damage to be found in the learning process of step (b),
The minimum image size for damage detection, the color type to be binarized, the number of supervised learning training, the brightness and contrast change values of each image, and the boundary value for distinguishing an image without damage and an image with damage as parameters. Damage level generation method using deep learning-based facility damage image classification, characterized in that.
제 1 항에 있어서,
상기 단계(d)에서 전처리 과정은,
영상에 평균필터(mean filter)를 사용하여 영상 내 인접영역과의 픽셀명도를 평균처리하는 단계와, 영상에 미디언 필터(median filter)를 사용하여 평균필터로 저하된 영상의 선명도를 보상하고 노이즈를 감소시키는 단계, 및 영상 노이즈를 제거하고 영상 처리에 있어서 연산속도를 빠르게하는 영상 이진화(binarization) 단계가 순차적으로 이루어지는 것을 특징으로 하는, 딥러닝 기반의 시설물 손상영상 분류를 활용한 손상도 생성방법.
The method of claim 1,
The pretreatment process in step (d) is,
A step of averaging the pixel brightness with an adjacent region in the image using a mean filter on the image A method for generating damage using deep learning-based facility damage image classification, characterized in that the step of reducing the image noise and image binarization step of removing image noise and speeding up the operation speed in image processing are sequentially performed .
제 1 항에 있어서,
상기 단계(e)에서 손상영역 검출은,
손상이 아닌 불필요한 데이터를 구분하여 시설물의 비선형적이면서 다양한 방향성을 갖는 손상을 탐지하는 분리(segmentation) 단계와,
분리된 형상으로부터 손상을 추출하기 위해 형상별 중요 특성이 포함되어 있는 특징값들을 산출하고 Fisher의 선형 판별식(Fisher’s linear discriminant)을 통해 특징점을 추출하는 단계, 및
서포트 벡터 머신(SVM, support vector machine)을 이용하여 상기 특징점들을 대상으로 비손상에 대한 특징 벡터와 손상에 대한 특징 벡터로 판정하는 단계가 순차적으로 이루어지는 것을 특징으로 하는, 딥러닝 기반의 시설물 손상영상 분류를 활용한 손상도 생성방법.
The method of claim 1,
The detection of the damaged area in step (e) is,
A segmentation step to classify unnecessary data rather than damage to detect non-linear and diverse damage to the facility;
In order to extract damage from the separated shape, calculating feature values including important features for each shape and extracting the feature points through Fisher's linear discriminant, and
A deep learning-based facility damage image, characterized in that the step of determining the feature points as a feature vector for non-damage and a feature vector for damage by using a support vector machine (SVM) is sequentially performed Damage generation method using classification.
제 5 항에 있어서,
상기 분리(segmentation)는 다음의 수학식,
Figure 112021085391542-pat00012

(여기서, T는 출력 영상, I는 입력 영상(전처리된 손상영상), S는 연산에 포함된 주위픽셀에 대한 선형 구성요소(0도,45도,90도,135도 방향))을 이용하고,
상기 특징값들은 이심률(분리된 영역과 동일한 2차 모멘트를 갖는 타원의 이심률), 상기 타원 면적으로 나눈 분리된 영역의 면적, 고형비(볼록 껍질(convex hull) 면적 대비 Contour면적의 비율) 및 수직-수평 픽셀 좌표간 상관계수의 절대값(
Figure 112021085391542-pat00013
(여기서, x와 y는 영상의 손상영역에 속하는 요소의 픽셀값,
Figure 112021085391542-pat00014
Figure 112021085391542-pat00015
는 손상영역에 속하는 모든 요소의 평균값))인 것을 특징으로 하는, 딥러닝 기반의 시설물 손상영상 분류를 활용한 손상도 생성방법.
6. The method of claim 5,
The segmentation is the following equation,
Figure 112021085391542-pat00012

(where T is the output image, I is the input image (preprocessed damage image), and S is the linear component (0 degree, 45 degree, 90 degree, 135 degree direction) of the surrounding pixels included in the calculation) ,
The characteristic values are the eccentricity (the eccentricity of an ellipse having the same second moment as the isolated region), the area of the isolated region divided by the ellipse area, the solid ratio (the ratio of the contour area to the convex hull area), and the perpendicular -Absolute value of correlation coefficient between horizontal pixel coordinates (
Figure 112021085391542-pat00013
(where x and y are pixel values of elements belonging to the damaged area of the image,
Figure 112021085391542-pat00014
Wow
Figure 112021085391542-pat00015
is the average value of all elements belonging to the damaged area)), a method of generating damage using deep learning-based facility damage image classification.
삭제delete
KR1020210097087A 2021-07-23 2021-07-23 Method for creating damage figure using the deep learning-based damage image classification of facility KR102346676B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210097087A KR102346676B1 (en) 2021-07-23 2021-07-23 Method for creating damage figure using the deep learning-based damage image classification of facility

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210097087A KR102346676B1 (en) 2021-07-23 2021-07-23 Method for creating damage figure using the deep learning-based damage image classification of facility

Publications (1)

Publication Number Publication Date
KR102346676B1 true KR102346676B1 (en) 2022-01-03

Family

ID=79348392

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210097087A KR102346676B1 (en) 2021-07-23 2021-07-23 Method for creating damage figure using the deep learning-based damage image classification of facility

Country Status (1)

Country Link
KR (1) KR102346676B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102488789B1 (en) * 2022-01-18 2023-01-17 (주)플레이오니 Prediction and classification method, apparatus and program using one class anomaly detection model based on artificial intelligence
KR102494829B1 (en) * 2022-05-11 2023-02-06 경북대학교 산학협력단 Structure damage evaluation method for using the convolutional neural network, and computing apparatus for performing the method
CN116306231A (en) * 2023-02-06 2023-06-23 大连理工大学 Adhesive joint structure debonding damage identification method and device based on ultrasonic guided wave deep learning
KR102555009B1 (en) * 2022-06-27 2023-07-12 (재) 한국건설품질연구원 Damage detection method based on automatic image acquisition control
KR20230133606A (en) * 2022-03-11 2023-09-19 주식회사 워터인포랩스 AI-based structure damage determination training data expansion service system and method for providing structure damage determination service

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048370A (en) * 2004-08-04 2006-02-16 Kagawa Univ Method for recognizing pattern, method for generating teaching data to be used for the method and pattern recognition apparatus
KR102095751B1 (en) 2019-05-23 2020-04-01 세종대학교산학협력단 System and method for detecting damage in structures
KR20200086812A (en) * 2019-01-10 2020-07-20 (주)펨트론 System for inspecting substrate defects by bubbles and Method for inspecting substrate defects by bubbles

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048370A (en) * 2004-08-04 2006-02-16 Kagawa Univ Method for recognizing pattern, method for generating teaching data to be used for the method and pattern recognition apparatus
KR20200086812A (en) * 2019-01-10 2020-07-20 (주)펨트론 System for inspecting substrate defects by bubbles and Method for inspecting substrate defects by bubbles
KR102095751B1 (en) 2019-05-23 2020-04-01 세종대학교산학협력단 System and method for detecting damage in structures

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102488789B1 (en) * 2022-01-18 2023-01-17 (주)플레이오니 Prediction and classification method, apparatus and program using one class anomaly detection model based on artificial intelligence
KR20230133606A (en) * 2022-03-11 2023-09-19 주식회사 워터인포랩스 AI-based structure damage determination training data expansion service system and method for providing structure damage determination service
KR102619578B1 (en) * 2022-03-11 2023-12-29 주식회사 워터인포랩스 AI-based structure damage determination training data expansion service system and method for providing structure damage determination service
KR102494829B1 (en) * 2022-05-11 2023-02-06 경북대학교 산학협력단 Structure damage evaluation method for using the convolutional neural network, and computing apparatus for performing the method
KR102555009B1 (en) * 2022-06-27 2023-07-12 (재) 한국건설품질연구원 Damage detection method based on automatic image acquisition control
CN116306231A (en) * 2023-02-06 2023-06-23 大连理工大学 Adhesive joint structure debonding damage identification method and device based on ultrasonic guided wave deep learning
CN116306231B (en) * 2023-02-06 2024-01-23 大连理工大学 Adhesive joint structure debonding damage identification method and device based on ultrasonic guided wave deep learning

Similar Documents

Publication Publication Date Title
KR102346676B1 (en) Method for creating damage figure using the deep learning-based damage image classification of facility
US20210319561A1 (en) Image segmentation method and system for pavement disease based on deep learning
Yang et al. Deep concrete inspection using unmanned aerial vehicle towards cssc database
CN107742093B (en) Real-time detection method, server and system for infrared image power equipment components
CN110399816B (en) High-speed train bottom foreign matter detection method based on Faster R-CNN
US9767371B2 (en) Systems and methods for identifying traffic control devices and testing the retroreflectivity of the same
KR102166458B1 (en) Defect inspection method and apparatus using image segmentation based on artificial neural network
CN111784685A (en) Power transmission line defect image identification method based on cloud edge cooperative detection
KR102239377B1 (en) System and method for safety inspection on bridge facilities based on image and xai
JP2018113038A (en) Inspection device, and method of detecting firearm in luggage
CN112560675B (en) Bird visual target detection method combining YOLO and rotation-fusion strategy
CN111178206A (en) Building embedded part detection method and system based on improved YOLO
CN112686833A (en) Industrial product surface defect detecting and classifying device based on convolutional neural network
CN115409069A (en) Village and town building identification method, classification method, device, electronic equipment and medium
Yang et al. Deep neural network based visual inspection with 3d metric measurement of concrete defects using wall-climbing robot
CN113674216A (en) Subway tunnel disease detection method based on deep learning
CN113255590A (en) Defect detection model training method, defect detection method, device and system
CN116229292A (en) Inspection system and method based on unmanned aerial vehicle road surface inspection disease
Alidoost et al. Y-shaped convolutional neural network for 3d roof elements extraction to reconstruct building models from a single aerial image
CN117152094A (en) Method, device and system for analyzing surface defects of steel plate based on computer vision
CN115115954A (en) Intelligent identification method for pine nematode disease area color-changing standing trees based on unmanned aerial vehicle remote sensing
Samadzadegan et al. Automatic Road Crack Recognition Based on Deep Learning Networks from UAV Imagery
CN113359738A (en) Mobile robot path planning method based on deep learning
CN113092495A (en) Intelligent inspection system and method for subway tunnel defects with cooperation of train and ground
CN114419080B (en) Curtain wall inspection system and method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant