KR102555009B1 - Damage detection method based on automatic image acquisition control - Google Patents

Damage detection method based on automatic image acquisition control Download PDF

Info

Publication number
KR102555009B1
KR102555009B1 KR1020220078156A KR20220078156A KR102555009B1 KR 102555009 B1 KR102555009 B1 KR 102555009B1 KR 1020220078156 A KR1020220078156 A KR 1020220078156A KR 20220078156 A KR20220078156 A KR 20220078156A KR 102555009 B1 KR102555009 B1 KR 102555009B1
Authority
KR
South Korea
Prior art keywords
damage
image
information
detection method
image acquisition
Prior art date
Application number
KR1020220078156A
Other languages
Korean (ko)
Inventor
안영기
전상혁
진남희
이해영
Original Assignee
(재) 한국건설품질연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (재) 한국건설품질연구원 filed Critical (재) 한국건설품질연구원
Priority to KR1020220078156A priority Critical patent/KR102555009B1/en
Application granted granted Critical
Publication of KR102555009B1 publication Critical patent/KR102555009B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8883Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges involving the calculation of gauges, generating models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Chemical & Material Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biochemistry (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

본 발명은 이미지 획득 자동 제어 기반 손상탐지 방법에 관한 것이다.
본 발명에 따른 이미지 획득 자동 제어 기반 손상탐지 방법은 (a) 자동 제어에 기초하여 이미지를 획득하는 단계; (b) 유사손상객체를 이용하여 손상 이미지 데이터를 구축하는 단계; 및 (c) 딥러닝 모델을 이용하여 콘크리트의 균열, 망상균열, 박락, 파손, 철근노출, 재료분리, 백태와, 강재의 부식, 도막박리 중 적어도 어느 하나의 손상을 탐지하는 단계를 포함한다.
The present invention relates to a damage detection method based on automatic image acquisition control.
A damage detection method based on automatic image acquisition control according to the present invention includes the steps of (a) acquiring an image based on automatic control; (b) constructing damaged image data using similarly damaged objects; and (c) detecting damage of at least one of concrete cracks, network cracks, exfoliation, damage, exposure of reinforcing bars, material separation, efflorescence, corrosion of steel materials, and peeling of paint using a deep learning model.

Description

이미지 획득 자동 제어 기반 손상탐지 방법{DAMAGE DETECTION METHOD BASED ON AUTOMATIC IMAGE ACQUISITION CONTROL}Image Acquisition Automatic Control Based Damage Detection Method {DAMAGE DETECTION METHOD BASED ON AUTOMATIC IMAGE ACQUISITION CONTROL}

본 발명은 이미지 획득 자동 제어 기반 손상탐지 방법에 관한 것이다. The present invention relates to a damage detection method based on automatic image acquisition control.

모든 구조물은 자연적, 환경적 요인에 의해 시간의 경과에 따라 열화나 손상이 발생한다. All structures undergo deterioration or damage over time due to natural and environmental factors.

노후화되는 구조물 기능 유지를 위해 일정 주기마다 안전진단을 실시하고 있는데, 가장 기본적인 조사 항목인 외관조사는 대부분 인력에 의한 육안 조사에 의존하고 있어 정확한 수치화가 어렵고, 손상표기 오차가 누적되어 점검결과의 신뢰성이 떨어지는 문제점이 있다. In order to maintain the functions of aging structures, safety inspections are conducted at regular intervals. Most of the most basic inspection items, exterior inspections, depend on visual inspections by manpower, making accurate quantification difficult and reliability of inspection results due to accumulated damage labeling errors. There is a problem with this fall.

외관조사 시 조사된 손상의 종류와 형상을 야장에 기록하고, 사무실에서 조사된 결과를 바탕으로 손상의 종류와 형상을 외관조사망도에 기록하고 손상물량표를 작성하는 일련의 과정은 생산성이 낮은 단순 반복 작업에 해당되어, 비효율적인 문제점이 있다. The series of processes of recording the type and shape of the damage investigated during the exterior inspection in the field field, recording the type and shape of the damage on the exterior survey network map based on the results of the investigation in the office, and preparing a damage inventory table are low in productivity. It corresponds to simple repetitive work, and there is an inefficient problem.

종래 기술에 따르면 머신러닝을 이용한 손상탐지 기술이 제안되었으나, Gray Scale법을 활용하고 있어, 색상 차이가 나는 모든 부분을 균열로 인식하여 오탐지율이 매우 높고, 비손상 부위를 손상으로 인식하는 한계로 인해, 촬영된 영상데이터를 인력으로 확인 후 도면 작업을 실시하여야 하므로, 확인자의 주관적인 판단이 개입되고 인력에 의한 오류가 발생되는 문제점이 있다. 또한 백태, 박락, 철근노출, 재료분리 등 구조물에 발생하는 단면손상은 검출할 수 없는 한계점을 가지고 있다. According to the prior art, a damage detection technology using machine learning has been proposed, but since the Gray Scale method is used, all parts with color differences are recognized as cracks, so the false detection rate is very high, and the non-damaged part is recognized as damage. Therefore, since the photographed image data must be confirmed by manpower and then the drawing work is performed, there is a problem in that the subjective judgment of the checker is intervened and errors caused by manpower are generated. In addition, cross-section damage occurring to structures such as whitening, peeling, exposure of reinforcing bars, and material separation has a limitation that cannot be detected.

본 발명은 전술한 문제점을 해결하기 위해 제안된 것으로, 구조물 영상을 고해상도로 자동 취득하고, 획득한 영상을 정선한 빅데이터로 학습된 인공지능을 이용하여 다수 손상을 동시에 분석하는 영상처리 기술을 제안하여, 콘크리트 및 강재로 시공된 구조물(교량, 터널, 옹벽, 항만, 발전시설물 등)의 자동화된 외관 조사를 지원하는 이미지 획득 자동 제어 기반 손상탐지 방법을 제공하는데 그 목적이 있다. The present invention has been proposed to solve the above problems, and proposes an image processing technology that automatically acquires high-resolution structural images and simultaneously analyzes multiple damages using artificial intelligence learned from selected big data. The purpose of this study is to provide a damage detection method based on automatic image acquisition control that supports automated exterior inspection of structures (bridges, tunnels, retaining walls, ports, power generation facilities, etc.) constructed with concrete and steel.

본 발명은 이미지 획득 자동 제어 기반 손상탐지 방법에 관한 것이다. The present invention relates to a damage detection method based on automatic image acquisition control.

본 발명에 따른 이미지 획득 자동 제어 기반 손상탐지 방법은 (a) 자동 제어에 기초하여 이미지를 획득하는 단계; (b) 유사손상객체를 이용하여 손상 이미지 데이터를 구축하는 단계; 및 (c) 딥러닝 모델을 이용하여 콘크리트의 균열, 망상균열, 박락, 파손, 철근노출, 재료분리, 백태와, 강재의 부식, 도막박리 중 적어도 어느 하나의 손상을 탐지하는 단계를 포함한다. A damage detection method based on automatic image acquisition control according to the present invention includes the steps of (a) acquiring an image based on automatic control; (b) constructing damaged image data using similarly damaged objects; and (c) detecting damage of at least one of concrete cracks, network cracks, exfoliation, damage, exposure of reinforcing bars, material separation, efflorescence, corrosion of steel materials, and peeling of paint using a deep learning model.

본 발명에 따르면, 객관적이고 정량화된 데이터를 확보하여 구조물의 선제적 예방관리 체계를 구축하고, 자동화된 시설물 정밀안전진단을 통해 점검자의 안전사고 발생을 방지하는 효과가 있다. According to the present invention, it is effective to establish a preemptive preventive management system for structures by securing objective and quantified data, and to prevent the occurrence of safety accidents by inspectors through automated precise safety diagnosis of facilities.

본 발명의 효과는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 실시예에 따른 고해상도 자동제어 이미지 촬영부 운용을 도시한다.
도 2는 인공지능을 이용한 구조물 손상 탐지 과정을 도시한다.
도 3은 유사손상객체 합성 이미지의 예를 도시한다.
도 4는 손상별 인공지능 모델과 2차 분류 기준을 이용한 9종의 손상 탐지 과정을 도시한다.
도 5는 인공지능 기반 신속 학습데이터 구축 시스템 프레임워크를 도시한다.
도 6은 손상 정량화 알고리즘을 도시한다.
도 7은 ICT 기반 안전진단 자동화 데이터 관리를 도시한다.
도 8은 본 발명의 실시예에 따른 이미지 획득 자동 제어 기반 손상탐지 방법을 도시한다.
도 9a 내지 도 9d는 본 발명의 실시예에 따른 고해상도 이미지 획득 장치를 도시한다.
도 10은 본 발명의 실시예에 따른 조명장치를 도시한다.
도 11은 본 발명의 실시예에 따른 조명부가 배치된 고해상도 이미지 획득 장치를 도시한다.
도 12는 본 발명의 실시예에 따른 이동 대차에 배치된 촬영 장비를 도시한다.
도 13은 본 발명의 실시예에 따른 시스템 구성도를 도시한다.
도 14는 본 발명의 실시예에 따른 소프트웨어 구성도를 도시한다.
도 15는 본 발명의 실시예에 따른 제어 및 측정 장치를 도시한다.
도 16은 본 발명의 실시예에 따른 데이터 흐름을 도시한다.
도 17은 본 발명의 실시예에 따른 이미지 머징 과정을 도시한다.
1 illustrates operation of a high-resolution automatically controlled image capture unit according to an embodiment of the present invention.
2 shows a structure damage detection process using artificial intelligence.
3 shows an example of a damaged-like object synthesized image.
4 shows a process of detecting 9 types of damage using an artificial intelligence model for each damage and a secondary classification criterion.
5 shows an artificial intelligence-based rapid learning data construction system framework.
6 shows a damage quantification algorithm.
7 illustrates ICT-based safety diagnosis automation data management.
8 illustrates a damage detection method based on automatic image acquisition control according to an embodiment of the present invention.
9A to 9D show a high-resolution image acquisition device according to an embodiment of the present invention.
10 shows a lighting device according to an embodiment of the present invention.
11 shows a high-resolution image acquisition device in which a lighting unit is disposed according to an embodiment of the present invention.
12 shows photographing equipment disposed on a moving cart according to an embodiment of the present invention.
13 shows a system configuration diagram according to an embodiment of the present invention.
14 shows a software configuration diagram according to an embodiment of the present invention.
15 shows a control and measurement device according to an embodiment of the present invention.
16 shows data flow according to an embodiment of the present invention.
17 illustrates an image merging process according to an embodiment of the present invention.

본 발명의 전술한 목적 및 그 이외의 목적과 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. The foregoing and other objects, advantages and characteristics of the present invention, and a method of achieving them will become clear with reference to the detailed embodiments described below in conjunction with the accompanying drawings.

그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 목적, 구성 및 효과를 용이하게 알려주기 위해 제공되는 것일 뿐으로서, 본 발명의 권리범위는 청구항의 기재에 의해 정의된다. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms, and only the following embodiments provide the purpose of the invention, As only provided to easily inform the configuration and effect, the scope of the present invention is defined by the description of the claims.

한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성소자, 단계, 동작 및/또는 소자가 하나 이상의 다른 구성소자, 단계, 동작 및/또는 소자의 존재 또는 추가됨을 배제하지 않는다.Meanwhile, terms used in this specification are for describing the embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, “comprises” and/or “comprising” means the presence of one or more other components, steps, operations, and/or elements in which a stated component, step, operation, and/or element is present. or added.

이하, 도 1을 참조하여, 본 발명의 실시예에 따른 고해상도 자동제어 이미지 촬영부 운용에 대해 설명한다. Hereinafter, referring to FIG. 1 , operation of a high-resolution automatically controlled image capture unit according to an embodiment of the present invention will be described.

스마트폰 및 DSLR 카메라를 이용하여, 원거리에서 손상폭 0.1mm 이하까지 식별이 가능한 고해상도 이미지를 촬영하며, 이는 콘크리트 내구성 및 수밀성을 고려하여 균열을 0.1mm부터 평가하기 위함이다. Using a smartphone and a DSLR camera, high-resolution images that can be identified from a distance of less than 0.1mm in damage width are taken, and this is to evaluate cracks from 0.1mm in consideration of concrete durability and watertightness.

촬영부는 4축 ±135°의 촬영 각도, 회전속도 최대 45deg/sec로 작동되어 촬영을 수행하여, 촬영부 설치 후 교량 바닥판, 거더 하면 등을 촬영하는 것이 가능하다. The photographing unit is operated at a shooting angle of 4 axes ±135° and a rotational speed of up to 45deg/sec to perform photographing, and it is possible to photograph the bottom plate of the bridge and the underside of the girder after installing the photographing unit.

스마트폰을 이용한 경량화된 고해상도 이미지 촬영을 통해, 촬영거리 20미터 이내 및 구조물 내부 점검(예: 교량 박스 내부, 수리 시설 내부, 건축물 내부 등)을 수행하고, 스마트폰 촬영각의 0.01도 단위 정밀 제어를 수행하며, DSLR 카메라를 이용하여 거리 50미터 이내 및 대형 구조물 외관 점검을 수행한다. 촬영부 운용 프로그램에 의해, 이미지 촬영이 자동으로 제어되고, 실시간으로 이미지를 전송하며 포커싱 정보를 전송한다. 스마트폰에는 촬영 앱이 설치되어, 촬영부 운용 프로그램에 의해 생성되는 명령을 수신하여 스마트폰에 내장된 카메라를 제어한다. Through lightweight high-resolution image shooting using a smartphone, it is possible to inspect the inside of a structure within a shooting distance of 20 meters (eg, inside a bridge box, inside a repair facility, inside a building, etc.), and precisely control the shooting angle of a smartphone in 0.01 degree increments. and inspect the exterior of large structures within a distance of 50 meters using a DSLR camera. Image capture is automatically controlled by the photographing unit operation program, images are transmitted in real time, and focusing information is transmitted. A photographing app is installed in the smartphone to receive a command generated by a photographing unit operating program and control a camera built in the smartphone.

촬영된 고해상도 이미지는 손상탐지에 활용되며, 촬영 이미지, 촬영 정보는 데이터 관리 소프트웨어로 전송되어 촬영된다. 촬영 정보와 관련하여, 구조물과의 거리 20미터 이상에서 측정 정밀도 ±1㎜ 이내의 거리측정 센서의 획득 정보가 전송된다. 또한, 촬영 거리와 각도, 현재 위치 정보가 계측되어 전송된다. 촬영부 운용 프로그램에 의해 촬영 이미지, 촬영 속도, 포커싱 정보가 전송된다. 촬영부에는 거리 20미터에서 손상폭 0.1mm 식별이 가능하도록 조명이 배치된다. The captured high-resolution image is used for damage detection, and the captured image and information are transmitted to data management software and captured. In relation to the photographing information, information acquired by the distance measurement sensor with a measurement accuracy of ±1 mm or less at a distance of 20 meters or more from the structure is transmitted. In addition, the photographing distance, angle, and current location information are measured and transmitted. The photographed image, photographing speed, and focusing information are transmitted by the photographing unit operation program. Lighting is arranged in the photographing unit so that a damage width of 0.1 mm can be identified at a distance of 20 meters.

이하, 도 2 내지 도 6을 참조하여, 본 발명의 실시예에 따른 인공지능 기반 손상탐지 자동화 모듈에 대해 설명한다. 도 2는 인공지능을 이용한 구조물 손상 탐지 과정을 도시하고, 도 3은 유사손상객체 합성 이미지의 예를 도시하고, 도 4는 손상별 인공지능 모델과 2차 분류 기준을 이용한 9종의 손상 탐지 과정을 도시하고, 도 5는 인공지능 기반 신속 학습데이터 구축 시스템 프레임워크를 도시하며, 도 6은 손상 정량화 알고리즘을 도시한다. Hereinafter, an artificial intelligence-based damage detection automation module according to an embodiment of the present invention will be described with reference to FIGS. 2 to 6 . Figure 2 shows a structure damage detection process using artificial intelligence, Figure 3 shows an example of a similarly damaged object composite image, Figure 4 shows nine types of damage detection processes using artificial intelligence models for each damage and secondary classification criteria 5 shows an AI-based rapid learning data construction system framework, and FIG. 6 shows a damage quantification algorithm.

자동으로 외관조사망도와 손상물량표를 생성하기 위해, 촬영부 운용을 통해 획득된 고해상도 이미지에 인공지능(딥러닝) 모델을 적용하여, 구조물 노후화 및 공용중에 발생되는 손상(콘크리트의 균열/망상균열/박락/파손/철근노출/재료분리/백태, 강재의 부식/도막박리)을 탐지하고 정량화한다. In order to automatically generate an exterior survey network map and a damage quantity table, an artificial intelligence (deep learning) model is applied to high-resolution images obtained through the operation of the filming department to determine the deterioration of structures and damage occurring during use (crack/reticular cracks in concrete). /exfoliation/damage/rebar exposure/material separation/whitening, steel corrosion/film peeling) are detected and quantified.

손상 탐지 시, 다양한 현장에서의 이미지 촬영 조건을 고려하기 위해 이미지 증강 기법을 적용하며, 조도, 블러링, 촬영 각도 등을 고려대상 촬영 조건으로 설정한다. When detecting damage, image augmentation techniques are applied to consider image shooting conditions in various sites, and illumination, blurring, and shooting angles are set as shooting conditions to be considered.

손상분석에는 촬영 거리, 각도 정보를 이용한 시설물 점검에 최적화된 이미지 스티칭이 수행된다. For damage analysis, image stitching optimized for facility inspection using shooting distance and angle information is performed.

이미지 스티칭의 순서는, (a) 연결할 2개의 이미지에서 특징점을 각각 분석 후 동일한 특징점을 매칭한다. (b) 매칭 정보를 토대로 이미지 간의 뒤틀림을 판단한다. (c) 1개 이미지의 뒤틀림 정보를 역산하여 이미지 픽셀을 재배치한다. (d) 재배치된 이미지는 뒤틀림 정도에 따라 재배치 시 이미지 사이에 빈 공간이 발생하며, 이를 인근 이미지의 평균값으로 채워 넣는다. (e)모든 이미지가 1개의 이미지로 될 때까지 (a) 내지 (d)의 과정을 반복한다. (f) 정합된 이미지는 명도의 평균값으로 보정되어, 촬영시간이 지속됨에 따라 생기는 명함 차이 등이 제거된다. (g) 분석 프로그램이 이미지를 읽어들이기 위해, 완성된 이미지를 기설정된 픽셀 크기(20,000Х20,000 픽셀크기)로 중첩부분 없이 잘라 저장하며, 사용자가 완성된 이미지를 육안으로 확인 가능하도록 1/10크기로 저장한다. The order of image stitching is: (a) Matching the same feature point after analyzing each feature point in the two images to be connected. (b) Distortion between images is determined based on matching information. (c) The image pixels are rearranged by inverting the distortion information of one image. (d) Depending on the degree of distortion of the rearranged images, an empty space is created between the rearranged images, and this is filled with the average value of nearby images. (e) The process of (a) to (d) is repeated until all images become one image. (f) The matched image is corrected with the average value of brightness, and the differences in business cards caused by the continuation of the shooting time are removed. (g) In order for the analysis program to read the image, the completed image is cut and saved to a preset pixel size (20,000Х20,000 pixel size) without overlapping parts, and 1/10 so that the user can visually check the completed image. save by size

도 3을 참조하면, 손상이미지 데이터 셋 구축과 관련하여, 유사손상객체 구별을 위한 학습이미지를 구축한다. 일반적으로 영상으로부터 손상을 탐지할 때, 손상과 특징(형태, 색상 등)이 유사한 객체(유사손상객체)들로 인하여 손상 탐지의 정확도가 낮아지며, 일례로 콘크리트 균열의 경우, 콘크리트 제작에 사용된 거푸집에 의한 선형의 자국 및 거미줄, 오염물질에 의해 혼동이 발생하는 경향이 있다. 본 발명에 따르면, 손상별로 유사손상객체의 종류를 조사한 뒤, 유사손상객체의 이미지를 수집하고, 유사손상객체가 존재하는 이미지에 손상 객체를 합성하여 유사손상객체 배제를 위한 합성 학습데이터를 구축한다. 손상객체 학습데이터와 유사손상객체 합성 학습데이터를 이용하여 유사손상객체를 배제하고 손상만을 정확하게 탐지하는 것이 가능하다. Referring to FIG. 3, in relation to building a damaged image data set, a training image for distinguishing similarly damaged objects is built. In general, when detecting damage from images, the accuracy of damage detection is lowered due to objects (similarly damaged objects) having similar characteristics (shape, color, etc.) to the damage. For example, in the case of concrete cracks, formwork used in concrete It tends to be confused by linear marks and cobwebs and contaminants. According to the present invention, after investigating the type of similarly damaged objects for each damage, images of similarly damaged objects are collected, and the damaged objects are synthesized with images in which similarly damaged objects exist to construct synthetic learning data for excluding similarly damaged objects. . Using the damaged object learning data and similarly damaged object synthesis learning data, it is possible to accurately detect only damage while excluding similarly damaged objects.

손상 학습데이터와 유사손상객체 합성 학습데이터를 이용하여 손상을 자동으로 탐지하는 Segmentation 기반 인공지능 모델을 이용하며, 각각의 손상을 탐지하는 모델들을 병렬로 활용한다. A segmentation-based artificial intelligence model that automatically detects damage using damage learning data and similar damage object synthesis learning data is used, and each damage detection model is used in parallel.

도 4를 참조하면, 균열과 망상균열, 박락과 파손은 유사성이 높으므로 1차적으로 균열, 파손으로 그룹핑(grouping)하여 탐지한 뒤, 분류 기준을 적용하여 세부적으로 판단을 수행한다. Referring to FIG. 4, since cracks, network cracks, exfoliation and breakage have high similarities, they are primarily grouped into cracks and breaks to detect, and then a classification criterion is applied to make a detailed determination.

높은 정확도를 갖는 인공지능 모델을 개발하기 위해서는 정확한 학습데이터가 다수 확보되어야 하나, 학습데이터 생성에 많은 시간이 소요되며, 학습데이터 제작 중 가장 많은 시간이 소요되는 부분이 이미지 상에서 손상 후보를 탐색하는 부분과 이에 대해 직접 라벨링을 수행하는 시간이다. In order to develop an artificial intelligence model with high accuracy, a large number of accurate training data must be secured, but it takes a lot of time to generate training data, and the most time-consuming part of producing training data is the part of searching for damage candidates on the image. and the time to perform direct labeling on it.

도 5를 참조하면, 인공지능 모델을 활용하여 1차적으로 손상 후보들을 탐지하여 표시(라벨링)해주고, 표시된 손상 후보만을 전문가에게 제공하여 전문가로 하여금 검토, 수정이 이루어지도록 하여 라벨링을 수행함으로써, 학습데이터 구축 시간을 10배 이상 단축시키는 효과가 있다. Referring to FIG. 5, by using an artificial intelligence model, damage candidates are primarily detected and displayed (labeled), and only the marked damage candidates are provided to experts so that the experts can review and correct them, thereby performing labeling. It has the effect of reducing data construction time by more than 10 times.

학습데이터 신속구축 프레임워크는 손상후보 탐지 성능 극대화가 가능한 사전탐지 인공지능 모델 학습을 수행하고, 정해진 영역만을 사전탐지 인공지능 모델이 탐지함으로써, 손상의 오탐지를 최소화한다. The learning data rapid construction framework trains a pre-detection AI model capable of maximizing the detection performance of damage candidates, and minimizes false detections of damage by detecting only a designated area by the pre-detection AI model.

본 발명에 따르면, 손상에 대한 정선한 학습 이미지를 수집하고, 인공지능을 활용하여 학습데이터를 신속 구축하며, 인공지능(딥러닝)을 활용하여 손상 탐지를 수행하고, 인공지능을 이용하여 탐지된 손상의 정량화 후 자동으로 외관조사망도 및 손상물량표를 생성한다. According to the present invention, it collects selected learning images for damage, quickly builds learning data using artificial intelligence, performs damage detection using artificial intelligence (deep learning), and detects damage using artificial intelligence. After quantifying the damage, an external survey network map and damage quantity table are automatically created.

도 6을 참조하면, 손상의 경우 선형 손상(균열, 철근노출)과 면적형 손상(박락, 백태, 부식, 도막박리 등)으로 구분하고, 각 손상 유형에 적합한 손상 정량화 방법이 결정된다. 선형 손상의 경우 Filtering, Dilation-Erosion 기능 등의 영상처리 기법을 적용하여 정확한 손상 픽셀을 결정하고, 손상 정보(폭, 길이)를 픽셀단위로 계산하며, 면적형 손상의 경우 Filtering, 외접박스 등을 활용하여 손상 면적을 픽셀단위로 계산한다. Referring to FIG. 6, damage is classified into linear damage (crack, exposure of reinforcing bars) and area type damage (exfoliation, efflorescence, corrosion, coating peeling, etc.), and a damage quantification method suitable for each type of damage is determined. In the case of linear damage, image processing techniques such as filtering and dilation-erosion are applied to determine the exact damaged pixel, and damage information (width, length) is calculated in units of pixels. In the case of area-type damage, filtering and circumscribed boxes are The damage area is calculated in units of pixels.

Blob Detection(얼룩감지) 기능 등을 활용하여 미세한 오탐지 손상을 제거하고, 픽셀 단위로 계산된 손상 정보를 참고거리(영상 센서와 영상까지의 촬영거리, 또는 영상에서 확인가능한 물체의 실제 길이)를 활용하여 실제단위(mm 등)로 변환하여 실단위 손상 정보를 정량화한다. By using the Blob Detection (stain detection) function, etc., minute false detection damage is removed, and the damage information calculated in pixel units is used as a reference distance (the shooting distance from the image sensor to the image, or the actual length of the object that can be identified in the image). It is used to quantify damage information in real units by converting it into actual units (mm, etc.).

이하, 도 7을 참조하여, ICT 기반 안전진단 자동화 데이터 관리에 대해 설명한다. Hereinafter, with reference to FIG. 7, ICT-based safety diagnosis automation data management will be described.

촬영된 이미지와 촬영정보는 본사 서버 또는 클라우드로 전송되고, 자동화 데이터 관리 프로그램을 이용하여 이를 관리한다. The captured image and shooting information are transmitted to the head office server or cloud, and managed using an automated data management program.

본 발명에 따르면, 구조물 점검 및 진단 결과는 점검자마다 판단기준이 상이하고, 야장 손상위치 표기 오차 누적에 의해 손상에 대한 진행성 여부 확인이 어려운 문제점을 해결하고, 주기적 촬영 시 손상의 진행성 여부를 확인하여 구조물 선제적 예방체계를 수립하는 효과가 있다. According to the present invention, the structure inspection and diagnosis results solve the problem that the judgment criteria are different for each inspector, and it is difficult to check the progress of damage due to the accumulation of errors in marking the location of damage in the field, and to check the progress of damage during periodic imaging. It has the effect of establishing a preemptive prevention system for structures.

ICT 기반 안전진단 자동화 데이터 관리 프로그램을 이용하여, 웹 상에서 구조물 손상의 경시적 변화를 확인하는 것이 가능하다. Using ICT-based safety diagnosis automation data management program, it is possible to check the temporal change of structural damage on the web.

도 8은 본 발명의 실시예에 따른 이미지 획득 자동 제어 기반 손상탐지 방법을 도시한다. 8 illustrates a damage detection method based on automatic image acquisition control according to an embodiment of the present invention.

본 발명에 따른 이미지 획득 자동 제어 기반 손상탐지 방법은 자동 제어에 기초하여 이미지를 획득하는 단계(S810)와, 유사손상객체를 이용하여 손상 이미지 데이터를 구축하는 단계(S820)와, 딥러닝 모델을 이용하여 콘크리트의 균열, 망상균열, 박락, 파손, 철근노출, 재료분리, 백태와, 강재의 부식, 도막박리 중 적어도 어느 하나의 손상을 탐지하는 단계(S830)를 포함한다. The damage detection method based on the automatic control of image acquisition according to the present invention includes acquiring an image based on automatic control (S810), constructing damage image data using a similar damage object (S820), and using a deep learning model. and detecting damage of at least one of concrete cracks, network cracks, exfoliation, damage, exposure of reinforcing bars, material separation, efflorescence, corrosion of steel materials, and coating peeling (S830).

S810 단계는 콘크리트 내구성 및 수밀성을 고려하여 기설정 거리로부터 0.1mm/픽셀의 고해상도 이미지를 획득한다. Step S810 acquires a high-resolution image of 0.1 mm/pixel from a preset distance in consideration of concrete durability and watertightness.

S810 단계는 포커싱 정보, 촬영 거리 정보, 촬영 각도 정보, 현재 위치 정보를 포함하는 촬영 정보를 획득한다. In step S810, photographing information including focusing information, photographing distance information, photographing angle information, and current location information is acquired.

S810 단계는 촬영 거리 정보 및 촬영 각도 정보를 이용하여 이미지 스티칭을 수행하되, 연결 대상 이미지에서 특징점을 매칭시키고, 매칭 정보를 이용하여 이미지 간의 뒤틀림 여부를 판단하여 뒤틀림 정보를 산출하고, 상기 뒤틀림 정보를 역산하고 이미지 픽셀을 재배치하여 이미지 사이 빈 공간에 인근 이미지의 평균값을 채우고, 정합된 이미지를 명도의 평균값을 이용하여 보정한 후 기설정 픽셀 크기로 잘라 저장한다. In step S810, image stitching is performed using the photographing distance information and the photographing angle information, matching feature points in the image to be connected, and determining whether or not distortion between images is warped using the matching information to calculate distortion information, and calculating the distortion information Inverse calculation is performed and image pixels are rearranged to fill the empty space between images with the average value of neighboring images.

S820 단계는 손상별로 상기 유사손상객체의 이미지를 수집하고, 상기 유사손상객체가 존재하는 이미지에 손상 객체를 합성하여 합성 학습 데이터를 구축한다. In step S820, the image of the similarly damaged object is collected for each damage, and the damaged object is synthesized with the image in which the similarly damaged object exists to construct synthetic learning data.

S820 단계는 손상 후보 탐지 결과를 이용하여 라벨링을 수행하고, 표시된 손상 후보에 대한 피드백을 이용하여 학습 데이터를 구축한다. In step S820, labeling is performed using the damage candidate detection result, and training data is constructed using feedback on the displayed damage candidate.

S830 단계는 세그멘테이션 기반 인공지능 모델을 이용하여, 복수의 손상 탐지 모델을 병렬로 활용하여 손상탐지를 수행한다. Step S830 performs damage detection by utilizing a plurality of damage detection models in parallel using a segmentation-based artificial intelligence model.

S830 단계는 손상 별 유사성에 기초하여 그룹핑을 통해 탐지를 수행한다. Step S830 performs detection through grouping based on similarity for each damage.

S830 단계는 선형 손상과 면적형 손상을 구분하여 검출하고, 상기 선형 손상에 대해 손상 픽셀을 결정하고 손상 정보를 픽셀 단위로 계산하며, 상기 면적형 손상에 대해 손상 면적을 픽셀 단위로 계산한다. In step S830 , linear damage and area-type damage are separately detected, a damaged pixel is determined for the linear damage, damage information is calculated in units of pixels, and a damage area for the area-type damage is calculated in units of pixels.

S830 단계는 상기 픽셀 단위로 계산된 손상 정보에 대해 촬영 거리 정보 및 영상에서 확인되는 물체의 길이 정보 중 적어도 어느 하나를 이용하여 실제 단위로 변환하여 실단위 손상 정보를 정량화한다. Step S830 quantifies the damage information in real units by converting the damage information calculated in units of pixels into actual units using at least one of shooting distance information and length information of an object identified in the image.

본 발명의 실시예에 따른 촬영 장치는 0~270도까지 각도가 조정되는 스마트폰을 사용하거나, DSLR 카메라를 사용할 수 있다. 스마트폰을 이용하는 경우 원격지에서 촬영 화면을 통신을 통해 확인할 수 있으며, DSLR 카메라를 사용하는 경우 점검자가 촬영 화면을 확인할 수 있다The photographing device according to the embodiment of the present invention may use a smartphone whose angle is adjusted from 0 to 270 degrees or a DSLR camera. When using a smartphone, the shooting screen can be checked remotely through communication, and when using a DSLR camera, the inspector can check the shooting screen.

본 발명의 실시예에 따른 고해상도 자동제어 이미지 획득 시스템을 통해, 촬영 속도, 촬영 각도, 무게, 조립 복잡도를 개선하는 촬영 하드웨어를 이용하여 고해상도 이미지를 자동으로 획득하고 조명장치를 이용하여 자연광이 없는 경우에도 원활히 촬영을 수행하도록 지원하고, 이미지 머징, 순차적 머징 이미지의 미리 보기, 편집 기능을 제공하며, 프로그램 핸들링이 용이한 효과를 기대할 수 있다. Through the high-resolution automatically controlled image acquisition system according to an embodiment of the present invention, when a high-resolution image is automatically obtained using a shooting hardware that improves shooting speed, shooting angle, weight, and assembly complexity, and there is no natural light using a lighting device It supports smooth shooting, provides image merging, preview of sequentially merging images, and editing functions, and the effect of easy program handling can be expected.

본 발명의 실시예에 따른 고해상도 자동제어 이미지 획득 시스템은 촬영을 수행하여 이미지 및 촬영 정보를 전송하는 촬영 기기와, 촬영 영역에 대해 조명을 조사하는 조명 장치와, 상기 촬영 기기가 거치되고, 상기 촬영 기기의 촬영 각도를 조정하는 촬영 장비 및 상기 촬영 장비에 대한 통합 제어를 수행하는 컴퓨팅 디바이스; 및 고해상도 이미지를 저장하는 저장부를 포함한다. A high-resolution automatically controlled image acquisition system according to an embodiment of the present invention includes a photographing device for performing photographing and transmitting images and photographing information, a lighting device for irradiating light on a photographing area, and the photographing device. A computing device that performs integrated control of a photographing device that adjusts a photographing angle of the device and the photographing equipment; and a storage unit for storing high-resolution images.

본 발명의 다른 실시예에 따르면, 스마트폰 또는 DSLR 카메라를 촬영 기기로 이용하며, 촬영 기기가 거치된 촬영 장비에 대해 제어 신호를 전송하여 회전 동작을 제어하는 것이 가능하다. According to another embodiment of the present invention, it is possible to control a rotation operation by using a smartphone or a DSLR camera as a photographing device and transmitting a control signal to the photographing equipment on which the photographing device is mounted.

상기 컴퓨팅 디바이스는 상기 촬영 장비로 모터 제어 신호를 전송하고, 상기 촬영 장비는 상기 모터 제어 신호를 이용하여 직교하는 2개의 축에 대한 회전 각도 제어를 수행한다. The computing device transmits a motor control signal to the photographing equipment, and the photographing equipment performs rotation angle control for two orthogonal axes using the motor control signal.

상기 촬영 장비는 거리 센서 정보 및 리미트 센서 정보를 이용하여 피사체와의 거리 정보 및 모터의 위치 정보를 실시간 계측한다. The photographing equipment measures distance information to a subject and position information of a motor in real time using distance sensor information and limit sensor information.

상기 촬영 장비는 삼각대 구조에 의해 지지되며, 상기 삼각대를 구성하는 각 다리는 상이하게 높이 조절되어 지형에 따라 촬영을 위한 수평을 유지한다. The photographing equipment is supported by a tripod structure, and each leg constituting the tripod is adjusted in a different height to maintain a horizontal level for photographing according to the topography.

상기 촬영 장비는 이동 대차 위에 배치되어, 촬영 장소에서의 이동이 용이한 효과가 있다. The photographing equipment is disposed on a movable carriage, so that it can be easily moved from a photographing location.

상기 촬영 기기는 카메라 및 영상 상태 정보를 실시간으로 전송한다. The photographing device transmits camera and video state information in real time.

상기 저장부는 클라우드 서버 또는 NAS 중 적어도 어느 하나를 포함한다. The storage unit includes at least one of a cloud server and a NAS.

상기 조명부는 통신 모듈을 구비하고, 상기 컴퓨팅 디바이스로부터 제어 신호를 인가받아 조명 조사 영역을 변경시킨다. The lighting unit includes a communication module, receives a control signal from the computing device, and changes a lighting irradiation area.

상기 조명부는 상기 촬영 기기의 촬영 영역 제어에 의한 구동 시 연동되어, 촬영 영역 각도 제어 시 함께 조명 조사 영역 각도가 변경된다. The lighting unit is interlocked when the photographing device is driven by controlling the photographing area, and an angle of the lighting irradiation area is changed when the angle of the photographing area is controlled.

본 발명에 따르면, 촬영 속도가 증가되고 0~270도의 촬영 각도를 확보하며, 구조체가 경량화되고 그 조립이 간략화되는 장점이 있고, 포커싱 정보와 촬영된 이미지의 전송이 가능한 장점이 있으며, 핸들링이 용이한 이미지 머징 프로그램을 제공하고, 클라우드 또는 NAS를 활용하여 실시간으로 어디에서든지 손상을 확인하는 것이 가능한 장점이 있다. According to the present invention, there are advantages in that the shooting speed is increased, the shooting angle of 0 to 270 degrees is secured, the structure is lightened and the assembly is simplified, there are advantages in that focusing information and captured images can be transmitted, and handling is easy. It provides one image merging program and has the advantage of being able to check damage anywhere in real time by utilizing the cloud or NAS.

도 9a 내지 도 9d는 본 발명의 실시예에 따른 고해상도 이미지 획득 장치를 도시하며, 도 9a는 정면도, 도 9b는 좌측면도, 도 9c는 우측면도, 도 9d는 후면도를 도시한다. 9A to 9D show a high-resolution image acquisition device according to an embodiment of the present invention, wherein FIG. 9A is a front view, FIG. 9B is a left view, FIG. 9C is a right view, and FIG. 9D is a rear view.

본 발명의 실시예에 따른 고해상도 이미지 획득 장치는 모터 제너레이터(101), 베이스 패널(102), y축 회전 베이스(103), 삼각대 고정 브라켓(104), 베어링(105), x축 회전 기둥(106), 삼각대(107), x축 회전 풀리(108), 고정 브라켓(109), 카메라와 피사체 사이의 거리를 측정하는 거리 센서(110), x축 회전 베어링(111), y축 회전 풀리(112), 카메라 고정부(113), y축 회전 스토퍼(114), 카메라 고정 브라켓(115), 하부 모터 커버(116), 스마트폰(117), 타이밍벨트(118), x축 모터 회전축 어셈블리(119)를 포함한다. A high-resolution image acquisition device according to an embodiment of the present invention includes a motor generator 101, a base panel 102, a y-axis rotation base 103, a tripod fixing bracket 104, a bearing 105, and an x-axis rotation column 106. ), tripod 107, x-axis rotation pulley 108, fixing bracket 109, distance sensor 110 for measuring the distance between the camera and subject, x-axis rotation bearing 111, y-axis rotation pulley 112 ), camera fixing part 113, y-axis rotation stopper 114, camera fixing bracket 115, lower motor cover 116, smartphone 117, timing belt 118, x-axis motor rotation shaft assembly 119 ).

본 발명의 실시예에 따르면, 회전 이송 장치의 회전 각도 측정용 센서(엔코더)가 구비된다. According to an embodiment of the present invention, a sensor (encoder) for measuring a rotation angle of a rotation transfer device is provided.

삼각대(107)는 기설정 높이로 조정이 가능하며, 조절 높이는 최소 100mm에서 최대 500 내지 700mm로 제작된다. 설치 지형에 영향이 없이 수평을 맞출 수 있도록, 삼각대(107)의 각 다리는 높이 조절이 가능하며, 이동이 용이하도록 조립식으로 제작되며, 분해 시 접어서 보관이 가능하다. The tripod 107 can be adjusted to a preset height, and the adjustable height is manufactured from a minimum of 100 mm to a maximum of 500 to 700 mm. Each leg of the tripod 107 can be adjusted in height so that it can be leveled without affecting the installation terrain, and is manufactured in a prefabricated manner for easy movement, and can be folded and stored when disassembled.

본 발명의 실시예에 따르면, 서보 스텝핑 모터(장비를 정밀 제어하기 위한 구동용 모터)를 이용하여 카메라를 상하좌우 방향으로 회전하며, 복수의 회전 디바이스를 이용하여 상하 좌우 각도 회전이 가능하도록 한다. According to an embodiment of the present invention, the camera is rotated in up, down, left and right directions using a servo stepping motor (a driving motor for precisely controlling equipment), and up, down, left and right angle rotation is possible using a plurality of rotation devices.

회전 각도는 상하, 좌우 0에서 270도 범위를 간섭 없이 움직이도록 설정된다. The rotation angle is set to move in the range of 0 to 270 degrees up and down, left and right, without interference.

본 발명의 실시예에 따르면, 스텝핑 모터를 이용한 상, 하, 좌, 우, 틸트를 수행하고, 소비전력 DC 24V로 구동부 전기 회로를 간소화하는 것이 가능하며, 각 축의 회전 반경은 270도로 설정된다. According to an embodiment of the present invention, it is possible to perform up, down, left, right, and tilt using a stepping motor, simplify the electric circuit of the driving unit with power consumption DC 24V, and the rotation radius of each axis is set to 270 degrees.

본 발명의 실시예에 따르면, 24V 소비 전력 통일을 통해 회로를 간소화하고, 모터와 드라이버를 일체형으로 구성하여 부피를 감소시키며, 배선 연결 커넥팅을 최소화하는 장점이 있다. According to an embodiment of the present invention, there are advantages of simplifying the circuit through unification of 24V power consumption, reducing the volume by integrally configuring the motor and the driver, and minimizing the wiring connection.

본 발명의 실시예에 따르면, 드라이브 일체형 스텝핑 모터를 이용하여, 모터 구동에 필요한 인버터 생략이 가능하고, 모터 드라이버(모터를 연결하고 제어신호를 입력 받아 모터를 구동하는 모터 제어 장치) 일체형 구성을 통해 제어 박스의 부피를 감소시키고 배선을 간소화하는 것이 가능하다. According to an embodiment of the present invention, using a drive-integrated stepping motor, it is possible to omit an inverter required for driving a motor, and a motor driver (a motor control device that connects a motor and receives a control signal to drive a motor) is integrated through a configuration It is possible to reduce the volume of the control box and simplify wiring.

본 발명의 실시예에 따르면, 스텝핑 모터를 기구부 내측에 배치함으로써, 무게중심을 가운데에 맞춰 장비 설치 시 안정성을 확보할 뿐 아니라 전체 부피를 감소시킨다. According to an embodiment of the present invention, by arranging the stepping motor inside the mechanical unit, the center of gravity is aligned to the center to secure stability when installing the equipment and reduce the overall volume.

도 10을 참조하면, 자연광이 없는 경우 별도의 조명 장치를 이용하여 고해상도 이미지 획득이 가능하고, 도 11를 참조하면, 일체형 장비에 포함된 조명 장치를 이용하여 자연광이 없는 경우에도 고해상도 이미지 획득이 가능하다. Referring to FIG. 10, when there is no natural light, a high-resolution image can be acquired using a separate lighting device, and referring to FIG. 11, a high-resolution image can be obtained even when there is no natural light using a lighting device included in the integrated equipment. do.

도 10는 본 발명의 실시예에 따른 조명장치를 도시한다. 10 shows a lighting device according to an embodiment of the present invention.

본 발명의 실시예에 따른 조명장치는 이미지 획득 장치와 개별적으로 구비되어, 삼각대 구조에 연결된 복수의 조명부가 설치된다. 이 때, 조명부는 통신모듈을 구비하고, 제어 장치로부터 제어 신호를 인가받음에 따라 조명 조사 영역에 대한 제어가 이루어질 수 있다. 제어 신호는 카메라의 촬영 영역과, 조명 조사가 필요한 영역에 대해 종합적으로 검토하여 결정되고, 조명부의 통신 모듈로 전달되어, 조명부의 조사 영역이 자동제어될 수 있다. The lighting device according to the embodiment of the present invention is provided separately from the image acquisition device, and a plurality of lighting units connected to the tripod structure are installed. In this case, the lighting unit may include a communication module, and may control the lighting irradiation area by receiving a control signal from the control device. The control signal is determined by comprehensively examining the shooting area of the camera and the area requiring light irradiation, and is transmitted to the communication module of the lighting unit, so that the lighting area of the lighting unit can be automatically controlled.

도 11은 본 발명의 실시예에 따른 조명부가 배치된 고해상도 이미지 획득 장치를 도시한다. 11 shows a high-resolution image acquisition device in which a lighting unit is disposed according to an embodiment of the present invention.

조명부(310a, 310b)는 고해상도 이미지 획득 장치의 기설정 영역에 배치되어, 촬영 영역에 대해 조명을 조사하는 방식으로 적용되는 것이 가능하다.The lighting units 310a and 310b may be applied in a manner that is disposed in a predetermined area of the high-resolution image capture device and radiates light to a photographing area.

이 때, 별도의 제어 신호를 인가받아 조명부의 조사 영역이 제어될 수 있고, 촬영부에 대한 촬영 영역 제어에 의한 구동 시 이와 연동되어 함께 조사 영역이 제어되는 것이 가능하다. In this case, the irradiation area of the lighting unit may be controlled by receiving a separate control signal, and when driven by the imaging area control for the imaging unit, the irradiation area may be controlled in conjunction with this.

본 발명의 실시예에 따르면 기설정 출력의 조명(예: 200W 조명)이 촬영부를 기준으로 좌/우에 설치되어, 자연광이 없는 경우의 촬영 시 조명을 조사한다. According to an embodiment of the present invention, lighting (eg, 200W lighting) with a predetermined output is installed on the left/right side of the photographing unit to irradiate light when photographing in the absence of natural light.

이러한 조명부(310a, 310b)는 탈착 가능한 형태로 배치되어, 수납 시 부피를 감소시키는 것이 가능하다. Since the lighting units 310a and 310b are disposed in a detachable form, it is possible to reduce the volume when stored.

본 발명의 실시예에 따르면, 삼각대를 이용하여 설치를 간소화하고, 알루미늄 재질의 구조를 통해 무게를 경량화한다. 다른 예로서, 도 20에 도시한 바와 같이, 전술한 바와 같이 이동 대차(2010) 위에 촬영 장비를 배치하여, 이동이 용이한 효과가 있다. According to an embodiment of the present invention, installation is simplified by using a tripod, and weight is reduced through a structure made of aluminum. As another example, as shown in FIG. 20 , as described above, by arranging the photographing equipment on the moving cart 2010, there is an effect of facilitating movement.

도 13은 본 발명의 실시예에 따른 시스템 구성도를 도시한다. 13 shows a system configuration diagram according to an embodiment of the present invention.

주간 촬영 장비(401)는 모터 제어를 수행하고, 거리를 계측하며, 데이터를 획득한다. 주간 촬영 장비는 자연광이 있는 경우 사용되는 촬영 장비를 의미한다.The daytime imaging equipment 401 performs motor control, measures distance, and acquires data. Daytime shooting equipment means shooting equipment used when there is natural light.

야간 촬영 장비(402)는 모터 제어를 수행하고, 거리를 계측하며, 데이터를 획득하며, 조명 제어를 수행한다. 야간 촬영 장비는 자연광이 없는 경우 사용되는 촬영 장비를 의미한다.The night photographing equipment 402 performs motor control, measures distance, acquires data, and performs lighting control. Night photography equipment means photography equipment used when there is no natural light.

스마트폰(403)은 촬영, 이미지 전송, 촬영 정보 전송을 수행한다. The smartphone 403 performs photographing, image transmission, and photographing information transmission.

주간 촬영 장비용 유무선 공유기(402) 및 야간 촬영 장비용 유무선 공유기(405)는 폐쇄 와이파이망을 생성하고, SSID와 PW로 보안 연결된다. The wired/wireless router 402 for daytime shooting equipment and the wired/wireless router 405 for nighttime shooting equipment create a closed Wi-Fi network and are securely connected by SSID and PW.

노트북(406)에는 통합 제어 소프트웨어 및 분석 소프트웨어가 설치된다. The notebook 406 is installed with integrated control software and analysis software.

LTE 또는 5G 모뎀(407)은 LTE 또는 5G 망에 연결을 지원하고, 클라우드 또는 NAS(408)에 이미지를 저장한다. The LTE or 5G modem 407 supports connection to the LTE or 5G network and stores images in the cloud or NAS 408 .

본 발명의 실시예에 따르면, 시스템용 와이파이를 구성하여 wireless를 이루고, 이를 통해 장비 조립을 간략화하고 미결합, 오결합의 문제를 해소한다. 주간용 촬영 장비(401)와 별도로 야간용 촬영 장비(404)가 구비되며, 스마트폰(403)으로 촬영을 수행함에 따라 소형화, 경량화가 가능한 효과가 있다. 노트북(406)은 LTE 또는 5G 망이 연결되어, 촬영 이미지를 클라우드 또는 NAS(408)에 자동 백업한다. According to an embodiment of the present invention, by configuring Wi-Fi for the system to achieve wireless, through which equipment assembly is simplified and problems of non-coupling and misconnection are solved. A nighttime shooting device 404 is provided separately from the daytime shooting device 401, and as the shooting is performed with a smartphone 403, there is an effect of miniaturization and light weight. The notebook 406 is connected to an LTE or 5G network and automatically backs up captured images to the cloud or NAS 408.

모든 통신은 무선 폐쇄 와이파이 망을 이용한 TCP/IP 통신으로 수행되며, 통합제어프로그램(노트북), 촬영 장비 제어 프로그램(임베디드 피씨), 스마트폰 앱은 프로그램 구동과 동시에 통신 연결을 시도하고, 접속을 잃을 시 프로그램 종료까지 무한 재접속을 시도한다. All communication is carried out by TCP/IP communication using a wireless closed Wi-Fi network, and the integrated control program (laptop), shooting equipment control program (embedded PC), and smartphone app attempt to establish a communication connection at the same time as the program runs, and lose access. Attempts to reconnect infinitely until the end of the program.

도 14는 본 발명의 실시예에 따른 소프트웨어 구성도를 도시한다. 14 shows a software configuration diagram according to an embodiment of the present invention.

소프트웨어의 구성은 분산 제어를 목적으로, 통합 제어 소프트웨어와 하위 장비들을 제어하고 계측하는 하위 제어 소프트웨어로 분류된다. The software configuration is classified into integrated control software and sub-control software that controls and measures sub-devices for the purpose of distributed control.

모든 하위 제어 소프트웨어들은 와이파이를 통해 통합 제어 소프트웨어와 무선 통신을 통해 제어, 계측, 장비 상태 정보 등을 송수신하며, 통합 제어 소프트웨어는 사용자와의 인터페이스 및 촬영에 대한 총괄 제어를 수행한다. All subordinate control software transmits and receives control, measurement, and equipment status information through wireless communication with the integrated control software through Wi-Fi, and the integrated control software performs interface with the user and overall control of shooting.

임베디드 컴퓨터, 주간 촬영 장비(510)에는 주간 촬영 제어 소프트웨어가 설치된다. 임베디드 컴퓨터, 야간 촬영 장비(520)에는 야간 촬영 제어 소프트웨어가 설치된다. 임베디드 컴퓨터 프로그램은 장비에 내장되어 구동되며 디바이스 간의 신호 전달 및 데이터 파일의 전달을 수행한다. 디바이스 점검 및 알림 체크 기능, 데이터 획득 장비 실시간 계측 및 모터 제어 기능, 스마트폰 및 노트북과 무선으로 연결되어 신호 및 파일 실시간 중계 기능을 제공한다. 촬영 장비 프로그램 및 조명 장비 프로그램은 통합 제어 소프트웨어로부터 촬영에 필요한 모터의 이동 정보를 수신하여 모터를 제어하며, 거리 센서를 통해 구조물과의 거리 정보를 계측한다. 또한, 모터의 상태를 확인하기 위한 리미트 센서 정보를 획득한다. 주간 촬영 제어 소프트웨어 및 야간 촬영 제어 소프트웨어는 통합 제어 소프트웨어와의 통신을 통해, 모터 동작에 대한 정보를 수신하고, 계측 정보를 전송한다. 또한, 복수의 모터를 제어하며, 모터의 상태, 엔코더(각도) 값을 수신한다. 또한, 거리 센서와 리미트 센서를 통해 거리 정보와 모터의 위치 정보를 실시간 계측한다. Daytime shooting control software is installed in the embedded computer and the daytime shooting equipment 510 . A night photographing control software is installed in the embedded computer and the night photographing equipment 520 . The embedded computer program is built into and driven in the equipment, and transmits signals and data files between devices. It provides device inspection and notification check function, real-time measurement and motor control function of data acquisition equipment, and real-time signal and file relay function by wirelessly connecting to smartphones and laptops. The photographing equipment program and the lighting equipment program control the motor by receiving movement information of the motor necessary for photographing from the integrated control software, and measure distance information from the structure through a distance sensor. In addition, limit sensor information for checking the state of the motor is obtained. The daytime shooting control software and the nighttime shooting control software receive information on motor operation and transmit measurement information through communication with the integrated control software. In addition, it controls a plurality of motors and receives motor status and encoder (angle) values. In addition, distance information and motor location information are measured in real time through a distance sensor and a limit sensor.

스마트폰(530)에는 촬영 앱(app)이 설치된다. 촬영 앱은 제어 신호에 따라 영상을 촬영하고, 측정 영상을 전송한다. 실시간 제어 신호를 수신하여 카메라를 제어하고, 영상을 측정하며, 측정 영상을 실시간으로 전송한다. 카메라 및 영상 상태(포커스, 영상 정보)는 실시간 전송된다. 촬영 앱은 스마트폰의 전원이 켜지면 자동으로 실행되며, 백그라운드로 실행된다. 이후 통합 제어 소프트웨어와 통신이 연결되면, 자동으로 촬영 모드로 변경되어 통합 제어 소프트웨어의 명령에 따라 촬영을 진행한다. 촬영 모드에서는 포커스 정보 및 이미지 파일 등의 정보를 전송한다. 촬영 완료 또는 사용자가 강제 중단시키는 경우 통신이 해제되며 다시 대기모드로 전환된다. A shooting app is installed in the smartphone 530 . The shooting app captures an image according to the control signal and transmits the measured image. It controls the camera by receiving the real-time control signal, measures the image, and transmits the measured image in real time. Camera and image status (focus, image information) is transmitted in real time. The shooting app runs automatically when the smartphone is turned on and runs in the background. After that, when communication with the integrated control software is connected, it is automatically changed to the shooting mode, and shooting proceeds according to the command of the integrated control software. In the shooting mode, information such as focus information and image files is transmitted. When the shooting is completed or the user forcibly stops it, the communication is released and converted to standby mode again.

노트북(540)에는 통합 제어 소프트웨어 및 분석 소프트웨어가 설치된다. 통합 제어 소프트웨어는 장비 전체를 계측하고 제어하는 프로그램으로, 장비와 스마트폰의 제어 및 계측을 수행하며, 사용자 인터페이스 기능, 실시간 모니터링 및 제어 기능, 스마트폰 연동 및 카메라 제어 기능, 영상 데이터 자동 모니터링 및 저장 기능을 제공한다. In the notebook 540, integrated control software and analysis software are installed. The integrated control software is a program that measures and controls the entire equipment. It controls and measures the equipment and the smartphone, user interface function, real-time monitoring and control function, smartphone linkage and camera control function, and video data automatic monitoring and storage. function.

클라우드 또는 NAS(550)는 이미지를 저장한다. A cloud or NAS 550 stores the images.

도 15는 본 발명의 실시예에 따른 제어 및 측정 장치를 도시한다. 15 shows a control and measurement device according to an embodiment of the present invention.

본 발명의 실시예에 따른 제어 및 측정장치와 연결되는 구성은 랩탑 컴퓨터, 배터리 및 충전기, 섀시, 모듈, 모터 드라이버, 임베디드 컴퓨터, 액세스 포인트, 파워 디바이스이다. Components connected to the control and measurement device according to an embodiment of the present invention include a laptop computer, a battery and charger, a chassis, a module, a motor driver, an embedded computer, an access point, and a power device.

섀시는 제어 및 측정 모듈을 연결하고 데이터를 측정한다. The chassis connects the control and measurement modules and measures the data.

모듈은 센서 신호를 측정하고 제어 신호를 발생시킨다. The module measures the sensor signal and generates a control signal.

모터 드라이버는 모터에 제어 명령을 전달하고, 에러 발생 시 에러를 보정한다. The motor driver delivers control commands to the motor and corrects errors when they occur.

임베디드 컴퓨터는 사용자의 명령을 받아 장비의 데이터 측정 및 계측을 수행하고, 스마트폰의 영상 제어 및 영상 파일을 수집하여 랩탑 컴퓨터에 전송한다. The embedded computer receives the user's command, measures and measures the data of the equipment, and collects video control and video files from the smartphone and transmits them to the laptop computer.

액세스 포인트는 시스템의 구성 장치를 네트워크로 연결한다. The access point connects the components of the system to the network.

파워 디바이스는 제어 장치에 전원을 공급하는 장치로, AC220, DC24 구동 가능하다. The power device is a device that supplies power to the control device and can drive AC220 or DC24.

랩탑 컴퓨터는 운영 프로그램을 내장하며, 사용자의 정보를 받아 시스템에 무선으로 실시간 계측 및 제어를 수행한다. The laptop computer has a built-in operating program, receives user information, and wirelessly measures and controls the system in real time.

배터리 및 충전기는 유선 전원이 없는 장소에서 장비를 사용하기 위해 구비되며, 최대 기설정 시간(예: 5시간)으로 구동된다. Batteries and chargers are provided to use the equipment in places without wired power, and run for a maximum preset time (eg 5 hours).

도 16은 본 발명의 실시예에 따른 데이터 흐름을 도시한다. 16 shows data flow according to an embodiment of the present invention.

점선으로 도시한 것은 무선 연결을, 실선으로 도시한 것은 유선 연결을 의미한다.A dotted line indicates a wireless connection, and a solid line indicates a wired connection.

도 16의 검은색 선은 제어 신호를, 파란색 선은 유선 LAN을 통한 데이터 흐름을, 붉은색 선은 파워 신호를, 보라색 선은 와이파이를 통한 데이터 흐름을 도시한다. 16, a black line shows a control signal, a blue line shows data flow through a wired LAN, a red line shows a power signal, and a purple line shows data flow through Wi-Fi.

데이터 획득 장치와 임베디드 컴퓨터는 액세스 포인트와 유선 LAN으로 연결된다. The data acquisition device and the embedded computer are connected to the access point and wired LAN.

파워 디바이스는 AC 220V 또는 배터리 전원을 이용하여, 모터 드라이버, 데이터 획득 장치, 액세스 포인트, 임베디드 컴퓨터에 전원을 인가한다. The power device supplies power to the motor driver, data acquisition device, access point, and embedded computer using AC 220V or battery power.

모터 드라이버는 데이터 획득 장치로 제어 신호를 전송한다. The motor driver sends control signals to the data acquisition device.

액세스 포인트는 스마트폰과 랩탑 컴퓨터와 와이파이 통신을 통해 연결된다. The access point is connected via Wi-Fi communication with smartphones and laptop computers.

제어 명령은 모터 드라이버와 데이터 획득 장치 간에 전송되고, 데이터 획득장치와 임베디드 컴퓨터는 유선 랜으로, 임베디드 컴퓨터와 랩탑 컴퓨터는 와이파이 통신을 통해 데이터를 송수신한다. Control commands are transmitted between the motor driver and the data acquisition device, and the data acquisition device and the embedded computer transmit and receive data through a wired LAN, and the embedded computer and the laptop computer through Wi-Fi communication.

영상 데이터는 스마트폰과 임베디드 컴퓨터, 임베디드 컴퓨터와 랩탑 컴퓨터 간에 와이파이 통신을 통해 송수신된다. Image data is transmitted and received through Wi-Fi communication between the smart phone and the embedded computer, and between the embedded computer and the laptop computer.

도 17은 본 발명의 실시예에 따른 이미지 머징 과정을 도시한다. 17 illustrates an image merging process according to an embodiment of the present invention.

본 발명의 실시예에 따르면, 머징 시작 후 머징 이미지 경로 정보를 수신하면 이미지 머징(분석 프로그램에 의한 이미지 좌표정보 수신), 오류 확인(머징 완료 이미지의 결과 판정, 오류 시 사용자 인터페이스를 통한 편집 기능 제공), 미리 보기(순차적 머징 이미지를 압축 저장하여 미리 보기용 이미지를 디스플레이함), 사용자 편집 과정(오류 확인 시 사용자가 편집을 원하는 경우 사용자 제어로 이미지 머징, 후처리 수행)을 반복하고, 머징을 종료한다(이미지를 압축 저장하고, 손상탐지 모듈을 위한 분할 이미지를 저장한다). 즉, 이미지 머징 프로그램은 진행률과 현재 머징된 이미지의 압축 이미지를 사용자에게 제공하고, 머징에 오류가 있을 시 사용자 인터페이스를 통해 핸들링 기능을 제공한다. According to an embodiment of the present invention, when merging image path information is received after merging starts, image merging (receiving image coordinate information by an analysis program), error checking (determination of result of merging completed image, providing editing function through user interface in case of error) ), preview (sequential merging images are compressed and saved to display images for preview), and user editing processes (image merging and post-processing are performed under user control if the user wants to edit when checking an error), and merging is performed. End (images are compressed and saved, and split images for the damage detection module are saved). That is, the image merging program provides a progress rate and a compressed image of a currently merged image to the user, and provides a handling function through a user interface when there is an error in merging.

한편, 본 발명의 실시예에 따른 이미지 획득 자동 제어 기반 손상탐지 방법은 컴퓨터 시스템에서 구현되거나, 또는 기록매체에 기록될 수 있다. 컴퓨터 시스템은 적어도 하나 이상의 프로세서와, 메모리와, 사용자 입력 장치와, 데이터 통신 버스와, 사용자 출력 장치와, 저장소를 포함할 수 있다. 전술한 각각의 구성 요소는 데이터 통신 버스를 통해 데이터 통신을 한다.Meanwhile, the damage detection method based on automatic image acquisition control according to an embodiment of the present invention may be implemented in a computer system or recorded on a recording medium. A computer system may include at least one processor, a memory, a user input device, a data communication bus, a user output device, and a storage. Each of the aforementioned components communicates data through a data communication bus.

컴퓨터 시스템은 네트워크에 커플링된 네트워크 인터페이스를 더 포함할 수 있다. 프로세서는 중앙처리 장치(central processing unit (CPU))이거나, 혹은 메모리 및/또는 저장소에 저장된 명령어를 처리하는 반도체 장치일 수 있다. The computer system may further include a network interface coupled to the network. The processor may be a central processing unit (CPU) or a semiconductor device that processes instructions stored in memory and/or storage.

메모리 및 저장소는 다양한 형태의 휘발성 혹은 비휘발성 저장매체를 포함할 수 있다. 예컨대, 메모리는 ROM 및 RAM을 포함할 수 있다.The memory and storage may include various types of volatile or non-volatile storage media. For example, memory may include ROM and RAM.

따라서, 본 발명의 실시예에 따른 이미지 획득 자동 제어 기반 손상탐지 방법은 컴퓨터에서 실행 가능한 방법으로 구현될 수 있다. 본 발명의 실시예에 따른 이미지 획득 자동 제어 기반 손상탐지 방법이 컴퓨터 장치에서 수행될 때, 컴퓨터로 판독 가능한 명령어들이 본 발명에 따른 이미지 획득 자동 제어 기반 손상탐지 방법을 수행할 수 있다.Accordingly, the damage detection method based on the automatic control of image acquisition according to an embodiment of the present invention may be implemented as a computer-executable method. When the damage detection method based on automatic image acquisition control according to an embodiment of the present invention is executed in a computer device, computer readable instructions may perform the damage detection method based on automatic image acquisition control according to the present invention.

한편, 상술한 본 발명에 따른 이미지 획득 자동 제어 기반 손상탐지 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.Meanwhile, the damage detection method based on automatic image acquisition control according to the present invention described above can be implemented as computer readable code on a computer readable recording medium. Computer-readable recording media includes all types of recording media in which data that can be decoded by a computer system is stored. For example, there may be read only memory (ROM), random access memory (RAM), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, and the like. In addition, the computer-readable recording medium may be distributed in computer systems connected through a computer communication network, and stored and executed as readable codes in a distributed manner.

Claims (10)

(a) 자동 제어에 기초하여 이미지를 획득하는 단계;
(b) 유사손상객체를 이용하여 손상 이미지 데이터를 구축하는 단계; 및
(c) 딥러닝 모델을 이용하여 콘크리트의 균열, 망상균열, 박락, 파손, 철근노출, 재료분리, 백태와, 강재의 부식, 도막박리 중 적어도 어느 하나의 손상을 탐지하는 단계를 포함하고,
상기 (b) 단계는 손상별로 상기 유사손상객체의 이미지를 수집하고, 상기 유사손상객체가 존재하는 이미지에 손상 객체를 합성하여 합성 학습 데이터를 구축하는 것
인 이미지 획득 자동 제어 기반 손상탐지 방법.

(a) acquiring an image based on automatic control;
(b) constructing damaged image data using similarly damaged objects; and
(c) detecting damage of at least one of concrete cracks, network cracks, exfoliation, damage, exposure of reinforcing bars, material separation, efflorescence, corrosion of steel materials, and peeling of paint using a deep learning model;
The step (b) is to collect the image of the similarly damaged object for each damage, and to construct synthetic learning data by synthesizing the damaged object with the image in which the similarly damaged object exists.
In-image acquisition automatic control-based damage detection method.

제1항에 있어서,
상기 (a) 단계는 콘크리트 내구성 및 수밀성을 고려하여 기설정 거리로부터 손상폭 0.1mm 이하의 식별이 가능한 고해상도 이미지를 획득하는 것
인 이미지 획득 자동 제어 기반 손상탐지 방법.
According to claim 1,
Step (a) is to obtain a high-resolution image capable of identifying a damage width of 0.1 mm or less from a preset distance in consideration of concrete durability and watertightness
In-image acquisition automatic control-based damage detection method.
제1항에 있어서,
상기 (a) 단계는 포커싱 정보, 촬영 거리 정보, 촬영 각도 정보, 현재 위치 정보를 포함하는 촬영 정보를 획득하는 것
인 이미지 획득 자동 제어 기반 손상탐지 방법.
According to claim 1,
Step (a) is to obtain photographing information including focusing information, photographing distance information, photographing angle information, and current location information.
In-image acquisition automatic control-based damage detection method.
제3항에 있어서,
상기 (a) 단계는 상기 촬영 거리 정보 및 촬영 각도 정보를 이용하여 이미지 스티칭을 수행하되, 연결 대상 이미지에서 특징점을 매칭시키고, 매칭 정보를 이용하여 이미지 간의 뒤틀림 여부를 판단하여 뒤틀림 정보를 산출하고, 상기 뒤틀림 정보를 역산하고 이미지 픽셀을 재배치하여 이미지 사이 빈 공간에 인근 이미지의 평균값을 채우고, 정합된 이미지를 명도의 평균값을 이용하여 보정한 후 기설정 픽셀 크기로 잘라 저장하는 것
인 이미지 획득 자동 제어 기반 손상탐지 방법.
According to claim 3,
In the step (a), image stitching is performed using the photographing distance information and photographing angle information, matching feature points in the image to be connected, and calculating distortion information by determining distortion between images using matching information, Inversely calculating the distortion information, rearranging the image pixels, filling the empty space between the images with the average value of neighboring images, correcting the matched image using the average value of brightness, and then cutting and storing the image to a predetermined pixel size.
In-image acquisition automatic control-based damage detection method.
삭제delete 제1항에 있어서,
상기 (b) 단계는 손상 후보 탐지 결과를 이용하여 라벨링을 수행하고, 표시된 손상 후보에 대한 피드백을 이용하여 학습 데이터를 구축하는 것
인 이미지 획득 자동 제어 기반 손상탐지 방법.
According to claim 1,
In step (b), labeling is performed using the damage candidate detection result, and training data is constructed using feedback on the displayed damage candidate.
In-image acquisition automatic control-based damage detection method.
제1항에 있어서,
상기 (c) 단계는 세그멘테이션 기반 인공지능 모델을 이용하여, 복수의 손상 탐지 모델을 병렬로 활용하여 손상탐지를 수행하는 것
인 이미지 획득 자동 제어 기반 손상탐지 방법.
According to claim 1,
The step (c) is to perform damage detection by using a plurality of damage detection models in parallel using a segmentation-based artificial intelligence model.
In-image acquisition automatic control-based damage detection method.
제7항에 있어서,
상기 (c) 단계는 손상 별 유사성에 기초하여 그룹핑을 통해 탐지를 수행하는 것
인 이미지 획득 자동 제어 기반 손상탐지 방법.
According to claim 7,
Step (c) is to perform detection through grouping based on similarity for each damage.
In-image acquisition automatic control-based damage detection method.
제1항에 있어서,
상기 (c) 단계는 선형 손상과 면적형 손상을 구분하여 검출하고, 상기 선형 손상에 대해 손상 픽셀을 결정하고 손상 정보를 픽셀 단위로 계산하며, 상기 면적형 손상에 대해 손상 면적을 픽셀 단위로 계산하는 것
인 이미지 획득 자동 제어 기반 손상탐지 방법.
According to claim 1,
In the step (c), linear damage and area-type damage are separately detected, a damaged pixel is determined for the linear damage, damage information is calculated in units of pixels, and a damage area for the area-type damage is calculated in units of pixels. to do
In-image acquisition automatic control-based damage detection method.
제9항에 있어서,
상기 (c) 단계는 상기 픽셀 단위로 계산된 손상 정보에 대해 촬영 거리 정보 및 영상에서 확인되는 물체의 길이 정보 중 적어도 어느 하나를 이용하여 실제 단위로 변환하여 실단위 손상 정보를 정량화하는 것
인 이미지 획득 자동 제어 기반 손상탐지 방법.
According to claim 9,
The step (c) quantifies the damage information in real units by converting the damage information calculated in units of pixels into actual units using at least one of shooting distance information and length information of an object identified in the image.
In-image acquisition automatic control-based damage detection method.
KR1020220078156A 2022-06-27 2022-06-27 Damage detection method based on automatic image acquisition control KR102555009B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220078156A KR102555009B1 (en) 2022-06-27 2022-06-27 Damage detection method based on automatic image acquisition control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220078156A KR102555009B1 (en) 2022-06-27 2022-06-27 Damage detection method based on automatic image acquisition control

Publications (1)

Publication Number Publication Date
KR102555009B1 true KR102555009B1 (en) 2023-07-12

Family

ID=87163706

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220078156A KR102555009B1 (en) 2022-06-27 2022-06-27 Damage detection method based on automatic image acquisition control

Country Status (1)

Country Link
KR (1) KR102555009B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101569193B1 (en) * 2015-06-05 2015-11-13 주식회사 케이엠티엘 Crack measuring device for long distance and crack measuring method using same
KR102149682B1 (en) * 2020-04-07 2020-08-31 (재)한국건설품질연구원 Facility inspection system
KR102202572B1 (en) * 2019-11-25 2021-01-12 서울시립대학교 산학협력단 road crack assessment method and system using drone image and artificial intelligent algorithm
KR20210089365A (en) * 2020-01-08 2021-07-16 한국건설기술연구원 System and method for detecting structure damage using artificial intelligence, and a recording medium having computer readable program for executing the method
KR102346676B1 (en) * 2021-07-23 2022-01-03 주원씨엔시 주식회사 Method for creating damage figure using the deep learning-based damage image classification of facility

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101569193B1 (en) * 2015-06-05 2015-11-13 주식회사 케이엠티엘 Crack measuring device for long distance and crack measuring method using same
KR102202572B1 (en) * 2019-11-25 2021-01-12 서울시립대학교 산학협력단 road crack assessment method and system using drone image and artificial intelligent algorithm
KR20210089365A (en) * 2020-01-08 2021-07-16 한국건설기술연구원 System and method for detecting structure damage using artificial intelligence, and a recording medium having computer readable program for executing the method
KR102149682B1 (en) * 2020-04-07 2020-08-31 (재)한국건설품질연구원 Facility inspection system
KR102346676B1 (en) * 2021-07-23 2022-01-03 주원씨엔시 주식회사 Method for creating damage figure using the deep learning-based damage image classification of facility

Similar Documents

Publication Publication Date Title
CN113424206B (en) Machine learning tool for structure
Kopsida et al. A review of automated construction progress monitoring and inspection methods
CN105956942B (en) Machine vision-based quality detection method and device for electric power pipe gallery reinforcing mesh
CN111931565B (en) Autonomous inspection and hot spot identification method and system based on photovoltaic power station UAV
Liu et al. A survey of applications with combined BIM and 3D laser scanning in the life cycle of buildings
US8467049B2 (en) Manhole modeler using a plurality of scanners to monitor the conduit walls and exterior
CN114845924B (en) Method for the on-site and real-time collection and processing of geometric parameters of a railway line
JP6867815B2 (en) Inspection equipment and inspection method
CN113091667B (en) Inspection robot and inspection method
CN109491408A (en) A kind of unmanned plane can be used for doors structure detection
KR102555009B1 (en) Damage detection method based on automatic image acquisition control
Rolfsen et al. The use of the BIM-model and scanning in quality assurance of bridge constructions
KR102567163B1 (en) System for operating an imaging device, damage analysis and evaluation of structures
KR102556878B1 (en) Concrete facility maintenance system that performs condition evaluation using drones based on autonomous flight in shaded areas
Attard et al. A comprehensive virtual reality system for tunnel surface documentation and structural health monitoring
KR102539835B1 (en) System for digital twin generation and damage analysis using 3d camera
Mitra et al. A UAV Payload for Real-time Inspection of Highway Ancillary Structures
WO2020239088A1 (en) Insurance claim processing method and apparatus
CN114923913A (en) Production defect detection system and method
Furtner et al. Automated infrastructure inspection based on digital twins and machine learning
CN113885504A (en) Autonomous inspection method and system for train inspection robot and storage medium
CN209215943U (en) A kind of unmanned plane can be used for doors structure detection
KR102416275B1 (en) the verification standard chart of photographing apparatus for facilities inspecting drone and the method of evaluating photographing performance using the same
US11995841B2 (en) Four-dimensional crane rail measurement systems
Buatik et al. Image-based multiview change detection in concrete structures

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant