KR102559586B1 - Structural appearance inspection system and method using artificial intelligence - Google Patents

Structural appearance inspection system and method using artificial intelligence Download PDF

Info

Publication number
KR102559586B1
KR102559586B1 KR1020220133315A KR20220133315A KR102559586B1 KR 102559586 B1 KR102559586 B1 KR 102559586B1 KR 1020220133315 A KR1020220133315 A KR 1020220133315A KR 20220133315 A KR20220133315 A KR 20220133315A KR 102559586 B1 KR102559586 B1 KR 102559586B1
Authority
KR
South Korea
Prior art keywords
damage
image
damaged area
identification code
inspection
Prior art date
Application number
KR1020220133315A
Other languages
Korean (ko)
Inventor
김종우
정영우
이성민
이정근
안휘순
Original Assignee
(주)유디엔에스
롯데건설 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)유디엔에스, 롯데건설 주식회사 filed Critical (주)유디엔에스
Priority to KR1020220133315A priority Critical patent/KR102559586B1/en
Application granted granted Critical
Publication of KR102559586B1 publication Critical patent/KR102559586B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06018Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking one-dimensional coding
    • G06K19/06028Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking one-dimensional coding using bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Data Mining & Analysis (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Toxicology (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biochemistry (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

본 발명은 인공지능을 이용한 구조물 외관 점검 시스템 및 방법을 공개한다. 본 발명은 구조물의 손상을 점검하기 위해서 카메라로 손상 영역을 촬영하여 손상 점검 이미지를 생성하면, 손상 점검 이미지에 사전에 학습된 인공지능 분류 엔진을 적용하여 손상의 종류를 분류한다. 그리고, 각 손상 종류별로, 각 손상 종류에 대응되는 손상 이미지들로 사전에 학습된 인공지능 손상 검출 엔진을 이용하여, 손상 점검 이미지를 분석하여 손상의 형태 및 손상의 크기 등을 검출함으로써, 손상 점검 및 분석에 소요되는 인력, 시간 및 비용을 현저하게 감소시켜, 효율적인 손상 점검이 가능하다. 또한, 본 발명은 점검자가 손상 점검 이미지를 촬영할 때, 사전에 크기가 확정된 손상 식별 코드를 손상 부분 옆에 부착하고 손상 이미지를 촬영하도록 안내하며, 손상 식별 코드가 포함된 손상 점검 이미지가 생성되면, 손상 식별 코드의 크기를 이용하여 카메라의 픽셀분해능 등의 파라미터를 계산함으로써, 보다 정확한 손상 분석이 가능하다.The present invention discloses a structure exterior inspection system and method using artificial intelligence. In the present invention, when a damage inspection image is generated by photographing a damaged area with a camera to inspect damage to a structure, the type of damage is classified by applying a pre-learned artificial intelligence classification engine to the damage inspection image. In addition, by using an AI damage detection engine pre-learned from damage images corresponding to each damage type for each damage type, the damage inspection image is analyzed to detect the type and size of the damage, thereby significantly reducing the manpower, time, and cost required for damage inspection and analysis, enabling efficient damage inspection. In addition, according to the present invention, when an inspector captures a damage inspection image, a damage identification code whose size has been determined in advance is attached to the side of the damaged part and guided to take the damaged image. When a damage inspection image including the damage identification code is generated, parameters such as pixel resolution of a camera are calculated using the size of the damage identification code, thereby enabling more accurate damage analysis.

Description

인공지능을 이용한 구조물 외관 점검 시스템 및 방법{Structural appearance inspection system and method using artificial intelligence}Structure appearance inspection system and method using artificial intelligence {Structural appearance inspection system and method using artificial intelligence}

본 발명은 구조물 외관 점검 시스템 및 방법에 관한 것으로서, 보다 구체적으로는 인공지능을 이용한 구조물 외관 점검 시스템 및 방법에 관한 것이다.The present invention relates to a structure exterior inspection system and method, and more particularly to a structure exterior inspection system and method using artificial intelligence.

최근 사회 기반 구조물의 노후화로 인하여 안전 점검 및 유지관리에 대한 관심이 급증하고 있다. 특히 콘크리트 구조물의 경우, 균열에 의한 내구성저하를 억제하기 위해서는, 허용 균열폭을 설정함으로써 보수를 필요로 하는 균열폭을 제한하는 것이 필요하다.Recently, due to the aging of social infrastructure, interest in safety inspection and maintenance is rapidly increasing. In particular, in the case of concrete structures, in order to suppress durability deterioration due to cracking, it is necessary to limit the crack width requiring repair by setting an allowable crack width.

이렇듯, 사회 기반 구조물의 수명관리와 안전성 확보를 위해서는 균열폭과 같은 외관 안전 점검을 보다 효과적으로 수행하여, 적시 적소에 유지보수를 수행하는 것이 중요하다. 그러나, 기존의 구조물 외관점검 기술은 대부분 인력에 의존하고 있으며, 점검자가 대상 구조물에 접근하여 크랙경이나 변위계 등을 이용하여 표면을 검사하고, 측정된 수치를 도면에 일일이 기록하여 육안조사망도를 생성해야 하는 불편함이 있다.As such, it is important to perform maintenance at the right place in a timely manner by more effectively performing exterior safety inspections such as crack width in order to manage life span and secure safety of social infrastructure. However, most of the existing structure exterior inspection technologies rely on manpower, and the inspector approaches the target structure, inspects the surface using a crack diameter or displacement gauge, and records the measured values on a drawing to create a visual survey network. There is an inconvenience.

또한, 고도가 높은 지역의 경우, 드론이나 디지털 카메라를 활용하는 경우가 있으나, 점검 대상 표면에 근접하여 카메라로 촬영하여 표면의 이미지를 획득하는 수준에 그치고 있다. 따라서, 육안조사망도 작성을 위하여 현장에서 촬영된 구조물 표면 이미지로부터 손상의 검출을 위해서, 점검자가 촬영한 이미지를 모두 일일이 확인해야 한다.In addition, in the case of high-altitude areas, there are cases where drones or digital cameras are used, but they are limited to acquiring images of the surface by taking pictures with cameras close to the surface to be inspected. Therefore, in order to detect damage from the surface image of a structure photographed in the field to create a visual survey network map, the inspector must check all the images taken one by one.

또한, 촬영된 이미지로부터 손상을 검출했다 하더라도, 손상의 길이나 폭이 이미지의 픽셀 단위로만 산정이 가능하여 손상의 정량화가 불가능하며, 촬영 이미지가 다수인 경우에는 촬영된 지점에 대한 설계 도면 연계가 어려워, 단순한 촬영기법을 적용한 육안 점검은 한계점이 존재한다.In addition, even if damage is detected from a photographed image, it is impossible to quantify the damage because the length or width of the damage can be calculated only in pixel units of the image, and when there are many photographed images, it is difficult to link the design drawings to the photographed points. Visual inspection using a simple photographing technique has limitations.

본 발명이 해결하고자 하는 과제는, 기존 구조물 외관 안전 점검이 지니는 인력적, 시간적 한계를 극복하여 기존 점검 및 조사에 소요되는 막대한 인력과 시간과 비용을 절감하여 구조물의 외관 점검을 효과적으로 수행할 수 있도록 하는 인공지능을 이용한 구조물 외관 점검 시스템 및 방법을 제공하는 것이다.The problem to be solved by the present invention is to overcome the manpower and time limitations of the exterior safety inspection of existing structures, thereby reducing the enormous manpower, time, and cost required for existing inspections and investigations to effectively perform exterior inspections of structures. It is to provide a structure exterior inspection system and method using artificial intelligence.

상술한 과제를 해결하기 위한 본 발명의 바람직한 실시예에 따른 구조물 외관 점검 방법은, 점검자 단말 및 구조물 외관 점검 장치에서 수행되는 구조물 외관 점검 방법으로서, (a) 상기 점검자 단말이 구조물의 손상 영역을 촬영하여, 손상 점검 이미지를 획득하고 상기 구조물 외관 점감 장치로 전송하는 단계; (b) 상기 구조물 외관 점검 장치가, 상기 손상 점검 이미지를, 사전에 학습된 인공지능 분류 엔진에 적용하여 손상의 종류를 분류하는 단계; (c) 상기 구조물 외관 점검 장치가, 상기 손상 점검 이미지를 손상의 종류에 따라서 사전에 학습된 인공지능 손상 검출 엔진에 적용하여, 손상의 형태 및 크기를 획득하는 단계; 및 (d) 상기 구조물 외관 점검 장치가, 상기 손상 점검 이미지에, 검출된 손상의 형태 및 크기를 오버레이하여 저장하는 단계;를 포함한다.In order to solve the above problems, a method for inspecting the external appearance of a structure according to a preferred embodiment of the present invention is a method for inspecting the external appearance of a structure performed by an inspector terminal and a structure external inspection device, comprising: (a) the inspector terminal photographing a damaged area of a structure, acquiring a damage inspection image and transmitting the image to the structure external diminishing device; (b) classifying, by the structure exterior inspection device, the type of damage by applying the damage inspection image to a pre-learned artificial intelligence classification engine; (c) obtaining the shape and size of the damage by applying the damage inspection image to a pre-learned artificial intelligence damage detection engine according to the type of damage, by the apparatus for inspecting the external appearance of the structure; and (d) overlaying and storing the shape and size of the detected damage on the damage inspection image, by the apparatus for inspecting the appearance of the structure.

또한, 상기 (a) 단계는, (a2) 사전에 정의된 크기의 손상 식별 코드가 구조물의 손상 영역에 주변에 부착된 후 카메라를 활성화하면, 상기 점검자 단말의 하드웨어 파라미터를 이용하여 유효 목표 촬영 거리를 계산하고, 카메라를 통해서 입력되는 상기 손상 식별 코드의 이미지와 상기 하드웨어 파라미터를 이용하여 실제 촬영 거리를 계산하여, 상기 실제 촬영 거리가 상기 유효 목표 촬영거리 이하가 되도록 점검자에게 가이드하여, 실제 촬영 거리가 상기 유효 목표 촬영거리 이하가 되면 상기 손상 점검 이미지를 획득하는 단계를 포함할 수 있ㅆ다.In addition, in the step (a), (a2) when a damage identification code having a predefined size is attached to the damaged area of the structure and then activating the camera, calculating an effective target shooting distance using the hardware parameters of the inspector's terminal, calculating an actual shooting distance using the image of the damage identification code input through the camera and the hardware parameters, guiding the inspector so that the actual shooting distance is less than or equal to the effective target shooting distance, and acquiring the damage inspection image when the actual shooting distance becomes less than or equal to the effective target shooting distance I can do it.

또한, 상기 (a) 단계는 상기 (a2) 단계 이전에, (a1) 구조물의 손상 영역에 손상 식별 코드가 부착된 후, 카메라가 활성화되면, 상기 점검자 단말이 부착된 손상 식별 코드로부터 손상 관리 번호를 인식하고, 점검자로부터 구조물의 식별 정보와 구조물의 구조 도면상 손상 영역의 위치를 입력받아 상기 구조물 외관 점검 장치로 전송하며, 상기 구조물 외관 점검 장치가 상기 손상 관리 번호와 상기 구조물 식별 정보 및 손상 영역의 위치를 서로 연계하여 저장하는 단계를 더 포함할 수 있다.In addition, the step (a) may further include, prior to the step (a2), (a1), when a camera is activated after a damage identification code is attached to the damaged area of the structure, recognizing a damage management number from the damage identification code attached to the inspector's terminal, receiving structure identification information and the location of the damaged area on the structure drawing from the inspector, and transmitting the information to the structure exterior inspection device, and the structure exterior inspection device storing the damage management number, the structure identification information, and the location of the damaged area in association with each other.

또한, 상기 (c) 단계는, (c1) 상기 손상 점검 이미지에서 노이즈를 제거하고 명도를 조절하여 전처리를 수행하는 단계; (c2) 상기 손상 점검 이미지에서 상기 손상 식별 코드를 검출하고, 상기 손상 식별 코드를 이진화 후, 손상 식별 코드에 대응되는 픽셀을 카운트하여 물리적 크기 대비 이미지의 픽셀분해능을 계산하는 단계; (c3) 상기 인공지능 손상 검출 엔진을 이용하여 전처리된 이미지로부터 세그먼테이션(Segmentation)을 수행하여 손상 영역을 검출하는 단계; (c4) 상기 손상 점검 이미지에서 손상 영역을 추출하고 이진화하여 손상 영역 이진화 이미지를 생성하는 단계; 및 (c5) 손상 영역 이진화 이미지에 모폴로지 알고리즘을 적용하여, 손상의 형태 및 손상의 길이, 폭 및 넓이 중 적어도 하나를 포함하는 손상의 크기를 획득하는 단계;를 포함할 수 있다.In addition, the step (c) may include: (c1) performing preprocessing by removing noise from the damage inspection image and adjusting brightness; (c2) detecting the damage identification code in the damage detection image, binarizing the damage identification code, and counting pixels corresponding to the damage identification code to calculate a pixel resolution of the image compared to the physical size; (c3) detecting a damaged area by performing segmentation on the preprocessed image using the artificial intelligence damage detection engine; (c4) generating a binary image of the damaged area by extracting and binarizing the damaged area from the damage inspection image; and (c5) applying a morphology algorithm to the binarized image of the damaged region to obtain a shape of the damage and a size of the damage including at least one of the length, width, and width of the damage.

또한, 상기 (c5) 단계는, 상기 손상 영역 이진화 이미지에 대해서 유클리디안 거리 변환 알고리즘을 적용하여 유클리디안 거리 변환 이미지를 구하고, 상기 손상 영역 이진화 이미지에 대해서 골격화 알고리즘을 적용하여 골격화 이미지를 구한 후, 상기 유클리디안 거리 변환 이미지와 골격화 이미지의 서로 대응되는 픽셀별로 픽셀값을 서로 곱하고 스케일링 팩터를 곱하여 균열 손상 이미지를 생성하고, 상기 이진화 이미지, 상기 골격화 이미지 및 상기 균열 손상 이미지를 이용하여 상기 손상의 길이, 폭 및 넓이를 획득할 수 있다.In addition, in the step (c5), a Euclidean distance transformation image is obtained by applying a Euclidean distance transformation algorithm to the damaged area binarization image, a skeletonization algorithm is applied to the damaged area binarization image to obtain a skeleton image, pixel values of the Euclidean distance transformation image and the skeletonization image are multiplied by pixel values corresponding to each other and a scaling factor is multiplied to generate a crack damage image, and a crack damage image is generated using the binarization image, the skeleton image, and the crack damage image. You can get length, width and area.

또한, 상기 (c5) 단계는, 상기 바이너리 이미지에서 손상 영역으로 표시된 픽셀들의 수를 이용하여 손상의 넓이를 획득하고, 상기 골격화 이미지에서 손상 영역으로 표시된 픽셀들의 수를 이용하여 손상의 길이를 획득하며, 상기 균열 손상 이미지에서의 최대 픽셀값을 이용하여 손상의 폭을 획득할 수 있다.In addition, in the step (c5), the extent of the damage is obtained using the number of pixels indicated as the damaged area in the binary image, the length of the damage is obtained using the number of pixels indicated as the damaged area in the skeleton image, and the width of the damage can be obtained using the maximum pixel value in the crack damage image.

또한, 상기 (d) 단계는, 상기 손상 점검 이미지에, 상기 손상 이미지와 상기 손상의 크기를 오버레이하여 저장할 수 있다.In the step (d), the damage image and the size of the damage may be overlaid and stored on the damage inspection image.

한편, 상술한 과제를 해결하기 위한 본 발명의 바람직한 다른 실시예에 따른 컴퓨터 프로그램은, 비일시적 저장매체에 저장되고, 프로세서를 포함하는 컴퓨터에서 실행되어, 상기한 구조물 외관 점검 방법을 수행한다. Meanwhile, a computer program according to another preferred embodiment of the present invention for solving the above problems is stored in a non-temporary storage medium, and is executed in a computer including a processor to perform the above structure external inspection method.

한편, 상술한 과제를 해결하기 위한 본 발명의 바람직한 다른 실시예에 따른 구조물 외관 점검 장치는, 프로세서 및 소정의 명령어들을 저장하는 메모리를 포함하는 구조물 외관 점검 장치로서, 상기 메모리에 저장된 명령어들을 실행한 상기 프로세서는 (a) 구조물의 손상 영역을 촬영하여 생성된 손상 점검 이미지를 점검자 단말로부터 수신하는 단계; (b) 상기 손상 점검 이미지를, 사전에 학습된 인공지능 분류 엔진에 적용하여 손상의 종류를 분류하는 단계; (c) 상기 손상 점검 이미지를 손상의 종류에 따라서 사전에 학습된 인공지능 손상 검출 엔진에 적용하여, 손상의 형태 및 크기를 획득하는 단계; 및 (d) 상기 손상 점검 이미지에, 검출된 손상의 형태 및 크기를 오버레이하여 저장하는 단계;를 수행한다.On the other hand, an apparatus for external appearance inspection of a structure according to another preferred embodiment of the present invention for solving the above problems is an apparatus for inspecting external appearance of a structure including a processor and a memory for storing predetermined instructions, wherein the processor executing the instructions stored in the memory performs the steps of (a) receiving a damage inspection image generated by photographing a damaged area of a structure from an inspector terminal; (b) classifying the type of damage by applying the damage inspection image to a pre-learned artificial intelligence classification engine; (c) obtaining the shape and size of the damage by applying the damage inspection image to an artificial intelligence damage detection engine trained in advance according to the type of damage; and (d) overlaying and storing the shape and size of the detected damage on the damage inspection image.

또한, 상기 (a) 단계는, (a2) 사전에 정의된 크기의 손상 식별 코드가 구조물의 손상 영역에 주변에 부착된 후 카메라를 활성화하면, 상기 점검자 단말의 하드웨어 파라미터를 이용하여 유효 목표 촬영 거리를 계산하고, 카메라를 통해서 입력되는 상기 손상 식별 코드의 이미지와 상기 하드웨어 파라미터를 이용하여 실제 촬영 거리를 계산하여, 상기 실제 촬영 거리가 상기 유효 목표 촬영거리 이하가 되도록 점검자에게 가이드하여, 실제 촬영 거리가 상기 유효 목표 촬영거리 이하가 되면 상기 손상 점검 이미지를 획득하는 단계를 포함할 수 있다.In addition, in the step (a), (a2) when a damage identification code having a predefined size is attached to the damaged area of the structure and then activating the camera, calculating an effective target shooting distance using the hardware parameters of the inspector's terminal, calculating an actual shooting distance using the image of the damage identification code input through the camera and the hardware parameters, guiding the inspector so that the actual shooting distance is less than or equal to the effective target shooting distance, and acquiring the damage inspection image when the actual shooting distance becomes less than or equal to the effective target shooting distance You can.

또한, 상기 프로세서는, 상기 (a2) 단계 이전에, (a1) 구조물의 손상 영역에 손상 식별 코드가 부착된 후, 카메라가 활성화되면, 상기 점검자 단말이 부착된 손상 식별 코드로부터 손상 관리 번호를 인식하고, 점검자로부터 구조물의 식별 정보와 구조물의 구조 도면상 손상 영역의 위치를 입력받아 상기 구조물 외관 점검 장치로 전송하며, 상기 구조물 외관 점검 장치가 상기 손상 관리 번호와 상기 구조물 식별 정보 및 손상 영역의 위치를 서로 연계하여 저장하는 단계를 더 수행할 수 있다.In addition, before the step (a2), the processor may further perform (a1), when a damage identification code is attached to the damaged area of the structure and the camera is activated, recognizes a damage management number from the damage identification code attached to the inspector's terminal, receives structure identification information and the location of the damaged area on the structural drawing of the structure from the inspector, and transmits the input to the structure exterior inspection device, and the structure exterior inspection device stores the damage management number, the structure identification information, and the location of the damaged area in association with each other.

또한, 상기 (c) 단계는, (c1) 상기 손상 점검 이미지에서 노이즈를 제거하고 명도를 조절하여 전처리를 수행하는 단계; (c2) 상기 손상 점검 이미지에서 상기 손상 식별 코드를 검출하고, 상기 손상 식별 코드를 이진화 후, 손상 식별 코드에 대응되는 픽셀을 카운트하여 물리적 크기 대비 이미지의 픽셀분해능을 계산하는 단계; (c3) 상기 인공지능 손상 검출 엔진을 이용하여 전처리된 이미지로부터 세그먼테이션(Segmentation)을 수행하여 손상 영역을 검출하는 단계; (c4) 상기 손상 점검 이미지에서 손상 영역을 추출하고 이진화하여 손상 영역 이진화 이미지를 생성하는 단계; 및 (c5) 손상 영역 이진화 이미지에 모폴로지 알고리즘을 적용하여, 손상의 형태 및 손상의 길이, 폭 및 넓이 중 적어도 하나를 포함하는 손상의 크기를 획득하는 단계;를 포함할 수 있다.In addition, the step (c) may include: (c1) performing preprocessing by removing noise from the damage inspection image and adjusting brightness; (c2) detecting the damage identification code in the damage detection image, binarizing the damage identification code, and counting pixels corresponding to the damage identification code to calculate a pixel resolution of the image compared to the physical size; (c3) detecting a damaged area by performing segmentation on the preprocessed image using the artificial intelligence damage detection engine; (c4) generating a binary image of the damaged area by extracting and binarizing the damaged area from the damage inspection image; and (c5) applying a morphology algorithm to the binarized image of the damaged region to obtain a shape of the damage and a size of the damage including at least one of the length, width, and width of the damage.

또한, 상기 (c5) 단계는, 상기 손상 영역 이진화 이미지에 대해서 유클리디안 거리 변환 알고리즘을 적용하여 유클리디안 거리 변환 이미지를 구하고, 상기 손상 영역 이진화 이미지에 대해서 골격화 알고리즘을 적용하여 골격화 이미지를 구한 후, 상기 유클리디안 거리 변환 이미지와 골격화 이미지의 서로 대응되는 픽셀별로 픽셀값을 서로 곱하고 스케일링 팩터를 곱하여 균열 손상 이미지를 생성하고, 상기 이진화 이미지, 상기 골격화 이미지 및 상기 균열 손상 이미지를 이용하여 상기 손상의 길이, 폭 및 넓이를 획득할 수 있다.In addition, in the step (c5), a Euclidean distance transformation image is obtained by applying a Euclidean distance transformation algorithm to the damaged area binarization image, a skeletonization algorithm is applied to the damaged area binarization image to obtain a skeleton image, pixel values of the Euclidean distance transformation image and the skeletonization image are multiplied by pixel values corresponding to each other and a scaling factor is multiplied to generate a crack damage image, and a crack damage image is generated using the binarization image, the skeleton image, and the crack damage image. You can get length, width and area.

또한, 상기 (c5) 단계는, 상기 바이너리 이미지에서 손상 영역으로 표시된 픽셀들의 수를 이용하여 손상의 넓이를 획득하고, 상기 골격화 이미지에서 손상 영역으로 표시된 픽셀들의 수를 이용하여 손상의 길이를 획득하며, 상기 균열 손상 이미지에서의 최대 픽셀값을 이용하여 손상의 폭을 획득할 수 있다.In addition, in the step (c5), the extent of the damage is obtained using the number of pixels indicated as the damaged area in the binary image, the length of the damage is obtained using the number of pixels indicated as the damaged area in the skeleton image, and the width of the damage can be obtained using the maximum pixel value in the crack damage image.

또한, 상기 (d) 단계는, 상기 손상 점검 이미지에, 상기 손상 이미지와 상기 손상의 크기를 오버레이하여 저장할 수 있다.In the step (d), the damage image and the size of the damage may be overlaid and stored on the damage inspection image.

본 발명은 구조물의 손상을 점검하기 위해서 카메라로 손상 영역을 촬영하여 손상 점검 이미지를 생성하면, 손상 점검 이미지에 사전에 학습된 인공지능 분류 엔진을 적용하여 손상의 종류를 분류한다. 그리고, 각 손상 종류별로, 각 손상 종류에 대응되는 손상 이미지들로 사전에 학습된 인공지능 손상 검출 엔진을 이용하여, 손상 점검 이미지를 분석하여 손상의 형태 및 손상의 크기 등을 검출함으로써, 손상 점검 및 분석에 소요되는 인력, 시간 및 비용을 현저하게 감소시켜, 효율적인 손상 점검이 가능하다.In the present invention, when a damage inspection image is generated by photographing a damaged area with a camera to inspect damage to a structure, the type of damage is classified by applying a pre-learned artificial intelligence classification engine to the damage inspection image. In addition, by using an AI damage detection engine pre-learned from damage images corresponding to each damage type for each damage type, the damage inspection image is analyzed to detect the type and size of the damage, thereby significantly reducing the manpower, time, and cost required for damage inspection and analysis, enabling efficient damage inspection.

또한, 본 발명은 점검자가 손상 점검 이미지를 촬영할 때, 사전에 크기가 확정된 손상 식별 코드를 손상 부분 옆에 부착하고 손상 이미지를 촬영하도록 안내하며, 손상 식별 코드가 포함된 손상 점검 이미지가 생성되면, 손상 식별 코드의 크기를 이용하여 카메라의 픽셀분해능 등의 파라미터를 계산함으로써, 보다 정확한 손상 분석이 가능하다.In addition, according to the present invention, when an inspector captures a damage inspection image, a damage identification code whose size has been determined in advance is attached to the side of the damaged part and guided to take the damaged image. When a damage inspection image including the damage identification code is generated, parameters such as pixel resolution of a camera are calculated using the size of the damage identification code, thereby enabling more accurate damage analysis.

도 1은 본 발명의 바람직한 실시예에 따른 인공지능을 이용한 구조물 외관 점검 시스템의 전체 구성을 도시하는 도면이다.
도 2는 본 발명의 바람직한 실시예에 따른 점검자 단말 및 구조물 외관 점검 장치의 하드웨어적 세부 구성을 도시하는 도면이다.
도 3은 본 발명의 바람직한 실시예에 따른 인공지능을 이용한 구조물 외관 점검 방법을 설명하는 흐름도이다.
도 4a는 외관 점검 대상 구조물을 선택하는 예를 설명하는 도면이고, 도 4b는 선택된 외관 점검 대상 구조물에서 손상 영역의 위치를 선택하는 예를 설명하는 도면이다.
도 5a 및 도 5b는 점검자 단말에서 손상 영역과 손상 식별 코드를 촬영하는 예를 설명하는 도면이다.
도 6은 본 발명의 바람직한 실시예에 따라서 인공지능 모델을 학습하는 방법을 설명하는 도면이다.
도 7은 U-Net 아키텍쳐의 구조를 설명하는 도면이다.
도 8은 본 발명의 바람직한 실시예에 따라서 인공지능 모델을 이용하여 손상을 검출하는 예를 설명하는 도면이다.
도 9는 본 발명의 바람직한 실시예에 따라서 모폴로지 알고리즘을 이용하여 손상 영역의 파라미터를 구하는 프로세스를 설명하는 도면이다.
도 10은 본 발명의 바람직한 실시예에 따라서 손상 영역이 오버레이된 손상 점검 이미지들의 예들을 도시하는 도면이다.
도 11은 본 발명의 바람직한 실시예에 따라서, 메모리에 저장되고, 점검자 단말 및 관리자 단말에 표시되는 손상 관리 데이터의 일 예를 도시하는 도면이다.
도 12는 구조물 외관 점검 장치에서 제공하는 보고서의 예를 도시하는 도면이다.
1 is a diagram showing the overall configuration of a structure exterior inspection system using artificial intelligence according to a preferred embodiment of the present invention.
2 is a diagram showing detailed hardware configurations of an inspector's terminal and a structure external inspection device according to a preferred embodiment of the present invention.
3 is a flowchart illustrating a method for inspecting the exterior of a structure using artificial intelligence according to a preferred embodiment of the present invention.
4A is a view for explaining an example of selecting a structure to be inspected for exterior appearance, and FIG. 4B is a view for explaining an example for selecting a position of a damaged region in a structure to be inspected for exterior appearance.
5A and 5B are diagrams illustrating an example of capturing a damaged area and a damage identification code in an inspector terminal.
6 is a diagram illustrating a method of learning an artificial intelligence model according to a preferred embodiment of the present invention.
7 is a diagram explaining the structure of a U-Net architecture.
8 is a diagram illustrating an example of detecting damage using an artificial intelligence model according to a preferred embodiment of the present invention.
9 is a diagram illustrating a process of obtaining parameters of a damaged area using a morphology algorithm according to a preferred embodiment of the present invention.
FIG. 10 is a diagram showing examples of damage inspection images in which a damaged area is overlaid according to a preferred embodiment of the present invention.
11 is a diagram illustrating an example of damage management data stored in a memory and displayed on an inspector terminal and a manager terminal according to a preferred embodiment of the present invention.
12 is a diagram showing an example of a report provided by the structure external inspection device.

이하, 도면을 참고하여 본 발명의 바람직한 실시예를 설명한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

여기서, 본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다 음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. Here, the above objects, features and advantages of the present invention will become more apparent through the following detailed description in conjunction with the accompanying drawings. However, the present invention can apply various changes and can have various embodiments, hereinafter, specific embodiments will be illustrated in the drawings and described in detail.

명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.Like reference numerals designate essentially like elements throughout the specification. In addition, components having the same function within the scope of the same idea appearing in the drawings of each embodiment are described using the same reference numerals.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When it is said that a certain part "includes" a certain component throughout the specification, it means that it may further include other components without excluding other components unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software.

본 발명과 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제 1, 제 2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.If it is determined that a detailed description of a known function or configuration related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. In addition, numbers (eg, 1st, 2nd, etc.) used in the description process of this specification are only identifiers for distinguishing one component from another component.

도 1은 본 발명의 바람직한 실시예에 따른 인공지능을 이용한 구조물 외관 점검 시스템의 전체 구성을 도시하는 도면이다.1 is a diagram showing the overall configuration of a structure exterior inspection system using artificial intelligence according to a preferred embodiment of the present invention.

도 1을 참고하면, 본 발명의 바람직한 실시예에 따른 인공지능을 이용한 구조물 외관 점검 시스템(이하, "구조물 외관 점검 시스템"이라 칭함)은 점검자 단말(100) 및 구조물 외관 점검 장치(200)를 포함하여 구성되고, 구조물 외관 점검 장치(200)에 연결되어 이를 관리하는 관리자 단말(300)이 더 포함될 수 있다.Referring to FIG. 1 , a structure exterior inspection system using artificial intelligence (hereinafter referred to as “structure exterior inspection system”) according to a preferred embodiment of the present invention includes an inspector terminal 100 and a structure exterior inspection device 200, and may further include a manager terminal 300 that is connected to the structure exterior inspection device 200 and manages it.

점검자 단말(100)은 구조물의 손상 영역을 촬영하여 손상 점검 이미지를, 유무선 통신망을 통해서 구조물 외관 점검 장치(200)로 전송한다. 이 때, 점검자 단말(100)은 카메라(110)를 구비하는 휴대폰, 스마트패드, 타블렛 PC 등으로 구현될 수 있고, 카메라(110)를 구비하고 후술하는 본 발명의 기능을 수행하는 애플리케이션 프로그램이 설치될 수 있는 구성이라면, 그 구현 형태에 제한이 없다.The inspector terminal 100 photographs the damaged area of the structure and transmits the damage inspection image to the structure exterior inspection device 200 through a wired or wireless communication network. At this time, the inspector terminal 100 may be implemented as a mobile phone, smart pad, tablet PC, etc. having a camera 110, and an application program having a camera 110 and performing functions of the present invention described later may be installed.

한편, 점검자 단말(100)의 동작을 간략하게 살펴보면, 점검자가 구조물에 부착 가능하도록 물리적으로 제작된 손상 식별 코드를 점검 대상 구조물의 손상 영역 주변에 부착하고, 점검자 단말(100)에 설치된 본 발명의 프로그램을 실행시키면, 점검자 단말(100)에 포함된 카메라(110)가 활성화되어 구조물의 손상 영역과 손상 식별 코드를 촬영한다. Meanwhile, briefly reviewing the operation of the inspector's terminal 100, when an inspector attaches a damage identification code that is physically manufactured so that it can be attached to a structure around the damaged area of the structure to be inspected, and executes the program of the present invention installed in the inspector's terminal 100, the camera 110 included in the inspector's terminal 100 is activated to photograph the damaged area of the structure and the damage identification code.

그러면, 점검자 단말(100)은 점검자 단말(100)의 하드웨어 사양(파라미터)을 이용하여 유효 목표 촬영 거리를 계산하고, 카메라(110)를 통해서 입력되는 상기 손상 식별 코드의 이미지와 상기 하드웨어 파라미터를 이용하여 실제 촬영 거리를 계산한다. 이 때, 유효 목표 촬영 거리보다 실제 촬영 거리가 더 멀면, 점검자에게 좀 더 가까이 촬영하도록 가이드하고, 실제 촬영 거리가 유효 목표 촬영거리 이하가 되면 손상 점검 이미지를 촬영하여 구조물 외관 점검 장치(200)로 전송한다.Then, the inspector terminal 100 calculates the effective target shooting distance using the hardware specifications (parameters) of the inspector terminal 100, and calculates the actual shooting distance using the image of the damage identification code input through the camera 110 and the hardware parameters. At this time, if the actual shooting distance is longer than the effective target shooting distance, the inspector is guided to take a closer shot, and when the actual shooting distance is less than the effective target shooting distance, a damage inspection image is taken and transmitted to the structure appearance inspection device 200.

또한, 부가적으로, 점검자 단말(100)은 손상 식별 코드로부터 손상 관리 번호를 인식하고, 점검자로부터 점검 대상 구조물의 식별 정보와 점검 대상 구조물내 손상 영역의 위치 정보를 입력받아 손상 관리 번호와 함께 구조물 외관 점검 장치(200)로 전송하여, 구조물 외관 점검 장치(200)로 하여금 이들 정보를 서로 연계하여 저장할 수 있도록 한다.In addition, the inspector terminal 100 recognizes the damage management number from the damage identification code, receives identification information of the structure to be inspected and location information of the damaged area within the structure to be inspected from the inspector, and transmits the structure exterior inspection device 200 together with the damage management number, allowing the structure exterior inspection device 200 to link and store these information.

구조물 외관 점검 장치(200)는 손상 점검 이미지로부터 구조물에 형성된 손상의 종류를 분류할 수 있도록 학습된 인공지능 분류 엔진을 사전에 학습하여 구비하고, 인공지능 분류 엔진에서 분류된 손상의 종류에 따라서 손상의 형태 및 손상의 크기 등을 검출할 수 있도록 학습된 인공지능 손상 검출 엔진을 사전에 학습하여 구비한다. The apparatus 200 for inspecting the appearance of a structure has an artificial intelligence classification engine learned in advance to classify the type of damage formed on a structure from a damage inspection image, and according to the type of damage classified by the artificial intelligence classification engine, the type and size of damage are learned and equipped with an artificial intelligence damage detection engine learned in advance to detect.

또한, 구조물 외관 점검 장치(200)는 점검자 단말(100)로부터 손상 점검 이미지가 수신되면, 손상 점검 이미지를 인공지능 분류 엔진에 적용하여 손상의 종류(콘크리트 벽체 손상, 아스팔트 바닥면 손상, 외부노출 강구조물 손상 등)를 식별하고, 손상의 종류가 식별되면, 해당 종류의 손상 이미지들로 사전에 학습된 인공지능 손상 검출 엔진에 손상 점검 이미지를 적용하여 손상의 위치 및 크기 등을 검출한다. In addition, when a damage inspection image is received from the inspector terminal 100, the structure exterior inspection apparatus 200 applies the damage inspection image to an artificial intelligence classification engine to identify the type of damage (concrete wall damage, asphalt floor damage, externally exposed steel structure damage, etc.), and if the type of damage is identified, the damage inspection image is applied to the AI damage detection engine pre-learned from the damage images of the corresponding type to detect the location and size of the damage.

구조물 외관 점검 장치(200)는 손상 점검 이미지에, 검출된 손상의 형태 및 크기를 오버레이하여 저장하고, 사용자들의 요청에 따라서 표시할 수 있다. 이러한 손상 점검 이미지와 손상의 위치 및 크기 등에 관한 정보는 상기한 손상 관리 번호와 연계되어 저장된다. 이후에, 해당 구조물에 대해서 외관 점검이 다시 수행되면, 상기한 과정을 수행하여 추가로 획득된 손상 점검 이미지 및 손상의 위치 및 크기 등을, 상기 손상 관리 번호와 연계하여 추가로 저장한다. 따라서, 점검자 및 관리자는 손상 관리 번호를 조회하면 시간의 흐름에 따른 손상의 형태 및 크기 변화 등을 추적할 수 있어, 효율적인 관리가 가능해진다.The structure exterior inspection apparatus 200 may overlay and store the shape and size of the detected damage on the damage inspection image, and display them according to users' requests. The damage inspection image and information on the location and size of damage are stored in association with the damage management number. Afterwards, when the exterior inspection is performed again on the structure, the damage inspection image additionally obtained by performing the above process and the location and size of the damage are additionally stored in association with the damage management number. Therefore, inspectors and managers can track the change in shape and size of damage over time by inquiring the damage management number, enabling efficient management.

도 2는 본 발명의 바람직한 실시예에 따른 점검자 단말(100) 및 구조물 외관 점검 장치(200)의 하드웨어적 세부 구성을 도시하는 도면이고, 도 3은 본 발명의 바람직한 실시예에 따른 인공지능을 이용한 구조물 외관 점검 방법을 설명하는 흐름도이다.2 is a diagram showing detailed hardware configurations of an inspector terminal 100 and a structure external inspection device 200 according to a preferred embodiment of the present invention, and FIG. 3 is a flowchart illustrating a structure external inspection method using artificial intelligence according to a preferred embodiment of the present invention.

도 2 및 도 3을 더 참조하여, 본 발명의 바람직한 실시예에 따른 인공지능을 이용한 구조물 외관 점검 시스템과 인공지능을 이용한 구조물 외관 점검 방법을 설명한다.With further reference to FIGS. 2 and 3 , a structure exterior inspection system using artificial intelligence and a structure exterior inspection method using artificial intelligence according to a preferred embodiment of the present invention will be described.

먼저, 도 2를 참조하면, 본 발명의 바람직한 실시예에 따른 점검자 단말(100)은 카메라(110), 프로세서(120), 메모리(130), 입력부(140), 출력부(160) 및 통신 모듈(150)을 포함한다.First, referring to FIG. 2 , the inspector terminal 100 according to a preferred embodiment of the present invention includes a camera 110, a processor 120, a memory 130, an input unit 140, an output unit 160, and a communication module 150.

본 발명의 바람직한 실시예에 따른 메모리(130)는 프로세서(120)에 의해 실행 가능한 명령어들, 및 프로세서(120)에 의해 실행되는 애플리케이션 프로그램들을 저장할 수 있고, 입/출력되는 데이터들을 저장할 수도 있다. 메모리(130)의 예로는 하드 디스크(HDD:Hard Disk Drive), SSD(Solid State Drive), 플래쉬메모리(flash memory), 롬(ROM:Read-Only Memory), 램(RAM:Random Access Memory) 등이 있을 수 있다.The memory 130 according to a preferred embodiment of the present invention may store instructions executable by the processor 120 and application programs executed by the processor 120, and may also store input/output data. Examples of the memory 130 include a hard disk drive (HDD), a solid state drive (SSD), a flash memory, a read-only memory (ROM), and a random access memory (RAM).

본 발명의 바람직한 실시예에 따른 프로세서는 CPU(Central Processing Unit)나 이와 유사한 장치(예컨대, MPU(Micro Processing Unit), MCU(Micro Controll Unit) 등)로 구현될 수 있고, 메모리(130)에 저장된 명령어들 또는 애프리케이션 프로그램을 실행함으로써, 도 3 을 참조하여 후술하는 구조물 외관 점검 방법에서 수행되는 프로세스들 중 점검자 단말(100)에서 수행되는 프로세스의 각 단계를 수행한다.The processor according to a preferred embodiment of the present invention may be implemented as a CPU (Central Processing Unit) or a device similar thereto (eg, MPU (Micro Processing Unit), MCU (Micro Control Unit), etc.), and executes instructions stored in the memory 130 or an application program, thereby performing each step of the process performed in the inspector terminal 100 among the processes performed in the method for inspecting the exterior of a structure described below with reference to FIG. 3 .

입력부(140) 및 출력부(160)는 터치스크린으로 통합 구현되어, 프로세서(120)에서 출력하는 정보를 사용자에게 표시하고, 사용자로부터 설정 정보 및 선택 정보를 입력받아 프로세서(120)로 출력할 수 있다.The input unit 140 and the output unit 160 are integrally implemented as a touch screen, and display information output from the processor 120 to the user, receive setting information and selection information from the user, and output the information to the processor 120.

또한, 입력부(140)는 마우스 및 키보드와 같은 전형적인 입력 수단으로 구현되어, 사용자로부터 설정 정보 및 선택 정보 등을 입력받아 프로세서(120)로 출력할 수도 있고, 출력부(160)는 모니터 등으로 구현되어 프로세서(120)에서 생성한 데이터를 사용자에게 표시할 수 있다.In addition, the input unit 140 is implemented as a typical input means such as a mouse and a keyboard, and may receive setting information and selection information from the user and output them to the processor 120, and the output unit 160 is implemented as a monitor and the like to display data generated by the processor 120 to the user.

통신 모듈(150)은 유선 또는 무선 통신 방식으로 구조물 외관 점검 장치(200)와 통신을 수행한다. 통신 모듈(150)이 이용하는 유선 통신 방식으로는 LAN(Local Area Network)이나 USB(Universal Serial Bus) 통신이 대표적인 예이며 그 외의 다른 방식도 가능하다.The communication module 150 communicates with the structure exterior inspection device 200 in a wired or wireless communication method. As a wired communication method used by the communication module 150, LAN (Local Area Network) or USB (Universal Serial Bus) communication is a representative example, and other methods are also possible.

또한, 무선 타입의 경우에는 주로 블루투스(Bluetooth)나 지그비(Zigbee)와 같은 WPAN(Wireless Personal Area Network)계열의 통신 방식을 이용할 수 있다. 그러나, 무선 통신 프로토콜이 이로 제한되는 것은 아니므로, 제 1 무선 통신 모듈은 와이파이(Wi-Fi)같은 WLAN(Wireless Local Area Network) 계열의 통신 방식이나 그 외의 알려진 다른 통신 방식을 이용하는 것도 가능하다.In addition, in the case of a wireless type, a wireless personal area network (WPAN) communication method such as Bluetooth or Zigbee may be mainly used. However, since the wireless communication protocol is not limited thereto, the first wireless communication module may use a wireless local area network (WLAN)-based communication method such as Wi-Fi or other known communication methods.

한편, 구조물 외관 점검 장치(200)는 통신 모듈(220), 프로세서(210) 및 메모리(230)를 포함하여 구성된다.Meanwhile, the apparatus 200 for inspecting the external appearance of a structure includes a communication module 220, a processor 210, and a memory 230.

본 발명의 바람직한 실시예에 따른 메모리(230)는 프로세서(210)에 의해 실행 가능한 명령어들, 및 프로세서(210)에 의해 실행되는 프로그램들을 저장할 수 있고, 입/출력되는 데이터들을 저장할 수도 있다. 메모리(230)의 예로는 하드 디스크(HDD:Hard Disk Drive), SSD(Solid State Drive), 플래쉬메모리(flash memory), 롬(ROM:Read-Only Memory), 램(RAM:Random Access Memory) 등이 있을 수 있다. 메모리(230)는 인터넷(internet)상에서 저장 매체의 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버로 대체 운영될 수도 있다.The memory 230 according to a preferred embodiment of the present invention may store instructions executable by the processor 210 and programs executed by the processor 210, and may also store input/output data. Examples of the memory 230 include a hard disk drive (HDD), a solid state drive (SSD), a flash memory, a read-only memory (ROM), and a random access memory (RAM). The memory 230 may be alternatively operated as a web storage or cloud server that performs the function of a storage medium on the Internet.

본 발명의 바람직한 실시예에 따른 프로세서(210)는 CPU(Central Processing Unit)나 이와 유사한 장치(예컨대, MPU(Micro Processing Unit), MCU(Micro Controll Unit) 등)로 구현될 수 있고, 메모리(230)에 저장된 명령어들 또는 프로그램을 실행함으로써, 도 3 을 참조하여 후술하는 구조물 외관 점검 방법에 포함되는 프로세스들 중 구조물 외관 점검 장치(200)에서 수행되는 프로세스들의 각 단계를 수행한다.The processor 210 according to a preferred embodiment of the present invention may be implemented as a Central Processing Unit (CPU) or a device similar thereto (eg, a Micro Processing Unit (MPU), Micro Control Unit (MCU), etc.), and executes instructions or programs stored in the memory 230, and performs each step of the processes performed by the apparatus 200 for inspecting structure appearance among the processes included in the method for inspecting structure appearance to be described later with reference to FIG. 3 .

이하, 도 3을 더 참조하여, 인공지능을 이용한 구조물 외관 점검 시스템의 기능과 인공지능을 이용한 구조물 외관 점검 방법의 각 단계들을 설명한다.Hereinafter, with further reference to FIG. 3, the function of the structure exterior inspection system using artificial intelligence and each step of the structure exterior inspection method using artificial intelligence will be described.

먼저, 점검자는 본 발명의 바람직한 실시예에 따라서 구조물 외관 점검을 수행하기 위해서, 사전에 정의된 크기의 손상 식별 코드를 구조물의 손상 영역 주변에 부착하고, 점검자 단말(100)에 설치된 본 발명의 애플리케이션 프로그램을 실행한다(S311). 여기서, 손상 식별 코드는 벽면에 물리적 접착이 가능하도록 접착제가 도포된 사전에 정의된 크기의 QR 코드 또는 바코드 등으로 구현될 수 있다.First, the inspector attaches a damage identification code of a predefined size around the damaged area of the structure in order to inspect the appearance of the structure according to a preferred embodiment of the present invention, and executes the application program of the present invention installed on the inspector terminal 100 (S311). Here, the damage identification code may be implemented as a QR code or barcode of a predefined size to which an adhesive is applied to enable physical adhesion to the wall surface.

그 후, 점검자 단말(100)은 유무선 통신망을 통해서 구조물 외관 점검 장치(200)에 접속하여 아이디/패스워드를 입력함으로써 로그인을 수행하고, 외관 점검 대상 구조물의 식별 정보(예컨대, 프로젝트명)를 선택하고(도 4a 참조), 선택된 외관 점검 대상 구조물의 식별 정보에 대응하는 구조 도면상에서 손상 영역의 위치를 선택하며(도 4b 참조), 선택된 정보들을 구조물 외관 점검 장치(200)로 전송한다(S313).Thereafter, the inspector terminal 100 accesses the structure exterior inspection device 200 through a wired/wireless communication network, logs in by inputting an ID/password, selects identification information (eg, project name) of a structure to be inspected (see FIG. 4A), selects a location of a damaged area on the structural drawing corresponding to the identification information of the selected structure to be inspected (see FIG. 4B), and transmits the selected information to the structure exterior inspection device 200 (S313).

그 후, 점검자 단말(100)은 카메라(110)를 활성화하여 손상 부분을 촬영하고, 촬영된 이미지에 포함된 손상 식별 코드로부터 손상 관리 번호를 인식하여 구조물 외관 점검 장치(200)로 전송하면(S315), 구조물 외관 점검 장치(200)는 손상 관리 번호와 구조물 식별 정보 및 손상 위치를 서로 연계하여 저장한다(S317). 부착된 손상 식별 코드로부터 인식되는 손상 관리 번호는 서로 연계된 정보가 없는 상태로 구조물 외관 점검 장치(200)에서 유지되다가, 제 S317 단계 이후부터 점검자가 선택한 구조물과 구조물의 손상 위치를 나타내는 식별 정보로서 기능한다.After that, the inspector terminal 100 activates the camera 110 to photograph the damaged part, recognizes the damage management number from the damage identification code included in the photographed image, and transmits it to the structure exterior inspection device 200 (S315). The structure exterior inspection device 200 stores the damage management number, structure identification information, and damage location in association with each other (S317). The damage management number recognized from the attached damage identification code is maintained in the structure exterior inspection device 200 without information linked to each other, and then functions as identification information indicating the structure selected by the inspector and the location of the structure's damage from step S317 onwards.

다음으로, 점검자 단말(100)에서 실행되는 본 발명의 애플리케이션 프로그램은 점검자 단말(100)의 하드웨어 파라미터를 이용하여 유효 목표 촬영 거리를 계산하고, 점검자 단말(100)의 카메라(110)를 활성화하여, 도 5a에 도시된 바와 같이, 카메라(110)를 통해서 입력되는 손상 식별 코드의 이미지와 하드웨어 파라미터를 이용하여 실제 촬영 거리를 계산한다(S321). Next, the application program of the present invention executed in the inspector terminal 100 calculates an effective target shooting distance using the hardware parameters of the inspector terminal 100, activates the camera 110 of the inspector terminal 100, and calculates the actual shooting distance using the image of the damage identification code input through the camera 110 and the hardware parameters, as shown in FIG. 5A (S321).

또한, 점검자 단말(100)은 실제 촬영 거리가 유효 목표 촬영거리 이하가 되도록 촬영 거리를 점검자에게 가이드하여, 실제 촬영 거리가 유효 목표 촬영거리 이하가 되면, 도 5b에 도시된 바와 같이, 손상 점검 이미지를 획득하여 구조물 외관 점검 장치(200)로 전송한다(S323).In addition, the inspector terminal 100 guides the inspector on the shooting distance so that the actual shooting distance is less than or equal to the effective target shooting distance, and when the actual shooting distance becomes less than or equal to the effective target shooting distance, as shown in FIG.

여기서, 유효 목표 촬영 거리와 실제 촬영 거리는 촬영하고자 하는 손상이 점검자 단말(100)에서 검출 가능한 최소 픽셀분해능(pixel resolution)에 맞도록 촬영 거리를 조절하기 위해서 계산된다.Here, the effective target shooting distance and the actual shooting distance are calculated to adjust the shooting distance so that the damage to be photographed matches the minimum pixel resolution detectable by the inspector terminal 100 .

유효 목표 촬영 거리(작동거리,WDI, Working Distance)는 카메라(110)의 해상도, 검출 손상 크기, 센서 크기, 안전율을 이용하여 아래의 수학식 1에 따라서 계산된다.The effective target shooting distance (working distance, WD I , Working Distance) is calculated according to Equation 1 below using the resolution of the camera 110, the size of detection damage, the size of the sensor, and the safety factor.

상기 수학식 1에서 각각의 파라미터는 아래의 표 1과 같이 정의된다.In Equation 1, each parameter is defined as shown in Table 1 below.

상기 표 1에 기재된 계산식에서 기재된 상수는, 본 발명의 바람직한 실시예에 따른 점검자 단말(100)에 적용된 하드웨어 구성에 따른 것으로서, 점검자 단말(100)의 하드웨어의 구성이 변경되면, 이에 따라서 변경된다.The constants described in the calculation formulas in Table 1 are based on the hardware configuration applied to the inspector terminal 100 according to the preferred embodiment of the present invention, and are changed accordingly when the hardware configuration of the inspector terminal 100 is changed.

한편, 실제 촬영 거리(작동거리,WDA, Working Distance)는 아래의 수학식 2에 따라서 계산되고, 상기 수학식 1에 따라서 계산된 유효 목표 촬영 거리와 비교되어, 촬영자가 촬영거리를 스스로 조절할 수 있도록 가이드(예컨대, "더 가까이 촬영하세요")가 제공된다(도 5a 참조).On the other hand, the actual shooting distance (WD A , Working Distance) is calculated according to Equation 2 below, and compared with the effective target shooting distance calculated according to Equation 1 above, so that the photographer can adjust the shooting distance himself. A guide (eg, “shoot closer”) is provided (see FIG. 5A ).

상기 표 1에 기재된 바와 같이, 상기 수학식 2에서 픽셀분해능(R)은 카메라(110)상에서 인식된 손상 식별 코드의 실제길이(ML)와, 카메라(110)에서 손상 식별 코드(손상 표식)가 촬영된 픽셀수(Mp)를 이용하여 계산된다. As described in Table 1, the pixel resolution (R) in Equation 2 is the actual length (M L ) of the damage identification code recognized on the camera 110 and the damage identification code (damage mark) in the camera 110. It is calculated using the number of captured pixels (M p ).

이 때, 점검자 단말(100)은 카메라(110)로부터 입력되는 손상 영역을 촬영한 이미지로부터 손상의 형상을 인식하여, 촬영 대상면의 손상 점검 이미지가 왜곡되지 않도록, XZ 방향 및 YZ방향의 각도에 대한 수평/수직 촬영 가이드를 제공하고(도 5a 참조), XZ 방향 및 YZ방향의 각도가 가이드 범위내라고 판단되면, 도 5b에 도시된 바와 같이 촬영 버튼을 활성화하여 손상 점검 이미지를 촬영한다.At this time, the inspector terminal 100 recognizes the shape of the damage from the image of the damaged area input from the camera 110, and provides a horizontal/vertical shooting guide for angles in the XZ and YZ directions so that the damage inspection image of the surface to be photographed is not distorted (see FIG. 5A).

이 때, 점검자 단말(태블릿 PC)(100)은 내부에 포함된 6축 센서를 이용하여 벽면에 대한 수평/수직 각도를 측정하여, 수평/수직 각도가 2도 범위내에서 촬영이 되도록 가이드를 수행한다.At this time, the inspector terminal (tablet PC) 100 measures the horizontal/vertical angle with respect to the wall surface using the 6-axis sensor included therein, and guides the horizontal/vertical angle to be photographed within a range of 2 degrees.

한편, 손상 점검 이미지를 수신한 구조물 손상 점검 장치(200)의 프로세서(210)는, 사전에 학습된 인공지능 분류 엔진에 손상 점검 이미지를 적용하여 손상의 종류를 분류한다(S331). 본 발명은 크게 2가지 종류의 딥러닝 기반의 인공지능 모델을 학습하여 이용하는데, 하나는 손상 점검 이미지에 포함된 손상의 종류를 분류하는 인공지능 손상 분류 엔진이고, 다른 하나는 각 손상의 종류마다 선택적으로 적용되어 손상의 위치 및 크기 등을 검출하는 인공지능 손상 검출 엔진이다. Meanwhile, the processor 210 of the structure damage inspection apparatus 200 receiving the damage inspection image classifies the type of damage by applying the damage inspection image to a previously learned artificial intelligence classification engine (S331). The present invention learns and uses two types of deep learning-based artificial intelligence models. One is an artificial intelligence damage classification engine that classifies the type of damage included in a damage inspection image, and the other is an artificial intelligence damage detection engine that is selectively applied to each type of damage and detects the location and size of damage.

인공지능 손상 분류 엔진은 사전에 다양한 종류의 손상(예컨대, 콘크리트 벽체 손상, 아스팔트 바닥면 손상, 외부노출 강구조물 손상 등)이 포함된 이미지들을 입력단에 인가하고, 해당 손상의 종류에 대한 정보를 출력단에 인가하여 지도학습을 수행함으로써, 입력된 손상 점검 이미지에 포함된 손상의 종류를 식별할 수 있도록 학습된다.The artificial intelligence damage classification engine applies images containing various types of damage (eg, concrete wall damage, asphalt floor damage, externally exposed steel structure damage, etc.) in advance to an input terminal, and applies information on the type of corresponding damage to an output terminal to perform supervised learning, thereby learning to identify the type of damage included in the input damage inspection image.

또한, 딥러닝 기반의 인공지능 손상 검출 엔진은 각 손상의 종류에 대응되는 손상 이미지들을 이용하여, 입력된 손상 점검 이미지에서 손상 영역을 검출하고, 손상의 형태 및 크기(넓이, 길이, 폭 등) 등을 검출하도록 학습된다.In addition, the deep learning-based artificial intelligence damage detection engine uses damage images corresponding to each type of damage to detect a damaged area in the input damage inspection image, and learns to detect the shape and size (width, length, width, etc.) of the damage.

본 발명의 바람직한 실시예에서 이용되는 인공지능 손상 검출 엔진은, 각 분류(콘크리트 벽체, 아스팔트 바닥면, 외부노출 강구조물 등)에 따라 개별로 구축된 이미지들로, 도 6에 도시된 바와 같이 레이블링이 완료된 학습데이터를 활용하여, FCN(Fully-Convolutional Network) 기반의 U-Net 네트워크로 지도학습을 수행하여 생성된다.The artificial intelligence damage detection engine used in a preferred embodiment of the present invention is an image individually built according to each classification (concrete wall, asphalt floor, externally exposed steel structure, etc.), as shown in FIG.

U-Net은 본 발명의 기술 분야에서 널리 알려진 인공지능 모델이므로, 이하에서 간략하게만 설명하면, U-Net은 세그먼테이션(Segmentation)을 목적으로 제안된 End-to-End 방식의 Fully-Convolutional Network으로서 FCN의 "skip architecture" 개념을 활용해 얕은 층의 특 징맵을 깊은 층의 특징맵과 결합하는 방식을 적용하여 CNN 네트워크의 얕은 층은 국소적이고 세밀한 부분의 특징을 추출하고, 깊은 층은 전반적이고 추상적인 특징을 추출하여 서로 다른 특징을 추출하는 이 두 층을 결합해 주어서 국소적인 정보와 전역적인 정보를 모두 포함할 수 있음에 특징이 있다.Since U-Net is an artificial intelligence model widely known in the technical field of the present invention, briefly described below, U-Net is an end-to-end Fully-Convolutional Network proposed for segmentation. By using FCN's "skip architecture" concept, a method of combining shallow-layer feature maps with deep-layer feature maps is applied. It is characterized in that it can include both local and global information by combining these two layers that extract .

도 7을 참조하면, U-Net 아키텍쳐(architecture)는 이미지의 전반적인 컨텍스트 정보를 얻기 위한 네트워크와 정확한 지역화(Localization)를 위한 네트워크가 대칭 형태로 구성 Contracting Path와 Expanding Path으로 구성되며, Contracting Path는 입력 이미지의 Context 포착을 목적으로 구성되어 FCNs처럼 VGG-based Architecture를, Expanding Path는 세밀한 Locoalization을 위한 구성으로 높은 차원의 채널을 갖는 Up-sampling 얕은 레이어의 특징맵을 결합함에 특징이 있다.Referring to FIG. 7, the U-Net architecture consists of a contracting path and an expanding path, in which a network for obtaining overall context information of an image and a network for accurate localization are configured in a symmetrical form.

Contracting Path는 패딩없이 3x3 convolutions을 두 차례씩 반복하고, 활성화 함수는 ReLU를 사용, 2x2 max-pooling (stride: 2), Down-sampling 마다 채널의 수를 2배로 늘리는 방식의 아키텍쳐(architecture)를 가진다.Contracting Path repeats 3x3 convolutions twice without padding, and the activation function uses ReLU, 2x2 max-pooling (stride: 2), and has an architecture that doubles the number of channels per down-sampling.

Expanding Path는 Contracting Path와 반대의 연산으로 특징맵을 확장하는데, 2x2 convolution ("up-convolution")과 패딩없이 3x3 convolutions을 두 차례씩 반복하고, Up-Conv를 통한 Up-sampling 마다 채널의 수를 반으로 줄이며, 활성화 함수는 ReLU, Up-Conv된 특징맵은 Contracting path의 테두리가 Cropped된 특징맵과 concatenation 하며, 마지막 레이어에 1x1 convolution 연산을 한다.Expanding Path expands the feature map with an operation opposite to that of the Contracting Path. It repeats 2x2 convolution ("up-convolution") and 3x3 convolutions twice without padding, and halves the number of channels for each up-sampling through Up-Conv. The activation function is ReLU, and the up-convized feature map is concatenated with the feature map in which the border of the contracting path is cropped, and a 1x1 convolution operation is performed on the last layer.

네트워크의 출력 값은 픽셀 단위의 Softmax로 예측하며, 최종 특징 맵(채널 k)에 대한 픽셀 x 의 예측 값은 다과 같이 계산된다.The output value of the network is predicted by Softmax in units of pixels, and the predicted value of pixel x for the final feature map (channel k) is It is calculated as

여기서, a(x)는 픽셀 x의 activation, K는 클래스의 수를 나타낸다.Here, a(x) is the activation of pixel x, and K is the number of classes.

U-Net을 활용하면 적은 양의 학습 데이터로도 Data Augmentation을 활용해 여러 Segmentation 문제에서 우수한 성능을 기대할 수 있으며, 컨텍스트 정보를 잘 사용하면서도 정확히 지역화가 가능하다. 또한, 검증이 끝난 곳은 건너뛰고 다음 Patch부터 새 검증을 수행하기 때문에 End-to-End 구조로 추론 속도가 빠른 장점이 있다.If U-Net is used, excellent performance can be expected in various segmentation problems by using data augmentation even with a small amount of training data, and accurate localization is possible while using context information well. In addition, since the place where verification is finished is skipped and new verification is performed from the next patch, the end-to-end structure has the advantage of fast inference speed.

다시 도 3을 참조하면, 제 S331 단계에서, 구조물 손상 점검 장치(200)의 프로세서(210)는 사전에 학습된 인공지능 분류 엔진에 손상 점검 이미지를 적용하여 손상의 종류를 분류한 후, 전처리 작업을 수행한다(S333).Referring back to FIG. 3 , in step S331, the processor 210 of the structure damage inspection device 200 classifies the type of damage by applying the damage inspection image to the artificial intelligence classification engine learned in advance, and then performs preprocessing (S333).

전처리 작업에서, 프로세서(210)는 사전에 생성된 객체검출 모델을 이용하여 손상 점검 이미지에서 손상 검출에 불필요한 객체(나사자국, 파이프, 철 근노출, 글씨 등)를 제거하고 명도를 조절한다.In the preprocessing operation, the processor 210 removes objects (screw marks, pipes, exposed rebars, letters, etc.) unnecessary for damage detection from the damage inspection image using a previously created object detection model and adjusts the brightness.

그 후, 프로세서(210)는 전처리된 손상 점검 이미지에서 사전에 정의된 손상 식별 코드를 검출하고, 검출된 손상 식별 코드를 이진화한 후, 손상 점검 이미지에서 손상 식별 코드에 해당하는 픽셀들을 카운트하여, 물리적 크기에 대비한 손상 점검 이미지의 픽셀분해능(R)을 계산한다(S335). After that, the processor 210 detects a predefined damage identification code in the preprocessed damage inspection image, binarizes the detected damage identification code, counts pixels corresponding to the damage identification code in the damage inspection image, and calculates the pixel resolution (R) of the damage inspection image compared to the physical size (S335).

여기서, 손상 식별 코드의 크기는 사전에 정의된 값이고, 손상 점검 이미지의 해상도 역시 점검자 단말(100)로부터 제공받거나 사전에 점검자가 설정함으로써 알 수 있는 값이므로, 프로세서(210)는 상기한 표 1에 기재된 R=ML/MP 에 따라서 픽셀분해능(R)을 계산할 수 있다.Here, since the size of the damage identification code is a predefined value and the resolution of the damage inspection image is also a value that can be known by being provided by the inspector terminal 100 or set by the inspector in advance, the processor 210 can calculate the pixel resolution (R) according to R = M L / M P described in Table 1 above.

그 후, 프로세서(210)는 인공지능 손상 검출 엔진을 이용하여 전처리된 손상 점검 이미지로부터 세그먼테이션(Segmentation)을 수행하여 손상 영역을 검출한다(S341).Then, the processor 210 detects a damaged area by performing segmentation on the preprocessed damage inspection image using an AI damage detection engine (S341).

다만, 도 8에 도시된 바와 같이, 세그먼테이션으로 검출된 손상 영역에는 실제 손상을 포함하여 과대평가된 배경영역이 존재하므로, 프로세서(210)는 모폴로지 알고리즘을 이용하여 이러한 과대 평가된 영역을 제거한다.However, as shown in FIG. 8 , since an overestimated background area including actual damage exists in the damaged area detected by segmentation, the processor 210 removes this overestimated area using a morphology algorithm.

이를 위해서 먼저, 프로세서(210)는 검출된 손상 영역에 대응되는 영역을 원본 손상 점검 이미지에서 추출하고, 추출된 이미지를 이용하여 손상 영역에 대응되는 바이너리 이미지(CB)를 생성한다(S343).To this end, the processor 210 first extracts an area corresponding to the detected damaged area from the original damage inspection image, and generates a binary image C B corresponding to the damaged area using the extracted image (S343).

그 후, 프로세서(210)는 바이너리 이미지(CB)에 모폴로지 알고리즘을 적용하여 손상 영역에 대한 손상 이미지를 추출하고, 추출된 손상 이미지로부터 손상 영역에 대한 파라미터(폭, 길이, 면적 등)를 추출한다(S351~S355).Thereafter, the processor 210 extracts a damaged image of the damaged area by applying a morphology algorithm to the binary image C B , and extracts parameters (width, length, area, etc.) of the damaged area from the extracted damaged image (S351 to S355).

모폴로지 알고리즘은 영상내에서 객체를 검출하고, 영상 내 객체의 구조를 명확하게 하는데 이용되는 알고리즘으로서, 본 발명의 바람직한 실시예에서 프로세서(210)는 바이너리 이미지(CB)에 대해서 유클리디언 거리 변환(Euclidean distance transform, EDT) 및 골격화(Skeletonization) 프로세스 과정을 거쳐 손상 이미지(VF)를 생성하고, 손상 이미지로부터 손상 형태를 추출하여 해당 손상의 파라미터(폭, 길이, 면적 등)를 계산한다.The morphology algorithm is an algorithm used to detect an object in an image and clarify the structure of the object in the image. In a preferred embodiment of the present invention, the processor 210 generates a damaged image (V F ) through a Euclidean distance transform (EDT) and a skeletonization process for the binary image (C B ), extracts a damage shape from the damaged image, and calculates parameters (width, length, area, etc.) of the corresponding damage.

도 9를 참조하여, 보다 구체적으로 설명하면, 프로세서(210)는 open CV의 라이브러리 함수 중 하나의 유클리디언 함수에 바이너리 이미지(CB)를 적용하여 유클리디안 거리 변환 이미지(CE)를 구하고, 역시, open CV의 라이브러리 함수 중 하나로 익히 알려진 골력화 함수에 바이너리 이미지(CB)를 적용하여 골격화 이미지(CS)를 구한 후(S351), 유클리디안 거리 변환 이미지(CE)와 골격화 이미지(CS)의 서로 대응되는 픽셀의 픽셀값을 서로 곱하고, 여기에 스케일링 팩터를 곱하여 손상 이미지(VF)를 구한다(S353).Referring to FIG. 9, in more detail, the processor 210 obtains a Euclidean distance conversion image (C E ) by applying a binary image ( CB ) to one of the Euclidean functions of open CV library functions, and obtains a skeleton image ( CS ) by applying a binary image (CB ) to a well-known bone strength function as one of open CV library functions (S351), and obtains a Euclidean distance conversion image ( CE ) and a skeleton image (C E ) . The pixel values of the corresponding pixels of S ) are multiplied with each other, and the damaged image V F is obtained by multiplying this by a scaling factor (S353).

골격화 함수는 open CV의 모폴로지 라이브러리 함수 중 널리 알려진 함수로서, 바이너리 이미지(CB)의 중심 골격만으로 구성된 골격화 이미지(CS)를 출력한다. 그러나, 골격화 이미지(CS)는 손상의 중심점만을 나타낼 뿐 손상의 폭을 알 수 없다. Skeletonization function is a well-known function among open CV's morphology library functions, and outputs a skeletonization image ( CS ) composed only of the central skeleton of a binary image (CB ) . However, the skeleton image ( CS ) shows only the central point of the damage and the width of the damage is unknown.

따라서, 프로세서(210)는 open CV의 모폴로지 라이브러리 함수 중 널리 알려진 유클리디언 함수에 바이너리 이미지(CB)를 적용하여 유클리디안 거리 변환 이미지(CE)를 구하고, 골격화 이미지(CS)와 유클리디안 거리 변환 이미지(CE)의 서로 대응되는 픽셀을 서로 곱하고, 스케일링 팩터를 곱하여 손상 이미지(VF)를 생성한다. 이 때, 유클리디안 거리 변환 이미지(CE)는, 도 9에 도시된 바와 같이, 손상에 해당하는 각 픽셀들(예컨대, 픽셀값이 1로 설정된 픽셀들)에 대해서 가장 인접한 손상 이외의 픽셀들(예컨대, 픽셀값이 0으로 설정된 픽셀들)과의 최단 거리를 구하여, 해당 픽셀에 할당함으써 구할 수 있다. 손상 이미지(VF)에서 각 픽셀의 값은 해당 픽셀을 중심으로한 균열 손상의 폭을 나타낸다.Accordingly, the processor 210 obtains a Euclidean distance conversion image (C E ) by applying a binary image ( CB ) to a well-known Euclidean function among morphology library functions of open CV, and generates a damage image (V F ) by multiplying pixels corresponding to each other of the skeletonized image ( CS ) and the Euclidean distance conversion image ( CE ), and multiplying by a scaling factor. At this time, the Euclidean distance conversion image C E , as shown in FIG. 9 , for each pixel corresponding to the damage (eg, pixels whose pixel value is set to 1), pixels other than the nearest damage (eg, pixels whose pixel value is set to 0) and the shortest distance to the pixel can be obtained and assigned to the corresponding pixel. The value of each pixel in the damage image (V F ) represents the width of crack damage centered on that pixel.

한편, 프로세서(210)는 상기한 바이너리 이미지(CB), 유클리디안 거리 변환 이미지(CE), 골격화 이미지(CS) 및 균열 손상 이미지(VF)를 이용하여 손상을 규정하는 손상 파라미터를 계산한다(S361).Meanwhile, the processor 210 calculates a damage parameter defining damage using the binary image C B , the Euclidean distance conversion image C E , the skeleton image C S , and the crack damage image V F described above (S361).

프로세서(210)가 손상 파라미터들(균열의 길이, 넓이, 폭)을 구하는 방법의 일 예는 아래의 표 2에 기재된 바와 같다. An example of how the processor 210 obtains the damage parameters (length, width, and width of the crack) is as shown in Table 2 below.

상기 표 2에서, Ps는 골격화 이미지(CS)에서 픽셀값이 1인 픽셀들의 수를 나타내고, PA는 바이너리 이미지(CB)에서 픽셀값이 1인 픽셀들의 수를 나타낸다.In Table 2, Ps represents the number of pixels having a pixel value of 1 in the skeletonized image CS , and P A represents the number of pixels having a pixel value of 1 in the binary image C B .

따라서, 프로세서(210)는 바이너리 이미지에서 손상 영역으로 표시된 픽셀들의 수에 픽셀분해능을 곱하고, 사전에 설정된 상수를 나누어 손상의 넓이를 획득한다. 또한, 골격화 이미지에서 손상 영역으로 표시된 픽셀들의 수에 픽셀분해능을 곱하고 사전에 설정된 상수를 나누어 손상의 길이를 획득한다. 또한, 균열 손상 이미지에서의 최대 픽셀값을 이용하여 손상의 폭을 획득한다.Accordingly, the processor 210 multiplies the pixel resolution by the number of pixels indicated as the damaged area in the binary image, and divides the preset constant to obtain the area of the damage. In addition, the length of the damage is obtained by multiplying the pixel resolution by the number of pixels marked as the damaged area in the skeleton image and dividing by a preset constant. Also, the damage width is obtained using the maximum pixel value in the crack damage image.

프로세서(210)는 상기한 바와 같이 구해진 손상 파라미터들에 따라서 손상 영역을 원본 이미지인 손상 점검 이미지에 중첩하여 표시함으로써 오버레이 이미지를 생성하고, 손상 관리 번호와 연계하여 메모리에 저장한다(S363).(도 10 참조)The processor 210 generates an overlay image by overlapping and displaying the damaged area on the damage inspection image, which is the original image, according to the damage parameters obtained as described above, and stores it in the memory in association with the damage management number (S363). (See FIG. 10)

그 후, 점검자 단말(100) 또는 관리자 단말(300)이 손상 관리 번호를 전송하면서 대응되는 외관 점검 정보를 요청하면, 구조물 외관 점검 장치(200)의 프로세서(210)는 수신된 손상 관리 번호와 연계되어 저장된 손상 위치 정보와 손상 파라미터에 따른 손상 영역이 오버레이된 손상 점검 이미지를 포함하는 손상 점검 정보를 점검자 단말(100) 또는 관리자 단말(300)로 제공한다(S370).Then, when the inspector terminal 100 or the manager terminal 300 transmits the damage management number and requests corresponding exterior inspection information, the processor 210 of the structure exterior inspection device 200 provides damage inspection information including damage location information stored in association with the received damage management number and a damage inspection image in which a damage area according to a damage parameter is overlaid to the inspector terminal 100 or the manager terminal 300 (S370).

도 11은 본 발명의 바람직한 실시예에 따라서, 메모리에 저장되고, 점검자 단말(100) 및 관리자 단말(300)에 표시되는 손상 관리 데이터의 일 예를 도시하는 도면이다.11 is a diagram illustrating an example of damage management data stored in a memory and displayed on the inspector terminal 100 and the manager terminal 300 according to a preferred embodiment of the present invention.

한편, 구조물 외관 점검 장치(200)의 프로세서(210)는 관리자 단말(300) 또는 점검자 단말(100)의 요청에 따라서 특정 손상 관리 번호와 연계되어 저장된 데이터들의 보고서 형식으로 변환하여 디스플레이상에 출력하거나, 컴퓨터에서 판독할 수 있는 파일 형식으로 생성하여 제공한다. 도 12는 구조물 외관 점검 장치(200)에서 제공하는 보고서의 일 예를 도시한다.On the other hand, according to the request of the manager terminal 300 or the inspector terminal 100, the processor 210 of the structure external inspection device 200 converts data stored in association with a specific damage management number into a report format and outputs it on a display, or generates and provides a file format that can be read by a computer. 12 shows an example of a report provided by the structure external inspection device 200 .

지금까지 설명한 본 발명의 바람직한 실시예에 따른, 구조물 외관 점검 방법은, 컴퓨터에서 실행가능한 명령어로 구현되어 비일시적 저장매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다.The structure external inspection method according to the preferred embodiment of the present invention described so far may be implemented as a computer executable command and a computer program stored in a non-temporary storage medium.

저장매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 저장매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 저장매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The storage medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable storage media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. In addition, the computer-readable storage medium is distributed in computer systems connected through a network, so that computer-readable codes can be stored and executed in a distributed manner.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at with respect to its preferred embodiments. Those skilled in the art to which the present invention pertains will be able to understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative rather than a limiting point of view. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the equivalent scope will be construed as being included in the present invention.

100 : 점검자 단말
110 : 카메라 120 : 프로세서
130 : 메모리 140 : 입력부
150 : 통신 모듈 160 : 출력부
200 : 구조물 외관 점검 장치
210 : 프로세서 220 : 통신 모듈
230 : 메모리
300 : 관리자 단말
100: inspector terminal
110: camera 120: processor
130: memory 140: input unit
150: communication module 160: output unit
200: Structure appearance inspection device
210: processor 220: communication module
230: memory
300: manager terminal

Claims (15)

점검자 단말 및 구조물 외관 점검 장치에서 수행되는 구조물 외관 점검 방법으로서,
(a) 상기 점검자 단말이 사전에 정의된 크기의 손상 식별 코드가 구조물의 손상 영역 주변에 부착된 상태에서, 상기 손상 식별 코드를 포함하도록 구조물의 손상 영역을 촬영하여, 손상 점검 이미지를 획득하고 상기 구조물 외관 점검 장치로 전송하는 단계;
(b) 상기 구조물 외관 점검 장치가, 상기 손상 점검 이미지를, 사전에 학습된 인공지능 분류 엔진에 적용하여 손상의 종류를 분류하는 단계;
(c) 상기 구조물 외관 점검 장치가, 상기 손상 점검 이미지를 손상의 종류에 따라서 사전에 학습된 인공지능 손상 검출 엔진에 적용하여, 손상의 형태 및 크기를 획득하는 단계; 및
(d) 상기 구조물 외관 점검 장치가, 상기 손상 점검 이미지에, 검출된 손상의 형태 및 크기를 오버레이하여 저장하는 단계;를 포함하고,

상기 (c) 단계는
(c1) 상기 손상 점검 이미지에서 노이즈를 제거하고 명도를 조절하여 전처리를 수행하는 단계;
(c2) 상기 손상 점검 이미지에서 상기 손상 식별 코드를 검출하고, 상기 손상 식별 코드를 이진화 후, 상기 손상 식별 코드에 대응되는 픽셀을 카운트하여 물리적 크기 대비 이미지의 픽셀분해능을 계산하는 단계;
(c3) 상기 인공지능 손상 검출 엔진을 이용하여 전처리된 이미지로부터 세그먼테이션(Segmentation)을 수행하여 손상 영역을 검출하는 단계;
(c4) 상기 손상 점검 이미지에서 손상 영역을 추출하고 이진화하여 손상 영역 이진화 이미지를 생성하는 단계; 및
(c5) 상기 손상 영역 이진화 이미지에 모폴로지 알고리즘을 적용하여 손상 영역의 형태를 확인하고, 손상 영역의 픽셀 수 및 상기 픽셀분해능을 이용하여, 손상의 길이, 폭 및 넓이 중 적어도 하나를 포함하는 손상의 크기를 획득하는 단계;를 포함하는 것을 특징으로 하는 구조물 외관 점검 방법.
A structure exterior inspection method performed at an inspector terminal and a structure exterior inspection device,
(a) in a state where the inspector terminal has a damage identification code of a predefined size attached around the damaged area of the structure, photographing the damaged area of the structure to include the damage identification code, obtaining a damage inspection image and transmitting to the structure exterior inspection device;
(b) classifying, by the structure exterior inspection device, the type of damage by applying the damage inspection image to a pre-learned artificial intelligence classification engine;
(c) obtaining the shape and size of the damage by applying the damage inspection image to a pre-learned artificial intelligence damage detection engine according to the type of damage, by the apparatus for inspecting the external appearance of the structure; and
(d) the structure appearance inspection device overlaying and storing the shape and size of the detected damage on the damage inspection image;

The step (c) is
(c1) performing preprocessing by removing noise from the damage inspection image and adjusting brightness;
(c2) detecting the damage identification code in the damage detection image, binarizing the damage identification code, and counting pixels corresponding to the damage identification code to calculate a pixel resolution of the image relative to the physical size;
(c3) detecting a damaged area by performing segmentation on the preprocessed image using the artificial intelligence damage detection engine;
(c4) generating a binary image of the damaged area by extracting and binarizing the damaged area from the damage inspection image; and
(c5) confirming the shape of the damaged area by applying a morphology algorithm to the binarized image of the damaged area, and using the number of pixels of the damaged area and the pixel resolution, the length, width, and width of the damage. Obtaining a size of the damage including at least one; a structure appearance inspection method comprising a.
제 1 항에 있어서, 상기 (a) 단계는
(a2) 사전에 정의된 크기의 손상 식별 코드가 구조물의 손상 영역 주변에 부착된 후 카메라를 활성화하면, 상기 점검자 단말의 하드웨어 파라미터를 이용하여 유효 목표 촬영 거리를 계산하고, 카메라를 통해서 입력되는 상기 손상 식별 코드의 이미지와 상기 하드웨어 파라미터를 이용하여 실제 촬영 거리를 계산하여, 상기 실제 촬영 거리가 상기 유효 목표 촬영거리 이하가 되도록 점검자에게 가이드하여, 실제 촬영 거리가 상기 유효 목표 촬영거리 이하가 되면 상기 손상 점검 이미지를 획득하는 단계를 포함하는 것을 특징으로 하는 구조물 외관 점검 방법.
The method of claim 1, wherein step (a) is
(A2) When the damage identification code of the size defined in the dictionary is attached around the damaged area of the structure, the camera is activated, calculating the effective target shooting distance using the hardware parameter of the inspection terminal, and using the image of the damage identification code input through the camera and the hardware parameter to calculate the actual shooting distance. The actual shooting distance is guided to the inspector so that the actual shooting distance is below the effective target shooting distance.
제 2 항에 있어서, 상기 (a) 단계는 상기 (a2) 단계 이전에,
(a1) 구조물의 손상 영역에 손상 식별 코드가 부착된 후, 카메라가 활성화되면, 상기 점검자 단말이 부착된 손상 식별 코드로부터 손상 관리 번호를 인식하고, 점검자로부터 구조물 식별 정보와 구조물의 구조 도면상 손상 영역의 위치를 입력받아 상기 구조물 외관 점검 장치로 전송하며, 상기 구조물 외관 점검 장치가 상기 손상 관리 번호와 상기 구조물 식별 정보 및 손상 영역의 위치를 서로 연계하여 저장하는 단계를 더 포함하는 것을 특징으로 하는 구조물 외관 점검 방법.
The method of claim 2, wherein step (a) is performed before step (a2),
(a1) After a damage identification code is attached to a damaged area of a structure and a camera is activated, the inspector's terminal recognizes a damage management number from the attached damage identification code, receives structure identification information and a location of a damaged area on a structural drawing of the structure from the inspector, transmits the input to the structure exterior inspection device, and the structure exterior inspection device further comprises the step of storing the damage management number, the structure identification information, and the location of the damaged area in association with each other.
삭제delete 제 1 항에 있어서, 상기 (c5) 단계는
상기 손상 영역 이진화 이미지에 대해서 유클리디안 거리 변환 알고리즘을 적용하여 유클리디안 거리 변환 이미지를 구하고, 상기 손상 영역 이진화 이미지에 대해서 골격화 알고리즘을 적용하여 골격화 이미지를 구한 후, 상기 유클리디안 거리 변환 이미지와 골격화 이미지의 서로 대응되는 픽셀별로 픽셀값을 서로 곱하고 스케일링 팩터를 곱하여 균열 손상 이미지를 생성하고, 상기 이진화 이미지, 상기 골격화 이미지 및 상기 균열 손상 이미지를 이용하여 상기 손상의 길이, 폭 및 넓이를 획득하는 것을 특징으로 하는 구조물 외관 점검 방법.
The method of claim 1, wherein step (c5)
A Euclidean distance transformation image is obtained by applying a Euclidean distance conversion algorithm to the damaged area binarization image, a skeletonization image is obtained by applying a skeletonization algorithm to the damaged area binarization image, pixel values of each pixel corresponding to each other of the Euclidean distance conversion image and the skeletonization image are multiplied and a crack damage image is generated by multiplying a scaling factor to obtain the length, width, and width of the damage using the binarized image, the skeletonization image, and the crack damage image A method for inspecting the exterior of a structure characterized by
제 5 항에 있어서, 상기 (c5) 단계는
상기 이진화 이미지에서 손상 영역으로 표시된 픽셀들의 수를 이용하여 손상의 넓이를 획득하고, 상기 골격화 이미지에서 손상 영역으로 표시된 픽셀들의 수를 이용하여 손상의 길이를 획득하며, 상기 균열 손상 이미지에서의 최대 픽셀값을 이용하여 손상의 폭을 획득하는 것을 특징으로 하는 구조물 외관 점검 방법.
The method of claim 5, wherein step (c5)
The extent of the damage is obtained using the number of pixels indicated as the damaged area in the binarized image, the length of the damage is obtained using the number of pixels indicated as the damaged area in the skeletonized image, and the maximum pixel value in the crack damage image. Structure appearance inspection method, characterized in that for acquiring the width of the damage.
삭제delete 비일시적 저장매체에 저장되고, 프로세서를 포함하는 컴퓨터에서 실행되어, 상기 제 1 항, 제 2 항, 제 3 항, 제 5 항 및 제 6 항 중 어느 한 항의 구조물 외관 점검 방법을 수행하는 컴퓨터 프로그램.
A computer program that is stored in a non-transitory storage medium and executed on a computer including a processor to perform the method for inspecting the appearance of a structure according to any one of claims 1, 2, 3, 5, and 6.
프로세서 및 소정의 명령어들을 저장하는 메모리를 포함하는 구조물 외관 점검 장치로서,
상기 메모리에 저장된 명령어들을 실행한 상기 프로세서는
(a) 사전에 정의된 크기의 손상 식별 코드가 구조물의 손상 영역 주변에 부착된 상태에서, 상기 손상 식별 코드를 포함하도록 구조물의 손상 영역을 촬영하여 생성된 손상 점검 이미지를 점검자 단말로부터 수신하는 단계;
(b) 상기 손상 점검 이미지를, 사전에 학습된 인공지능 분류 엔진에 적용하여 손상의 종류를 분류하는 단계;
(c) 상기 손상 점검 이미지를 손상의 종류에 따라서 사전에 학습된 인공지능 손상 검출 엔진에 적용하여, 손상의 형태 및 크기를 획득하는 단계; 및
(d) 상기 손상 점검 이미지에, 검출된 손상의 형태 및 크기를 오버레이하여 저장하는 단계;를 수행하되,

상기 (c) 단계는
(c1) 상기 손상 점검 이미지에서 노이즈를 제거하고 명도를 조절하여 전처리를 수행하는 단계;
(c2) 상기 손상 점검 이미지에서 상기 손상 식별 코드를 검출하고, 상기 손상 식별 코드를 이진화 후, 상기 손상 식별 코드에 대응되는 픽셀을 카운트하여 물리적 크기 대비 이미지의 픽셀분해능을 계산하는 단계;
(c3) 상기 인공지능 손상 검출 엔진을 이용하여 전처리된 이미지로부터 세그먼테이션(Segmentation)을 수행하여 손상 영역을 검출하는 단계;
(c4) 상기 손상 점검 이미지에서 손상 영역을 추출하고 이진화하여 손상 영역 이진화 이미지를 생성하는 단계; 및
(c5) 상기 손상 영역 이진화 이미지에 모폴로지 알고리즘을 적용하여 손상 영역의 형태를 확인하고, 손상 영역의 픽셀 수 및 상기 픽셀분해능을 이용하여, 손상의 길이, 폭 및 넓이 중 적어도 하나를 포함하는 손상의 크기를 획득하는 단계;를 포함하는 것을 특징으로 하는 구조물 외관 점검 장치.
A structure appearance inspection device including a processor and a memory for storing predetermined instructions,
The processor executing the instructions stored in the memory
(a) receiving, from an inspector terminal, a damage inspection image generated by photographing a damaged area of a structure to include the damage identification code in a state where a damage identification code having a predefined size is attached around the damaged area of the structure;
(b) classifying the type of damage by applying the damage inspection image to a pre-learned artificial intelligence classification engine;
(c) obtaining the shape and size of the damage by applying the damage inspection image to an artificial intelligence damage detection engine trained in advance according to the type of damage; and
(d) overlaying and storing the shape and size of the detected damage on the damage inspection image;

The step (c) is
(c1) performing preprocessing by removing noise from the damage inspection image and adjusting brightness;
(c2) detecting the damage identification code in the damage detection image, binarizing the damage identification code, and counting pixels corresponding to the damage identification code to calculate a pixel resolution of the image relative to the physical size;
(c3) detecting a damaged area by performing segmentation on the preprocessed image using the artificial intelligence damage detection engine;
(c4) generating a binary image of the damaged area by extracting and binarizing the damaged area from the damage inspection image; and
(c5) confirming the shape of the damaged area by applying a morphology algorithm to the binarized image of the damaged area, and using the number of pixels of the damaged area and the pixel resolution to obtain a size of the damage including at least one of the length, width, and width of the damage; Structure appearance inspection device, characterized in that it comprises a.
제 9 항에 있어서, 상기 (a) 단계는
(a2) 사전에 정의된 크기의 손상 식별 코드가 구조물의 손상 영역 주변에 부착된 후 카메라를 활성화하면, 상기 점검자 단말의 하드웨어 파라미터를 이용하여 유효 목표 촬영 거리를 계산하고, 카메라를 통해서 입력되는 상기 손상 식별 코드의 이미지와 상기 하드웨어 파라미터를 이용하여 실제 촬영 거리를 계산하여, 상기 실제 촬영 거리가 상기 유효 목표 촬영거리 이하가 되도록 점검자에게 가이드하여, 실제 촬영 거리가 상기 유효 목표 촬영거리 이하가 되면 상기 손상 점검 이미지를 획득하는 단계를 포함하는 것을 특징으로 하는 구조물 외관 점검 장치.
10. The method of claim 9, wherein step (a) is
(A2) When the damage identification code of the size defined in the dictionary is attached around the damaged area of the structure, the camera is activated, calculating the effective target shooting distance using the hardware parameter of the inspection terminal, and using the image of the damage identification code input through the camera and the hardware parameter to calculate the actual shooting distance. The actual shooting distance is guided to the inspector so that the actual shooting distance is below the effective target shooting distance.
제 10 항에 있어서, 상기 프로세서는,
상기 (a2) 단계 이전에,
(a1) 구조물의 손상 영역에 손상 식별 코드가 부착된 후, 카메라가 활성화되면, 상기 점검자 단말이 부착된 손상 식별 코드로부터 손상 관리 번호를 인식하고, 점검자로부터 구조물 식별 정보와 구조물의 구조 도면상 손상 영역의 위치를 입력받아 상기 구조물 외관 점검 장치로 전송하며, 상기 구조물 외관 점검 장치가 상기 손상 관리 번호와 상기 구조물 식별 정보 및 손상 영역의 위치를 서로 연계하여 저장하는 단계를 더 수행하는 것을 특징으로 하는 구조물 외관 점검 장치.
11. The method of claim 10, wherein the processor,
Before step (a2),
(a1) After the damage identification code is attached to the damaged area of the structure and the camera is activated, the inspector's terminal recognizes the damage management number from the attached damage identification code, receives structure identification information and the location of the damaged area on the structural drawing of the structure from the inspector, transmits the input to the structure exterior inspection device, and the structure exterior inspection device further performs the step of storing the damage management number, the structure identification information, and the location of the damaged area in association with each other.
삭제delete 제 9 항에 있어서, 상기 (c5) 단계는
상기 손상 영역 이진화 이미지에 대해서 유클리디안 거리 변환 알고리즘을 적용하여 유클리디안 거리 변환 이미지를 구하고, 상기 손상 영역 이진화 이미지에 대해서 골격화 알고리즘을 적용하여 골격화 이미지를 구한 후, 상기 유클리디안 거리 변환 이미지와 골격화 이미지의 서로 대응되는 픽셀별로 픽셀값을 서로 곱하고 스케일링 팩터를 곱하여 균열 손상 이미지를 생성하고, 상기 이진화 이미지, 상기 골격화 이미지 및 상기 균열 손상 이미지를 이용하여 상기 손상의 길이, 폭 및 넓이를 획득하는 것을 특징으로 하는 구조물 외관 점검 장치.
10. The method of claim 9, wherein step (c5)
A Euclidean distance transformation image is obtained by applying a Euclidean distance conversion algorithm to the damaged area binarization image, a skeletonization image is obtained by applying a skeletonization algorithm to the damaged area binarization image, pixel values of each pixel corresponding to each other of the Euclidean distance conversion image and the skeletonization image are multiplied and a crack damage image is generated by multiplying a scaling factor to obtain the length, width, and width of the damage using the binarized image, the skeletonization image, and the crack damage image Structure appearance inspection device characterized by.
제 13 항에 있어서, 상기 (c5) 단계는
상기 이진화 이미지에서 손상 영역으로 표시된 픽셀들의 수를 이용하여 손상의 넓이를 획득하고, 상기 골격화 이미지에서 손상 영역으로 표시된 픽셀들의 수를 이용하여 손상의 길이를 획득하며, 상기 균열 손상 이미지에서의 최대 픽셀값을 이용하여 손상의 폭을 획득하는 것을 특징으로 하는 구조물 외관 점검 장치.
14. The method of claim 13, wherein step (c5)
The extent of the damage is obtained using the number of pixels indicated as the damaged area in the binarized image, the length of the damage is obtained using the number of pixels indicated as the damaged area in the skeletal image, and the maximum pixel value in the crack damage image.
삭제delete
KR1020220133315A 2022-10-17 2022-10-17 Structural appearance inspection system and method using artificial intelligence KR102559586B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220133315A KR102559586B1 (en) 2022-10-17 2022-10-17 Structural appearance inspection system and method using artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220133315A KR102559586B1 (en) 2022-10-17 2022-10-17 Structural appearance inspection system and method using artificial intelligence

Publications (1)

Publication Number Publication Date
KR102559586B1 true KR102559586B1 (en) 2023-07-26

Family

ID=87427475

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220133315A KR102559586B1 (en) 2022-10-17 2022-10-17 Structural appearance inspection system and method using artificial intelligence

Country Status (1)

Country Link
KR (1) KR102559586B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102618069B1 (en) * 2023-08-01 2023-12-27 대한민국 Method and apparatus for analyasing indoor building disaster information using point cloud data and visual information from ground survey robot
KR102632970B1 (en) * 2023-10-27 2024-02-02 조광설비(주) Method, device and system for automating the generation of reports on the results of on-site performance checks of mechanical equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102037893B1 (en) * 2019-07-05 2019-11-26 세종대학교산학협력단 System and method for establishing digital exterior survey map
KR102121958B1 (en) * 2018-07-18 2020-06-11 주식회사 케이엠티엘 Method, system and computer program for providing defect analysis service of concrete structure
KR102195890B1 (en) * 2020-09-03 2020-12-28 한세이엔씨(주) Safety Diagnosis System and Method Using Smart Glasses
JP2021087081A (en) * 2019-11-27 2021-06-03 ワム・システム・デザイン株式会社 Photography support device, photography support method, and program
JP6937642B2 (en) * 2017-09-22 2021-09-22 株式会社大林組 Surface evaluation method and surface evaluation device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6937642B2 (en) * 2017-09-22 2021-09-22 株式会社大林組 Surface evaluation method and surface evaluation device
KR102121958B1 (en) * 2018-07-18 2020-06-11 주식회사 케이엠티엘 Method, system and computer program for providing defect analysis service of concrete structure
KR102037893B1 (en) * 2019-07-05 2019-11-26 세종대학교산학협력단 System and method for establishing digital exterior survey map
JP2021087081A (en) * 2019-11-27 2021-06-03 ワム・システム・デザイン株式会社 Photography support device, photography support method, and program
KR102195890B1 (en) * 2020-09-03 2020-12-28 한세이엔씨(주) Safety Diagnosis System and Method Using Smart Glasses

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102618069B1 (en) * 2023-08-01 2023-12-27 대한민국 Method and apparatus for analyasing indoor building disaster information using point cloud data and visual information from ground survey robot
KR102632970B1 (en) * 2023-10-27 2024-02-02 조광설비(주) Method, device and system for automating the generation of reports on the results of on-site performance checks of mechanical equipment

Similar Documents

Publication Publication Date Title
KR102121958B1 (en) Method, system and computer program for providing defect analysis service of concrete structure
KR102559586B1 (en) Structural appearance inspection system and method using artificial intelligence
US20210319561A1 (en) Image segmentation method and system for pavement disease based on deep learning
US11922707B2 (en) Method and apparatus for training face detection model, and apparatus for detecting face key point
US11341626B2 (en) Method and apparatus for outputting information
KR101926561B1 (en) Road crack detection apparatus of patch unit and method thereof, and computer program for executing the same
JP6452186B2 (en) Insurance compensation fraud prevention method, system, apparatus and readable recording medium based on coincidence of multiple photos
KR102166458B1 (en) Defect inspection method and apparatus using image segmentation based on artificial neural network
CN113168541B (en) Deep learning reasoning system and method for imaging system
JP7099509B2 (en) Computer vision system for digitization of industrial equipment gauges and alarms
US8873837B2 (en) Image-based crack detection
KR20190069457A (en) IMAGE BASED VEHICLES LOSS EVALUATION METHOD, DEVICE AND SYSTEM,
CN104919794A (en) Method and system for metadata extraction from master-slave cameras tracking system
CN105930822A (en) Human face snapshot method and system
KR102346676B1 (en) Method for creating damage figure using the deep learning-based damage image classification of facility
CN111985365A (en) Straw burning monitoring method and system based on target detection technology
JP2018185552A (en) Image analysis apparatus, image analysis method, and program
KR101792435B1 (en) Damage evaluation method for fire damaged structure
CN110009614A (en) Method and apparatus for output information
CN110942456B (en) Tamper image detection method, device, equipment and storage medium
KR102478499B1 (en) A method for controlling a prosess and a device for controlling a process
Jeong et al. Real‐time generic target tracking for structural displacement monitoring under environmental uncertainties via deep learning
KR102477088B1 (en) A method for adjusting an inspection area and a device for adjusting an inspection area
CN113705650A (en) Processing method, device, medium and computing equipment for face picture set
JP2008276613A (en) Mobile body determination device, computer program and mobile body determination method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant