KR102567163B1 - System for operating an imaging device, damage analysis and evaluation of structures - Google Patents

System for operating an imaging device, damage analysis and evaluation of structures Download PDF

Info

Publication number
KR102567163B1
KR102567163B1 KR1020220078157A KR20220078157A KR102567163B1 KR 102567163 B1 KR102567163 B1 KR 102567163B1 KR 1020220078157 A KR1020220078157 A KR 1020220078157A KR 20220078157 A KR20220078157 A KR 20220078157A KR 102567163 B1 KR102567163 B1 KR 102567163B1
Authority
KR
South Korea
Prior art keywords
damage
phosphor
image
evaluation system
device operation
Prior art date
Application number
KR1020220078157A
Other languages
Korean (ko)
Inventor
안영기
전상혁
진남희
이해영
Original Assignee
(재) 한국건설품질연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (재) 한국건설품질연구원 filed Critical (재) 한국건설품질연구원
Priority to KR1020220078157A priority Critical patent/KR102567163B1/en
Application granted granted Critical
Publication of KR102567163B1 publication Critical patent/KR102567163B1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8809Adjustment for highlighting flaws
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8883Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges involving the calculation of gauges, generating models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Chemical & Material Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biochemistry (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

본 발명은 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템에 관한 것이다.
본 발명에 따른 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템은 스마트 디바이스 또는 카메라(예: DSLR 카메라)에 의해 촬영된 이미지 정보를 수신하는 입력부와, 촬영 장비에 대한 운용 프로그램이 저장된 메모리 및 상기 운용 프로그램을 실행시키는 프로세서를 포함하되, 상기 프로세서는 상기 촬영된 이미지 정보와 거리 센서의 계측 정보를 획득하고, 촬영 관련 제어 정보를 전송하되, 조명 관련 제어 정보를 포함하는 상기 촬영 관련 제어 정보를 전송한다.
The present invention relates to a system for operating a photographing device and analyzing and evaluating structure damage.
A system for operating a photographing device, analyzing and evaluating structure damage according to the present invention includes an input unit for receiving image information captured by a smart device or camera (eg, a DSLR camera), a memory storing an operating program for the photographing equipment, and the operating program A processor that executes, wherein the processor obtains the captured image information and measurement information of a distance sensor, transmits photographing-related control information, and transmits the photographing-related control information including lighting-related control information.

Description

촬영 장치 운용, 구조물 손상 분석 및 평가 시스템{SYSTEM FOR OPERATING AN IMAGING DEVICE, DAMAGE ANALYSIS AND EVALUATION OF STRUCTURES}Operation of filming device, structural damage analysis and evaluation system

본 발명은 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템에 관한 것이다. The present invention relates to a system for operating a photographing device and analyzing and evaluating structure damage.

종래 기술에 따르면, 인력에 의한 구조물 점검은 점검자의 시력과 숙련도에 따라 점검 결과의 편차가 발생되고, 외관조사망도 작성 과정 중 오차 누적에 따라 최종 성과물의 신뢰성이 저하되는 문제점이 있다. According to the prior art, structure inspection by manpower causes deviations in inspection results depending on the visual acuity and proficiency of the inspector, and the reliability of the final result deteriorates due to the accumulation of errors during the process of creating the external survey network.

또한, 산업비전 카메라를 이용하여 터널, 도로포장 스캐닝 시, 초점을 맞출 수 없는 한계가 있고, 드론을 이용한 촬영 시, 디지털 이미지의 초점이 흔들리고 촬영 위치 및 거리 등 정보 계측을 위해 탑재되는 센서의 무게로 인한 문제점이 있어, 원거리 고해상도 촬영이 요구되는 교량, 건축, 항만시설, 발전시설 등에는 적용이 불가능한 문제점이 있다. In addition, when scanning tunnels and road pavements using an industrial vision camera, there is a limit to focusing, and when shooting using a drone, the focus of the digital image shakes and the weight of the sensor mounted to measure information such as the shooting location and distance However, there is a problem that cannot be applied to bridges, buildings, port facilities, and power generation facilities that require long-distance high-resolution photography.

또한, 기존 기술은 측정된 영상 정보에 대해 그레이 스케일법을 적용하여 손상분석을 실시하는데, 이는 균열의 오탐지율이 높은 문제점이 있고, 백태, 철근노출, 박락, 파손 등 단면 손상에 대한 검출이 어려운 문제점이 있다. In addition, the existing technology performs damage analysis by applying the gray scale method to the measured image information, which has a high false detection rate of cracks, and it is difficult to detect cross-section damage such as whiteness, exposure of reinforcing bars, peeling, and breakage. There is a problem.

종래 기술에 따른 그레이 스케일법은 확인자가 영상 속 손상을 발견하지 못하거나 비손상을 손상으로 인식하는 실수가 발생될 수 있고, 이 경우 인력에 의한 현장 재조사가 필요하게 되는 문제점이 있다. In the gray scale method according to the prior art, there is a problem in that an inspector may not find damage in an image or may mistakenly recognize non-damage as damage, and in this case, an on-site re-examination by manpower is required.

종래 기술에 따르면, 촬영각도의 제한이 있고, 촬영 면적이 작아 많은 이미지 획득이 불가하며, 무게 및 부피가 크고, 연결선이 복잡하며, 어두운 곳에 대한 촬영이 불가한 촬영 장비 측면에서의 문제점이 있다. According to the prior art, there are problems in terms of the photographing equipment that has limitations in the photographing angle, cannot acquire many images due to the small photographing area, is heavy and bulky, has complicated connection lines, and cannot photograph in a dark place.

종래 기술에 따르면, 촬영된 이미지를 수동으로 옮겨야 하는 불편함이 있고, 포커싱 정보 전송 및 위치 선정이 불가한 한계가 있으며, 이미지에 대한 실시간 확인이 어려운 제어 소프트웨어 측면에서의 문제점이 있다. According to the prior art, there is an inconvenience of having to manually move a captured image, there are limitations in that focusing information transmission and location selection are impossible, and there are problems in terms of control software that makes it difficult to check images in real time.

종래 기술에 따르면, 이미지 머징에 제약이 있으며, 손상분석의 종류가 제한적인 문제점이 있다. According to the prior art, there are limitations in image merging and the types of damage analysis are limited.

본 발명은 전술한 문제점을 해결하기 위해 제안된 것으로, 구조물 점검 및 진단의 안전성, 정밀성, 신뢰성, 경제성, 생산성을 개선하는 것이 가능한 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템을 제공하는데 그 목적이 있다. The present invention has been proposed to solve the above problems, and an object of the present invention is to provide a system for operating an imaging device, analyzing and evaluating structural damage, which can improve safety, precision, reliability, economy, and productivity of structure inspection and diagnosis. .

구체적으로는, 촬영각도 및 촬영 면적을 확대하고, 휴대성이 향상되고 간략한 연결이 가능하며, 조명 시스템이 부착된 촬영 장치를 이용하여 촬영을 수행하고, 촬영된 데이터에 대해 IoT를 이용하여 이미지를 무선 전송하고, 안드로이드 앱을 통해 포커싱 정보를 자동으로 전송하여 위치 선정이 용이하며 이미지에 대한 실시간 확인이 가능하고, 이미지 머징의 효율성을 증대시키고 강교 도장 손상, 콘크리트 누수, 재료 분리 등으로 검출 대상 손상의 종류를 확대하는 것이 가능한 시스템을 제공하는데 그 목적이 있다. Specifically, the shooting angle and shooting area are enlarged, portability is improved, simple connection is possible, shooting is performed using a shooting device equipped with a lighting system, and images are captured using IoT for the captured data. It transmits wirelessly and automatically transmits focusing information through an Android app, making it easy to select a location and real-time checking of images, increasing the efficiency of image merging and damaging detection targets due to steel bridge paint damage, concrete leaks, material separation, etc. Its purpose is to provide a system capable of expanding the types of

또한, 구조물을 기설정된 중첩률로 분할 촬영하고, 분할 중첩 이미지를 이용하여 구조물 전체에 대한 이미지를 구현하고, 정선한 데이터로 학습된 인공지능 알고리즘을 이용하여 균열, 백태, 박락, 파손 및 철근노출의 손상과, 강교 도장 손상, 콘크리트 누수, 재료분리 등으로 손상 종류를 확대하여 검출하고, 탐지된 손상 구역을 이미지에 표시하며, 검출된 손상은 계측 거리, 각도 정보를 이용하여 정량화하여 문서 자동화 프로그램을 통해 외관조사망도와 손상물량표를 작성하는 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템을 제공하는데 그 목적이 있다. In addition, the structure is divided and photographed at a preset overlapping rate, an image of the entire structure is implemented using the divided and overlapped image, and cracks, whiteness, exfoliation, damage and reinforcing bar exposure are detected using an artificial intelligence algorithm learned from selected data. Damage of steel bridge, damage to steel bridge painting, concrete leakage, material separation, etc. are expanded and detected, the detected damage area is displayed on the image, and the detected damage is quantified using measurement distance and angle information, and the document automation program Its purpose is to provide a photographic device operation, structure damage analysis and evaluation system that creates an external survey network map and damage quantity table through

본 발명에 따른 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템은 스마트 디바이스 또는 카메라(예: DSLR 카메라)에 의해 촬영된 이미지 정보를 수신하는 입력부와, 촬영 장비에 대한 운용 프로그램이 저장된 메모리 및 상기 운용 프로그램을 실행시키는 프로세서를 포함하되, 상기 프로세서는 상기 촬영된 이미지 정보와 거리 센서의 계측 정보를 획득하고, 촬영 관련 제어 정보를 전송하되, 조명 관련 제어 정보를 포함하는 상기 촬영 관련 제어 정보를 전송한다. A system for operating a photographing device, analyzing and evaluating structure damage according to the present invention includes an input unit for receiving image information captured by a smart device or camera (eg, a DSLR camera), a memory storing an operating program for the photographing equipment, and the operating program A processor that executes, wherein the processor obtains the captured image information and measurement information of a distance sensor, transmits photographing-related control information, and transmits the photographing-related control information including lighting-related control information.

본 발명에 따르면, 촬영 하드웨어에 대한 자동 정밀 제어가 가능하고, 분할된 이미지 정합을 위해 중첩 촬영을 수행하여 중첩 정합률을 확보하는 운용 소프트웨어를 제공하는 효과가 있다. According to the present invention, there is an effect of providing operation software capable of automatic precise control of photographing hardware and securing an overlap matching rate by performing overlapping photographing for matching divided images.

본 발명에 따르면, 종래 기술에 따른 영상분석 기법의 한계를 극복한 인공지능 알고리즘을 이용하여, 콘크리트 노후화로 인해 공용 중에 발생할 수 있는 균열, 백태, 박락, 철근노출, 파손 5종류뿐 아니라, 강교 도장 손상, 콘크리트 누수, 재료 분리 등 확대된 손상 분석이 가능하고, 검출 및 정량화된 손상정보를 이용하여 자동으로 외관조사망도 및 손상물량표를 생성하는 것이 가능한 효과가 있다. According to the present invention, by using an artificial intelligence algorithm that overcomes the limitations of image analysis techniques according to the prior art, there are five types of cracks, efflorescence, peeling, exposure of reinforcing bars, and damage that may occur during use due to aging of concrete, as well as painting of steel bridges. It is possible to perform expanded damage analysis such as damage, concrete leakage, and material separation, and it is possible to automatically generate an external survey network map and damage quantity table using detected and quantified damage information.

본 발명의 효과는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 실시예에 따른 운용 소프트웨어의 주요 기능을 도시한다.
도 2는 본 발명의 실시예에 따른 이미지 중첩 부분을 도시한다.
도 3은 본 발명의 실시예에 따른 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템을 도시한다.
도 4는 본 발명의 실시예에 따른 화각, 조정 거리를 도시한다.
도 5는 본 발명의 실시예에 따른 촬영 여부 판단 및 촬영순서를 도시한다.
도 6은 본 발명의 실시예에 따른 구조물의 손상 분석 및 평가 시스템을 도시한다.
도 7은 본 발명의 실시예에 따른 이미지 머징의 예시이다.
도 8은 본 발명의 실시예에 따른 손상검출 소프트웨어의 구조를 도시한다.
도 9는 본 발명의 실시예에 따른 손상검출 단계를 도시한다.
도 10은 본 발명의 실시예에 따른 RPN 구조를 도시한다.
도 11은 본 발명의 실시예에 따른 RPN을 통한 손상 확률지도를 도시한다.
도 12는 본 발명의 실시예에 따른 카메라 핀 홀 모델을 도시한다.
도 13은 본 발명의 실시예에 따른 손상정량화의 예시이다.
도 14는 본 발명의 실시예에 따른 문서화 과정을 도시한다.
도 15는 본 발명의 실시예에 따른 문서화의 예시이다.
도 16은 본 발명의 실시예에 따른 손상분석 및 평가 소프트웨어의 GUI 화면을 도시한다.
도 17a 내지 도 17d는 본 발명의 실시예에 따른 고해상도 이미지 획득 장치를 도시한다.
도 18은 본 발명의 실시예에 따른 조명장치를 도시한다.
도 19는 본 발명의 실시예에 따른 조명부가 배치된 고해상도 이미지 획득 장치를 도시한다.
도 20은 본 발명의 실시예에 따른 이동 대차에 배치된 촬영 장비를 도시한다.
도 21은 본 발명의 실시예에 따른 시스템 구성도를 도시한다.
도 22는 본 발명의 실시예에 따른 소프트웨어 구성도를 도시한다.
도 23은 본 발명의 실시예에 따른 제어 및 측정 장치를 도시한다.
도 24는 본 발명의 실시예에 따른 데이터 흐름을 도시한다.
도 25는 본 발명의 실시예에 따른 이미지 머징 과정을 도시한다.
1 shows the main functions of operating software according to an embodiment of the present invention.
2 shows an image overlapping portion according to an embodiment of the present invention.
3 illustrates a system for operating a photographing device and analyzing and evaluating structure damage according to an embodiment of the present invention.
4 shows an angle of view and an adjusted distance according to an embodiment of the present invention.
5 illustrates a photographing decision and a photographing sequence according to an embodiment of the present invention.
6 illustrates a structure damage analysis and evaluation system according to an embodiment of the present invention.
7 is an example of image merging according to an embodiment of the present invention.
8 shows the structure of damage detection software according to an embodiment of the present invention.
9 shows a damage detection step according to an embodiment of the present invention.
10 shows an RPN structure according to an embodiment of the present invention.
11 shows a damage probability map through RPN according to an embodiment of the present invention.
12 shows a camera pin hole model according to an embodiment of the present invention.
13 is an example of damage quantification according to an embodiment of the present invention.
14 illustrates a documentation process according to an embodiment of the present invention.
15 is an example of documentation according to an embodiment of the present invention.
16 shows a GUI screen of damage analysis and evaluation software according to an embodiment of the present invention.
17A to 17D show a high-resolution image acquisition device according to an embodiment of the present invention.
18 shows a lighting device according to an embodiment of the present invention.
19 shows a high-resolution image acquisition device in which a lighting unit is disposed according to an embodiment of the present invention.
20 shows photographing equipment disposed on a moving cart according to an embodiment of the present invention.
21 shows a system configuration diagram according to an embodiment of the present invention.
22 shows a software configuration diagram according to an embodiment of the present invention.
23 shows a control and measurement device according to an embodiment of the present invention.
24 shows data flow according to an embodiment of the present invention.
25 illustrates an image merging process according to an embodiment of the present invention.

본 발명의 전술한 목적 및 그 이외의 목적과 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. The foregoing and other objects, advantages and characteristics of the present invention, and a method of achieving them will become clear with reference to the detailed embodiments described below in conjunction with the accompanying drawings.

그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 목적, 구성 및 효과를 용이하게 알려주기 위해 제공되는 것일 뿐으로서, 본 발명의 권리범위는 청구항의 기재에 의해 정의된다. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms, and only the following embodiments provide the purpose of the invention, As only provided to easily inform the configuration and effect, the scope of the present invention is defined by the description of the claims.

한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성소자, 단계, 동작 및/또는 소자가 하나 이상의 다른 구성소자, 단계, 동작 및/또는 소자의 존재 또는 추가됨을 배제하지 않는다.Meanwhile, terms used in this specification are for describing the embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, “comprises” and/or “comprising” means the presence of one or more other components, steps, operations, and/or elements in which a stated component, step, operation, and/or element is present. or added.

본 발명의 실시예에 따른 촬영 장치는 카메라와 구조물 과의 거리가 기설정 거리(40미터) 이상 촬영이 가능하고, 균열폭 기설정 한계(0.1mm)를 분별할 수 있는 이미지 정밀도를 확보하며, 넓은 에어리어의 분할 촬영이 가능하다. The photographing device according to the embodiment of the present invention is capable of photographing a predetermined distance (40 meters) or more between the camera and the structure, secures image precision capable of discriminating the crack width predetermined limit (0.1 mm), and wide area Split shooting is possible.

본 발명의 실시예에 따른 촬영 장치는 0~270도까지 각도가 조정되는 스마트폰을 사용하거나, DSLR 카메라를 사용할 수 있다. 스마트폰을 이용하는 경우 원격지에서 촬영 화면을 통신을 통해 확인할 수 있으며, DSLR 카메라를 사용하는 경우 현장 요원이 촬영 화면을 확인할 수 있다. 스마트폰을 이용하는 경우, IoT 기반으로 촬영되는 이미지를 무선 전송하여, 운용 SW가 설치되는 노트북, 고정IP가 부여된 NAS 또는 무선 랜을 이용한 클라우드로 전송이 이루어진다.The photographing device according to the embodiment of the present invention may use a smartphone whose angle is adjusted from 0 to 270 degrees or a DSLR camera. In the case of using a smartphone, the shooting screen can be checked from a remote location through communication, and in the case of using a DSLR camera, a field agent can check the shooting screen. In the case of using a smartphone, the image taken based on the IoT is wirelessly transmitted, and the transmission is made to a laptop with operating SW installed, a NAS with a fixed IP, or a cloud using a wireless LAN.

본 발명의 실시예에 따른 고해상도 자동제어 이미지 획득 시스템을 통해, 촬영 속도, 촬영 각도, 무게, 조립 복잡도를 개선하는 촬영 하드웨어를 이용하여 고해상도 이미지를 자동으로 획득하고 조명장치를 이용하여 자연광이 없는 경우에도 원활히 촬영을 수행하도록 지원하고, 이미지 머징, 순차적 머징 이미지의 미리 보기, 편집 기능을 제공하며, 프로그램 핸들링이 용이한 효과를 기대할 수 있다. Through the high-resolution automatically controlled image acquisition system according to an embodiment of the present invention, when a high-resolution image is automatically obtained using a shooting hardware that improves shooting speed, shooting angle, weight, and assembly complexity, and there is no natural light using a lighting device It supports smooth shooting, provides image merging, preview of sequentially merging images, and editing functions, and the effect of easy program handling can be expected.

본 발명의 실시예에 따른 고해상도 자동제어 이미지 획득 시스템에 대해서는 도 17 내지 도 25를 참조하여 후술한다. A high-resolution automatically controlled image acquisition system according to an embodiment of the present invention will be described later with reference to FIGS. 17 to 25 .

본 발명의 실시예에 따른 구조물의 손상 분석 및 평가를 위한 촬영 장치 운용 소프트웨어는 촬영부 운용 소프트웨어, 이동 및 회전부 운용 소프트웨어, 센서부 계측 정보 저장 소프트웨어를 포함한다. The photographing device operating software for analyzing and evaluating damage to a structure according to an embodiment of the present invention includes photographing unit operating software, moving and rotating unit operating software, and sensor unit measurement information storage software.

촬영부 운용 소프트웨어는 이미지 촬영을 자동 제어하는 프로그램으로서, 카메라 셔터를 자동으로 작동시키기 위한 제어 명령, 망원 렌즈의 이미지 초점을 자동으로 맞추기 위한 제어 명령을 송수신한다. The photographing unit operation software is a program that automatically controls image capture, and transmits and receives a control command for automatically operating a camera shutter and a control command for automatically focusing an image of a telephoto lens.

이동 및 회전부 운용 소프트웨어는 4축 이동을 자동 제어하는 프로그램으로서, 제어 명령 및 통신 전달을 위한 프로그램 및 현재 위치 확인, 오동작 예방 프로그램으로 구성된다. The software for operating the moving and rotating parts is a program that automatically controls the 4-axis movement, and consists of a program for transmitting control commands and communication, as well as a program for checking the current position and preventing malfunction.

이동 및 회전부 운용 소프트웨어는 촬영 하드웨어의 직선이송 디바이스와 회전 디바이스에 있는 모터에 구비된 모터 드라이브에 제어 명령을 전달하고, 모터의 상태, 엔코더 펄스 등에 대한 통신 전달을 수행한다. The moving and rotating part operation software transmits control commands to the motor drive included in the linear transfer device of the photographing hardware and the motor of the rotation device, and transmits communication about the state of the motor, encoder pulse, and the like.

센서부 계측 정보 저장 소프트웨어는 계측된 촬영 거리, 각도, 현재 위치 정보 및 촬영 하드웨어의 절대 위치를 자동 저장하기 위한 프로그램으로서, 계측 정보와 측정 정보를 통신으로 전달한다. The sensor unit measurement information storage software is a program for automatically storing the measured photographing distance, angle, current location information, and the absolute location of the photographing hardware, and transmits the measurement information and measurement information through communication.

본 발명의 실시예에 따른 운용 소프트웨어의 주요 기능은 도 1과 같다. The main functions of the operating software according to an embodiment of the present invention are shown in FIG.

도 2는 본 발명의 실시예에 따른 이미지 중첩 부분을 도시한다. 2 shows an image overlapping portion according to an embodiment of the present invention.

본 발명의 실시예에 따른 운용 소프트웨어의 촬영 시퀀스 기능 적합성은 기설정된 중첩률로 분할 촬영된 이미지 정확도에 대해 실시된다. The suitability of the shooting sequence function of the operating software according to the embodiment of the present invention is performed on the accuracy of images divided and photographed at a preset overlap ratio.

촬영 하드웨어를 설치하고 이를 운용 소프트웨어와 연결하고, 운용 소프트웨어를 이용하여 콘크리트의 특징점 추출을 위해 기설정된 중첩률로 시퀀스를 형성하고 "ㄹ"방향으로 촬영한다. Install the shooting hardware, connect it with the operating software, and use the operating software to form a sequence with a preset overlapping rate to extract feature points of concrete, and photograph in the "d" direction.

연속으로 기설정된 중첩률로 중첩 촬영된 이미지를 입력하고, 도 3에 도시한 바와 같이 중첩이 되는 부분을 확인하여 비교한다. Images that are continuously photographed overlapping at a predetermined overlapping rate are input, and as shown in FIG. 3 , overlapping portions are checked and compared.

중첩 이미지의 대각 픽셀 개수를 산출하고, 중첩 이미지의 특징점을 찾아 이미지 간의 픽셀 오차를 계산하며, 오차율을 오차픽셀/전체픽셀로 산출한다. The number of diagonal pixels of the overlapping images is calculated, feature points of the overlapping images are calculated, pixel errors between the images are calculated, and error rates are calculated as error pixels/total pixels.

촬영시퀀스 기능 적합성 시험 결과, 50% 분할 촬영된 이미지 정확도는 99.15%를 갖는 것으로 확인된다. As a result of the shooting sequence function suitability test, it is confirmed that the accuracy of the 50% divided image has 99.15%.

본 발명의 실시예에 따른 운용 소프트웨어는 전술한 바와 같이, 콘크리트 이미지 촬영을 위해 설치된 스마트 디바이스로 제어신호를 전송하고, 스마트 디바이스는 제어신호에 의해 그에 장착된 카메라를 구동시킨다. As described above, the operating software according to an embodiment of the present invention transmits a control signal to a smart device installed for taking a concrete image, and the smart device drives a camera mounted therein by the control signal.

이동 및 회전부 운용 소프트웨어는 다면체인 콘크리트 구조물을 촬영하기 위해 모터를 사용하여 촬영부를 정위치로 이동시키고, 모터 드라이브에 제어 명령을 전달하며 모터상태, 엔코더, 펄스 등을 수신한다.The software for operating the moving and rotating parts uses a motor to move the photographing part to the correct position in order to photograph the polyhedral concrete structure, transmits control commands to the motor drive, and receives motor states, encoders, and pulses.

센서부 계측 및 정보 저장 소프트웨어는 촬영범위를 지정한 후 특정 이미지 중첩률로 촬영하기 위한 거리, 각도 정보를 이용하여 자동으로 시퀀스를 형성하는 프로그램이다.The sensor measurement and information storage software is a program that automatically forms a sequence by using distance and angle information for shooting at a specific image overlap rate after specifying the shooting range.

도 3은 본 발명의 실시예에 따른 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템을 도시한다. 3 illustrates a system for operating a photographing device and analyzing and evaluating structure damage according to an embodiment of the present invention.

본 발명의 실시예에 따른 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템은 스마트 디바이스 또는 카메라에 의해 촬영된 이미지 정보를 수신하는 이미지 정보를 수신하는 입력부(1110)와, 촬영 장비에 대한 스마트 디바이스를 제어하는 운용 프로그램 및 이미지 정보를 이용하여 구조물에 대한 상태 평가를 수행하는 평가 프로그램이 저장된 메모리(1120) 및 운용 프로그램과 평가 프로그램을 실행시키는 프로세서(1130)를 포함하되, 프로세서(1130)는 촬영된 이미지 정보와 거리 센서의 계측 정보를 획득하고, 스마트 디바이스의 카메라에 대한 포커싱 제어를 수행하며, 분할 중첩 촬영에 대한 제어를 수행한다. A system for operating a photographing device and analyzing and evaluating structure damage according to an embodiment of the present invention controls an input unit 1110 for receiving image information photographed by a smart device or camera and a smart device for photographing equipment. A memory 1120 storing an evaluation program for evaluating the state of a structure using an operating program and image information stored therein, and a processor 1130 executing the operating program and the evaluation program, the processor 1130 includes a captured image Acquire information and measurement information of the distance sensor, perform focusing control for the camera of the smart device, and perform control for division overlapping shooting.

프로세서(1130)는 이미지 정보와 계측 정보를 동기화하여 무선 전송한다.The processor 1130 synchronizes image information and measurement information and transmits them wirelessly.

프로세서(1130)는 촬영된 이미지 정보를 무선 전송함에 있어서, 데이터 전처리 및 필터링을 수행한 이미지 정보를 전송한다. In wirelessly transmitting captured image information, the processor 1130 transmits image information after data pre-processing and filtering.

프로세서(1130)는 사용자 설정에 따라 카메라의 포커싱 위치에 대한 제어 명령을 전송한다. The processor 1130 transmits a control command for the focusing position of the camera according to user settings.

프로세서(1130)는 촬영 영역에 대해 조명을 비추도록 조명부에 대한 제어를 수행한다. The processor 1130 controls the lighting unit to illuminate the photographing area.

프로세서(1130)는 기설정된 이미지 중첩률로 분할 중첩 촬영에 대한 제어를 수행한다. The processor 1130 controls division and overlapping shooting with a preset image overlap ratio.

프로세서(1130)는 부재의 기설정 영역에 대해 촬영 범위를 지정하고, 기설정된 이미지 중첩률을 갖는 화각의 테이블을 생성하여 각 테이블마다 촬영 여부를 판단한다. The processor 1130 designates a shooting range for a preset region of the member, creates a table of angles of view having a preset image overlap ratio, and determines whether to shoot for each table.

현재 구조물의 점검 시, 균열폭 0.1mm부터 조사하여야 하므로, 이미지를 이용하여 손상분석시 고해상도 이미지가 요구된다. When inspecting current structures, crack widths of 0.1 mm must be investigated, so high-resolution images are required for damage analysis using images.

고해상도 이미지 촬영을 위해 분할 촬영을 하고, 이러한 분할 촬영된 이미지를 하나의 이미지로 정합하기 위해, 분할 중첩 촬영에 대한 제어를 수행한다. Divisional photographing is performed to capture a high-resolution image, and division and overlapping photographing is controlled to combine the divided images into one image.

이미지 머징 소프트웨어의 중첩률 결정에 따라 거리 센서 및 각도 센서로부터 계측된 정보를 자동 계산하여, 촬영 장치를 회전시켜 결정된 바에 따른 중첩률로 촬영함이 바람직하다. It is preferable to automatically calculate the information measured from the distance sensor and the angle sensor according to the determination of the overlap ratio of the image merging software, rotate the photographing device, and take pictures at the determined overlap ratio.

이 때, 이미지의 해상도는 가로 및 세로 별로 상이하므로, 가로 및 세로 방향의 이동 범위를 각각 계산하여 촬영을 위한 제어 명령을 전송한다. At this time, since the resolution of the image is different for each horizontal and vertical direction, a control command for photographing is transmitted after calculating a movement range in the horizontal and vertical directions, respectively.

전술한 바와 같이, 촬영되는 이미지 해상도는 가로와 세로의 촬영 길이가 다르므로, 촬영하는 이미지의 일정한 중첩률을 유지하기 위하여 도 4와 같이 화각계산을 통해 조정을 수행한다. As described above, since the horizontal and vertical shooting lengths of the captured image resolution are different, adjustment is performed through the angle of view calculation as shown in FIG. 4 in order to maintain a constant overlap rate of the captured images.

본 발명의 실시예에 따르면, 프로세서(1130)는 모터를 제어하여 촬영범위를 지정하고, 기설정 비율(50%)의 중첩률을 갖는 화각의 테이블을 생성하며, 각 테이블마다 촬영 여부를 판단한다. According to an embodiment of the present invention, the processor 1130 controls a motor to designate a shooting range, creates a table of angles of view having an overlap ratio of a predetermined ratio (50%), and determines whether to shoot for each table. .

촬영 경우의 수는 총 3가지인데, 1) 구조물 내에 촬영 화각의 꼭짓점이 1개 이상 포함되는 경우,2) 촬영 화각 내에 구조물의 꼭짓점이 1개 이상 포함되는 경우, 3) 1)과 2)를 모두 만족하는 경우이다.There are a total of three types of shooting cases: 1) when one or more vertices of the shooting angle are included in the structure, 2) when one or more vertices of the structure are included in the shooting angle of view, and 3) 1) and 2) if all are satisfied.

도 5는 본 발명의 실시예에 따른 촬영 여부 판단 및 촬영순서를 도시한다. 5 illustrates a photographing decision and a photographing sequence according to an embodiment of the present invention.

촬영 여부 판단 결과에 의해 촬영을 하는 테이블을 좌측 상단에서부터 우측으로 이동하며 촬영하며, 우측 끝에 도달한 경우 아래로 이동하여 촬영하는 형식으로 촬영하도록 제어한다. Based on the result of determining whether or not to take a picture, the table to be taken is moved from the upper left to the right and taken, and when it reaches the right end, it is controlled to take a picture by moving down.

사각형으로 촬영 범위를 지정하여 콘크리트 이미지를 획득하는 경우, 주변 배경까지 촬영되는 문제점이 있는 반면, 본 발명의 실시예에 따르면 촬영범위 지정시 부재의 끝단 모서리를 지정하도록 제어함으로써, 구조물의 콘크리트 부재 안을 촬영하도록 조정하여 촬영시간을 단축하는 효과가 있다. When acquiring a concrete image by specifying a shooting range in a rectangle, there is a problem in that the surrounding background is also captured. However, according to the embodiment of the present invention, by controlling to designate the end edge of a member when designating a shooting range, the interior of the concrete member of the structure is captured. It has the effect of shortening the shooting time by adjusting it to shoot.

본 발명의 실시예에 따르면, 강교 도장 손상, 콘크리트 누수, 재료 분리를 포함하도록 검출 대상 손상 종류를 확대하는 것이 가능하다.According to an embodiment of the present invention, it is possible to expand the types of damage to be detected to include steel bridge paint damage, concrete leakage, and material separation.

프로세서(1130)는 기설정된 타이밍에 따라 계측 정보를 무선 전송한다. The processor 1130 wirelessly transmits measurement information according to a preset timing.

프로세서(1130)는 회전 부재로 회전 제어 명령 신호를 전송하여, 스마트 디바이스의 회전 각도를 제어한다. The processor 1130 transmits a rotation control command signal to the rotation member to control the rotation angle of the smart device.

도 6을 참조하면, 스마트 폰으로부터 이미지 정보를 수신하여 정합을 수행하는 이미지 정합부(1610)와, 마스크 영역 기반 회선 신경망 알고리즘을 이용하여 균열, 백태, 박락, 파손 및 철근노출, 강교 도장 손상, 콘크리트 누수, 재료분리 중 적어도 어느 하나를 포함하는 손상을 검출하고, 검출된 손상에 대한 정량화를 수행하는 손상검출 및 정량화부(1620) 및 외관조사망도와 손상물량표를 작성하는 문서화부(1630)를 포함한다. Referring to FIG. 6, by using an image matching unit 1610 that performs matching by receiving image information from a smartphone, and using a convolutional neural network algorithm based on a mask area, cracks, whiteness, peeling, damage and exposure of reinforcing bars, steel bridge paint damage, A damage detection and quantification unit 1620 that detects damage, including at least one of concrete leak and material separation, and quantifies the detected damage, and a documentation unit 1630 that prepares an external survey network map and a damage quantity table includes

이미지 정합부(1610)는 기설정된 중첩률로 분할 촬영된 이미지를 이용하여 특징점을 추출하고, 구조물에 대한 이미지를 구현한다. The image matching unit 1610 extracts feature points using images divided and photographed at a predetermined overlapping rate, and implements an image of a structure.

이미지 정합부(1610)는 스마트 폰의 촬영 각도, 거리, 중첩률에 대한 정보를 이용하여, 이미지 머징을 수행한다.The image matching unit 1610 performs image merging by using information about the shooting angle, distance, and overlap ratio of the smart phone.

손상검출 및 정량화부(1620)는 손상 위치 탐지, 손상 종류 분류, 손상 영역에 대한 픽셀 단위 검출을 수행하는 마스크 영역 기반 회선 신경망 알고리즘을 이용하여 손상을 검출한다. The damage detection and quantification unit 1620 detects damage using a convolutional neural network algorithm based on a mask area that performs damage location detection, damage type classification, and pixel-by-pixel detection of the damage area.

손상검출 및 정량화부(1620)는 Region Proposal Network를 이용하여 확률지도를 획득하고, 기설정된 기준 확률을 이용하여 물체를 결정한다. The damage detection and quantification unit 1620 obtains a probability map using a Region Proposal Network and determines an object using a preset reference probability.

손상검출 및 정량화부(1620)는 Region Proposal Network의 영역 제안 결과를 이용하여, 후보 상자로부터 RoIAlign을 통해 손상의 특징을 추출하고 분류를 수행한다. The damage detection and quantification unit 1620 uses the region proposal results of the Region Proposal Network to extract features of damage from candidate boxes through RoIAlign and perform classification.

손상검출 및 정량화부(1620)는 RoIAlign을 통해 추출된 특징 지도를 픽셀 단위로 이미지의 물체를 분할하는 Mask branch로 공급하여 물체의 형태를 검출한다. The damage detection and quantification unit 1620 detects the shape of the object by supplying the feature map extracted through RoIAlign to a mask branch that divides the object of the image in pixel units.

손상검출 및 정량화부(1620)는 카메라 핀 홀 모델을 이용하여 이미지의 손상 크기에 대한 실제 손상 크기를 획득한다. The damage detection and quantification unit 1620 obtains the actual damage size for the damage size of the image using the camera pinhole model.

문서화부(1630)는 손상의 좌표와 범위를 길이로 환산하고, 손상 종류 및 손상 수량을 기준으로 분류하여 손상 정보에 대한 문서화를 수행한다. The documentation unit 1630 converts the coordinates and extent of damage into length, classifies them based on the type and amount of damage, and documents damage information.

문서화부(1630)는 픽셀 좌표, 종류, 범위를 이용하여 외관조사망도를 생성한다. The documentation unit 1630 creates an external survey network map using pixel coordinates, type, and range.

본 발명의 실시예에 따른 평가 프로그램은 이미지 머징 소프트웨어와 손상분석 및 정량화 소프트웨어, 문서화 소프트웨어를 포함한다. An evaluation program according to an embodiment of the present invention includes image merging software, damage analysis and quantification software, and documentation software.

본 발명의 실시예에 따르면, FCN과 Mask R-CNN을 융합한 방식을 이용하여 균열, 백태, 박락, 철근노출, 파손, 강교 도장 손상, 콘크리트 누수, 재료 분리 중 적어도 어느 하나의 손상검출을 수행하며, 손상분석 및 정량화 소프트웨어 개발을 위해 학습이미지 데이터셋을 준비하고, 학습 외적인자(하이퍼파라미터)를 설정하고, 이미지 증강 및 알고리즘 정확성 검증을 수행한다. According to an embodiment of the present invention, at least one of crack, efflorescence, exfoliation, exposure of reinforcing bar, damage, damage to steel bridge painting, concrete leak, and material separation is detected by using a method combining FCN and Mask R-CNN. To develop damage analysis and quantification software, training image datasets are prepared, non-learning factors (hyperparameters) are set, and image augmentation and algorithm accuracy verification are performed.

이하, 학습이미지 데이터셋 준비와 관련하여 설명한다. Hereinafter, preparation of the training image dataset will be described.

인공지능은 여러 가지 환경을 처리하기 위한 알고리즘을 개발자가 일일이 구현하는 방식이 아니라, 주어진 이미지 데이터셋(dataset)에서 컴퓨터가 스스로 주요한 특징을 찾아 손상을 탐지하는 방식으로 많은 학습이미지 데이터가 필요하다.Artificial intelligence is not a method in which developers implement algorithms for handling various environments, but a method in which a computer detects damage by itself by finding key features in a given image dataset, and requires a lot of training image data.

본 발명의 실시예에 따르면, 안전점검 및 정밀안전진단 용역 수행을 통해 취득된 자료를 데이터베이스로 관리하고, 데이터베이스에 포함된 이미지 데이터를 인공지능 알고리즘 네트워크의 학습화 자료로 정선하여 사용한다. According to an embodiment of the present invention, the data acquired through the performance of safety inspection and precise safety diagnosis services are managed in a database, and the image data included in the database is selected and used as learning data for an artificial intelligence algorithm network.

이 때, 학습이미지는 손상이미지와 비손상이미지로 구분하여 손상 이미지 (200,000장), 비손상 이미지(100장)을 추출하여 학습대상으로 정하며, 손상 이미지 및 비손상 이미지의 수량에 대한 조절이 가능하다. At this time, the training images are divided into damaged images and non-damaged images, and damaged images (200,000 copies) and non-damaged images (100 copies) are extracted and set as learning targets, and the quantity of damaged images and non-damaged images can be adjusted. do.

각 손상별 학습 방법에 대해 서술하면, 균열은 콘크리트 표면이 갈라지는 부분과 끊어지는 곳을 기준으로 구분하여 한 레이블 당 하나 또는 두 개의 선을 가진 균열만 학습화시키고, 백태는 비교적 흰색이 주요하게 두드러지며, 물이 흐른 모양이 뚜렷한 백태 위주로 학습화시키고, 철근노출은 노출된 철근 한 개를 하나로 학습화시키고, 휘어져 있는 형태가 균열과 유사한지 검토하며, 박락은 손상의 경계부와 내부 골재 노출이 뚜렷한 박락 위주로 학습화시키고, 파손은 외부충격에 의해 파손된 부위만을 학습화시킨다. Describing the learning method for each damage, cracks are classified based on the part where the concrete surface is cracked and the part where it is cut off, and only cracks with one or two lines per label are learned. In the case of reinforcing bar exposure, one exposed reinforcing bar is studied as one, and whether the curved shape is similar to a crack is reviewed. It learns mainly on exfoliation, and learns only the parts damaged by external impact for damage.

이하, 학습 외적인자 설정과 관련하여 설명한다. Hereinafter, the setting of factors outside learning will be described.

학습에 사용된 Convolutional Network는 Residual Network 101(은닉층의 수가 101개임)이고, 러닝 레이트(Learning rate)는 0.001, Epoch는 100 및 이미지 배치 사이즈(Image batch size)는 8이다. The convolutional network used for learning is a residual network 101 (the number of hidden layers is 101), the learning rate is 0.001, the epoch is 100, and the image batch size is 8.

러닝 레이트(Learning rate)는 로스 펑션(loss function)이 최소가 되는 지점을 찾아가는 알고리즘 사용 시 코스트(cost) 값이 미분한 값 앞에 오는 알파값으로서 어느 정도의 크기로 기울기가 줄어드는 지점으로 이동할 것인지 나타내는 지표이다. The learning rate is an alpha value that comes before the differential value of the cost value when using an algorithm that finds the point where the loss function is minimized. It is an indicator.

[수학식 1][Equation 1]

학습 과정에서 인풋, 히든 레이어 및 아웃풋 사이에서 피드 포워드(feed forward) 과정과 백 프로파게이션(back propagation) 과정을 거치면서 웨이트(수학식 1의 W)를 업데이트한다. In the learning process, the weight (W in Equation 1) is updated through a feed forward process and a back propagation process between the input, hidden layer, and output.

이 때, 전체 데이터를 분할하여 피드 포워드와 백 프로파게이션을 반복하며, 이 한 과정을 Epoch라고 정의한다. At this time, the entire data is divided and feed forward and back propagation are repeated, and this one process is defined as an epoch.

한 개 Epoch에 사용되는 데이터를 Mini-batch라고 정의하며, 그 크기를Batch size로 정의한다. The data used for one epoch is defined as a mini-batch, and its size is defined as a batch size.

이하, 이미지 증강(augmentation)에 대해 설명한다. Hereinafter, image augmentation (augmentation) will be described.

학습된 Mask R-CNN의 성능을 높이고 과적합을 방지하기 위해, 학습의 각 반복(Iteration)마다 무작위로 수평 및 수직 방향 반전(Flip)의 이미지 증강을 적용한다. In order to improve the performance of the learned Mask R-CNN and prevent overfitting, image augmentation of horizontal and vertical flips is applied randomly in each iteration of learning.

이하, 알고리즘 정확성 검증에 대해 설명한다. Hereinafter, algorithm accuracy verification will be described.

알고리즘의 정확성은 Epoch 별 손실함수(Loss function)값으로 검증하며, 손실함수(Loss function)는 모델 학습 시 정확성이 가장 높은 임계지점을 찾아내는 최적화 기법으로 이용하는 함수이다. The accuracy of the algorithm is verified by the loss function value for each epoch, and the loss function is a function used as an optimization technique to find the critical point with the highest accuracy during model learning.

[수학식 2][Equation 2]

Loss function = Lcls + Lbox + Lmask Loss function = L cls + L box + L mask

Lcls는 softmax Cross Entropy, Lbox는 Regression, Lmask는 Binary Cross Entropy이다.L cls is softmax cross entropy, L box is regression, and L mask is binary cross entropy.

Epoch 학습은 점차적으로 손실함수 값이 감소하면서 수렴하는 경향을 확인할 수 있다. Epoch learning shows a tendency to converge as the value of the loss function gradually decreases.

이미지 머징부(610)는 도 7에 도시한 바와 같이, 촬영 하드웨어 및 운용 소프트웨어를 이용하여 기설정된 중첩률로 획득한 분할 이미지를 수신하여, 각각의 이미지의 특징점을 추출하고(aligning image), 하나의 이미지로 생성한다. As shown in FIG. 7 , the image merging unit 610 receives divided images acquired at a predetermined overlapping rate using photographing hardware and operating software, extracts feature points of each image (aligning image), and create an image of

손상 검출 및 정량화부(1120)는 도 8 및 도 9에 도시한 바와 같이, Mask R-CNN을 이용하여 손상을 검출하며, 바람직하게는 FCN과 Mask R-CNN을 융합한 방식을 사용하여 손상을 검출하는 것이 가능하다. As shown in FIGS. 8 and 9, the damage detection and quantification unit 1120 detects damage using Mask R-CNN, and preferably uses a method combining FCN and Mask R-CNN to detect damage. it is possible to detect

손상 검출 및 정량화부(620)는 카메라 핀 홀 모델을 이용하여 검출한 손상 크기를 정량화한다. The damage detection and quantification unit 620 quantifies the detected damage size using a camera pinhole model.

Mask R-CNN은 물체 분류 모델과 물체 세분화 모델을 결합한 형태로서 입력된 이미지 내의 손상의 위치를 탐지하고, 탐지된 손상의 종류를 분류한 뒤, 손상의 영역을 픽셀 단위로 검출하는 3단계로 구성된다. Mask R-CNN is a combination of an object classification model and an object segmentation model, and consists of three steps: detecting the location of damage in the input image, classifying the type of detected damage, and detecting the area of damage in pixel units. do.

이하, 손상 위치 탐지 단계에 대해 설명한다. Hereinafter, the damage location detection step will be described.

손상의 위치를 탐지하기 위하여 RPN(Region Proposal Network)을 이용하여 이미지에서 손상이 있을 가능성이 있는 위치를 찾는다.In order to detect the location of damage, RPN (Region Proposal Network) is used to find locations where damage is likely to occur in the image.

RPN은 이미지가 검출해야 하는 손상과 얼마나 유사한지를 반영하는 손상확률 점수와 경계 상자의 형태로 손상의 위치를 출력하는 FCN(Fully Convolutional Network) 알고리즘이다. RPN is a Fully Convolutional Network (FCN) algorithm that outputs the damage probability score reflecting how similar the image is to the damage to be detected and the location of damage in the form of a bounding box.

RPN은 영역 제안을 생성하기 위하여 CNN(Convolutional Neural Network) 모델에서 추출한 특징 지도(Feature Map)를 경계상자를 이용해 스캐닝한다. RPN scans a feature map extracted from a convolutional neural network (CNN) model using a bounding box to generate region proposals.

경계 상자에 의해 특징 지도로부터 얻어진 각 영역은 저차원 특징으로 변환되고 그 특징은 box regression layer와 box classification layer로 공급된다. Each region obtained from the feature map by the bounding box is converted into a low-dimensional feature, and the feature is supplied to the box regression layer and box classification layer.

RPN은 각 슬라이딩 창 위치에서 손상위치 영역을 탐지한다. RPN detects the damage location area at each sliding window position.

각각의 경계 상자는 도 10에 도시한 바와 같이, 하나의 위치에서 최대 k개의 영역 제안들을 갖는다. Each bounding box has at most k region proposals at one location, as shown in FIG. 10 .

k개의 영역에 대하여 box regression layer는 경계 상자의 좌표를 나타내는 4개의 출력(좌상단의 x좌표, y좌표, 높이, 폭)을 가지며 box classification layer는 경계 상자의 손상 혹은 비손상일 확률을 나타내기 위하여 2개의 class를 가지는 softmax 계층을 가진다. For k areas, the box regression layer has 4 outputs (x-coordinate, y-coordinate, height, and width of the upper left corner) representing the coordinates of the bounding box, and the box classification layer has 2 outputs to indicate the probability that the bounding box is damaged or intact. It has a softmax layer with two classes.

k개의 영역은 앵커(anchor)라고 불리며 경계상자를 중심으로 일정하게 가로 크기와 세로 크기를 변화시키며 영역 제안을 수행한다.The k areas are called anchors, and area proposals are performed by constantly changing the horizontal and vertical sizes centered on the bounding box.

도 11은 RPN을 손상탐지에 대하여 학습시킨 뒤 RPN으로부터 확률지도를 얻은 것을 도시한다. 11 shows that a probability map is obtained from the RPN after training the RPN for damage detection.

RPN이 추출한 물체의 확률지도를 획득한 후 임계값을 설정하여 기설정 임계값 이상의 영역을 물체로 판단한다.After acquiring the probability map of the object extracted by the RPN, a threshold value is set to determine an area above the preset threshold value as an object.

확률지도의 임계값을 결정하는 방법으로 손상 탐지에 대하여 실험을 진행할 수 있으나, 손상이라는 데이터의 특성상 실험적으로 결정하는 것이 다소 어려울 수 있으므로, 경계 상자 형태의 확률지도를 사용한 연구 결과를 참고하여 확률지도의 임계값을 결정한다. It is possible to conduct an experiment on damage detection as a method of determining the threshold of the probability map, but it can be somewhat difficult to determine experimentally due to the nature of damage data. determine the threshold of

경계 상자 형태의 확률지도를 사용한 예시로, 물체 탐지 모델의 일종인 Faster R-CNN이 있다. As an example of using a bounding box-type probability map, there is Faster R-CNN, a type of object detection model.

Faster R-CNN은 확률지도 상에서 물체일 확률이 0.6이상25이 되는 영역을 물체로 결정한다. Faster R-CNN determines the area where the probability of being an object is 0.6 or more 25 on the probability map as an object.

본 발명의 실시예에 따르면, 일반적인 물체들보다 더 조밀하게 분포하는 손상을 효율적으로 탐지하고자, 확률지도에서 손상일 확률이 0.8 이상인 부분을 손상으로 결정하며, 기준 확률은 변경될 수 있다. According to an embodiment of the present invention, in order to efficiently detect damage that is more densely distributed than general objects, a part having a damage probability of 0.8 or more in a probability map is determined as damage, and the reference probability may be changed.

이하, 탐지된 손상을 분류하는 단계에 대해 설명한다. Hereinafter, the step of classifying the detected damage will be described.

RPN으로부터 영역 제안 결과를 취하고, 각각의 후보 상자로부터 RoIAlign을 사용하여 손상의 특징을 추출하고, 분류를 수행한다.We take region proposal results from RPN, extract features of impairment using RoIAlign from each candidate box, and perform classification.

RoIAlign은 후보 상자의 특징 추출 결과를 입력 이미지와 적절하게 정렬하는 작업으로, RoIAlign은 RPN에 의해 추출된 영역 제안으로부터 w Х h 크기의 특징 지도(신청기술에서는 7 Х 7)를 생성한다. RoIAlign is an operation that properly aligns the feature extraction result of the candidate box with the input image. RoIAlign creates a w Х h size feature map (7 Х 7 in the application technology) from the area proposal extracted by RPN.

이 과정에서 실수(real number)로 표현되는 좌표를 사용하여 정수로 좌표를 표현하는 특징 지도에서 영역 제안의 위치를 나타낼 경우 정렬이 올바르게 되지 않는 문제가 있고, 영역 제안의 위치를 정수로 반올림하면 특징 추출 결과가 좋지 않을 수 있으므로, 영역 제안의 정확한 위치가 손실되지 않도록 RoIAlign을 수행한다. In this process, there is a problem that the alignment is not correct when the position of the region proposal is indicated on the feature map, which expresses the coordinates as an integer using coordinates expressed as real numbers, and if the position of the region proposal is rounded to an integer, there is a problem. Since the extraction result may not be good, RoIAlign is performed so that the exact location of the region proposal is not lost.

RoIAlign은 특징 지도의 인근 점으로부터 bilinear interpolation을 사용하여 각 특징 추출점의 정확한 값을 계산한다. RoIAlign calculates the exact value of each feature extraction point using bilinear interpolation from nearby points in the feature map.

RoIAlign에서 추출한 특징 지도는 더 높은 정확도로 물체를 분류하는 데 기여할 뿐만 아니라 물체의 형상 추출의 정확도도 향상시킨다.Feature maps extracted from RoIAlign not only contribute to object classification with higher accuracy, but also improve the accuracy of object shape extraction.

이하, 손상형상 검출 단계에 대해 설명한다. Hereinafter, the damage shape detection step will be described.

RoIAlign에 의해 추출된 특징 지도는 Mask branch를 이용하여 손상형상을 검출한다.The feature map extracted by RoIAlign detects the damage shape using the mask branch.

RoIAlign에 의해 추출된 특징 지도는 Faster R-CNN의 Classification layer 및 Bounding-Box regressor layer로 전달된다. The feature map extracted by RoIAlign is passed to the Classification layer and Bounding-Box regressor layer of Faster R-CNN.

Bounding-Box regressor layer는 RPN이 작동하는 것과 매우 유사한 방식으로 작동하며 경계 상자의 위치와 크기를 미세 조정한다. The Bounding-Box regressor layer works in a very similar way to how RPN works, fine-tuning the position and size of the bounding box.

RoIAlign에 의해 추출된 특징 지도는 Mask branch로 공급되어 경계 상자에서 물체의 형태를 결정한다. The feature map extracted by RoIAlign is supplied to the mask branch to determine the shape of the object in the bounding box.

Mask branch는 픽셀 단위로 이미지의 물체를 분할하는 FCN이다.A mask branch is an FCN that divides an object in an image in units of pixels.

일례로, Mask branch의 구조는 4개의 연속된 3x3 convolutional layer, 1x1 deconvolutional layer 및 1x1 convolutional layer로 구성될 수 있고, Classification layer에 평행하게 배치되는 Mask branch는 Classification layer에 의해 지정된 물체의 클래스가 없이도 물체 형상을 예측하는 것이 가능한 효과가 있다. As an example, the structure of the mask branch can be composed of four consecutive 3x3 convolutional layers, a 1x1 deconvolutional layer, and a 1x1 convolutional layer, and the mask branch placed in parallel to the classification layer is an object without the class of the object specified by the classification layer. There is an effect that it is possible to predict the shape.

이하, 본 발명의 실시예에 따른 손상 검출 및 정량화부(1120)의 손상정량화에 대해 설명한다. Hereinafter, damage quantification of the damage detection and quantification unit 1120 according to an embodiment of the present invention will be described.

도 12에 도시한 바와 같이, 카메라 핀 홀 모델을 이용하여 정량화를 수행한다. As shown in FIG. 12, quantification is performed using a camera pinhole model.

이미지의 1pixel 계산을 위해서는 촬영거리와 각도가 필요하고, 계측된 거리와 각도를 이용하여 카메라 핀 홀 모델을 이용하여 1pixel 크기를 계산하여 분석된 손상의 크기를 정량화한다. The shooting distance and angle are required to calculate 1 pixel of the image, and the size of the analyzed damage is quantified by calculating the size of 1 pixel using the camera pinhole model using the measured distance and angle.

카메라 핀 홀 모델은 이미지의 손상 크기에 대한 실제 손상 크기의 비례식 표현이며, 실제 손상의 길이( )의 계산은 다음 [수학식 3]과 같다. The camera pinhole model is a proportional expression of the actual damage size to the damage size of the image, and the length of the actual damage ( ) is calculated as follows [Equation 3].

[수학식 3][Equation 3]

Wc는 실제 손상길이를 나타내고, Dw는 콘크리트와 카메라 센서 사이의 거리를 나타내고, PC는 카메라 센서의 픽셀당 밀리미터를 나타내고, Lf는 카메라의 초점거리를 나타내고, Dp는 핀 홀 모델에서 단일 픽셀에 대응하는 거리를 나타낸다. 도 13은 본 발명의 실시예에 따른 손상정량화의 예시이다. W c represents the actual damage length, D w represents the distance between the concrete and the camera sensor, PC represents millimeters per pixel of the camera sensor, L f represents the focal length of the camera, and D p represents the pinhole model Indicates the distance corresponding to a single pixel in . 13 is an example of damage quantification according to an embodiment of the present invention.

본 발명의 실시예에 따른 문서화부(630)는 도 14에 도시한 바와 같이, 이미지 머징 소프트웨어와 손상검출 및 정량화 소프트웨어를 이용하여 분석된 결과인 손상의 종류, 크기, 형상 및 위치 정보를 이용하여 손상물량표와 외관조사망도를 생성한다. As shown in FIG. 14, the documentation unit 630 according to an embodiment of the present invention uses image merging software and damage detection and quantification software to analyze the damage type, size, shape, and location information by using damage type, size, shape, and location information. Create a damage quantity table and an external survey network map.

손상물량표는 손상검출 및 정량화 소프트웨어에서 분석 완료된 손상의 좌표와 범위를 길이로 환산하고, 손상 종류 및 손상 수량을 기준으로 분류하여 연번을 부여하고, 분류된 손상 정보들을 문서화한다. In the damage quantity table, the damage detection and quantification software converts the coordinates and range of the analyzed damage into length, classifies them based on the type and amount of damage, assigns a serial number, and documents the classified damage information.

외관조사망도는 머징이 완료된 이미지에서 손상 검출 대상의 아웃라인(Outline)을 설정하고, 손상검출 및 정량화 소프트웨어에서 분석된 픽셀의 좌표와 종류 그리고 범위를 이용하여 CAD 파일 형태로 문서화하며, 이 때 외관조사망도에 부여된 손상 연번은 손상물량표에도 동일한 번호가 부여된다.The external survey network map sets the outline of the damage detection target in the image after merging, and documents it in the form of a CAD file using the coordinates, type, and range of pixels analyzed in the damage detection and quantification software. The damage serial number assigned to the exterior survey network map is also assigned the same number to the damage quantity table.

본 발명의 실시예에 따르면, 외곽을 결정하고, 상기 결정된 외곽 내부의 타겟에 대해서만 그 위치정보를 추출하여, 자동 문서화를 수행한다. According to an embodiment of the present invention, an outer perimeter is determined, and location information is extracted only for a target within the determined outer perimeter, and automatic documentation is performed.

또한 외관조사망도에 나타나는 손상의 형상은 실제 손상의 형상과 동일하게 작도되며, 손상물량표에는 균열의 경우 폭과 길이가 산출되고, 단면손상에 대해서는 가로 최대길이, 세로 최대길이 및 면적이 산출된다. In addition, the shape of damage shown in the external survey network map is drawn the same as the shape of actual damage. do.

도 15는 본 발명의 실시예에 따른 문서화의 예시이고, 도 16은 손상분석 및 평가 소프트웨어의 GUI 화면을 도시한다. 15 is an example of documentation according to an embodiment of the present invention, and FIG. 16 shows a GUI screen of damage analysis and evaluation software.

본 발명의 실시예에 따른 고해상도 자동제어 이미지 획득 시스템은 촬영을 수행하여 이미지 및 촬영 정보를 전송하는 촬영 기기와, 촬영 영역에 대해 조명을 조사하는 조명 장치와, 상기 촬영 기기가 거치되고, 상기 촬영 기기의 촬영 각도를 조정하는 촬영 장비 및 상기 촬영 장비에 대한 통합 제어를 수행하는 컴퓨팅 디바이스; 및 고해상도 이미지를 저장하는 저장부를 포함한다. A high-resolution automatically controlled image acquisition system according to an embodiment of the present invention includes a photographing device for performing photographing and transmitting images and photographing information, a lighting device for irradiating light on a photographing area, and the photographing device. A computing device that performs integrated control of a photographing device that adjusts a photographing angle of the device and the photographing equipment; and a storage unit for storing high-resolution images.

본 발명의 다른 실시예에 따르면, 스마트폰 또는 DSLR 카메라를 촬영 기기로 이용하며, 촬영 기기가 거치된 촬영 장비에 대해 제어 신호를 전송하여 회전 동작을 제어하는 것이 가능하다. According to another embodiment of the present invention, it is possible to control a rotation operation by using a smartphone or a DSLR camera as a photographing device and transmitting a control signal to the photographing equipment on which the photographing device is mounted.

상기 컴퓨팅 디바이스는 상기 촬영 장비로 모터 제어 신호를 전송하고, 상기 촬영 장비는 상기 모터 제어 신호를 이용하여 직교하는 2개의 축에 대한 회전 각도 제어를 수행한다. The computing device transmits a motor control signal to the photographing equipment, and the photographing equipment performs rotation angle control for two orthogonal axes using the motor control signal.

상기 촬영 장비는 거리 센서 정보 및 리미트 센서 정보를 이용하여 피사체와의 거리 정보 및 모터의 위치 정보를 실시간 계측한다. The photographing equipment measures distance information to a subject and position information of a motor in real time using distance sensor information and limit sensor information.

상기 촬영 장비는 삼각대 구조에 의해 지지되며, 상기 삼각대를 구성하는 각 다리는 상이하게 높이 조절되어 지형에 따라 촬영을 위한 수평을 유지한다. The photographing equipment is supported by a tripod structure, and each leg constituting the tripod is adjusted in a different height to maintain a horizontal level for photographing according to the topography.

상기 촬영 장비는 이동 대차 위에 배치되어, 촬영 장소에서의 이동이 용이한 효과가 있다. The photographing equipment is disposed on a movable carriage, so that it can be easily moved from a photographing location.

상기 촬영 기기는 카메라 및 영상 상태 정보를 실시간으로 전송한다. The photographing device transmits camera and video state information in real time.

상기 저장부는 클라우드 서버 또는 NAS 중 적어도 어느 하나를 포함한다. The storage unit includes at least one of a cloud server and a NAS.

상기 조명부는 통신 모듈을 구비하고, 상기 컴퓨팅 디바이스로부터 제어 신호를 인가받아 조명 조사 영역을 변경시킨다. The lighting unit includes a communication module, receives a control signal from the computing device, and changes a lighting irradiation area.

상기 조명부는 상기 촬영 기기의 촬영 영역 제어에 의한 구동 시 연동되어, 촬영 영역 각도 제어 시 함께 조명 조사 영역 각도가 변경된다. The lighting unit is interlocked when the photographing device is driven by controlling the photographing area, and an angle of the lighting irradiation area is changed when the angle of the photographing area is controlled.

본 발명에 따르면, 촬영 속도가 증가되고 0~270도의 촬영 각도를 확보하며, 구조체가 경량화되고 그 조립이 간략화되는 장점이 있고, 포커싱 정보와 촬영된 이미지의 전송이 가능한 장점이 있으며, 핸들링이 용이한 이미지 머징 프로그램을 제공하고, 클라우드 또는 NAS를 활용하여 실시간으로 어디에서든지 손상을 확인하는 것이 가능한 장점이 있다. According to the present invention, the photographing speed is increased, a photographing angle of 0 to 270 degrees is secured, the structure is lightened and its assembly is simplified, there are advantages in that focusing information and photographed images can be transmitted, and handling is easy. It provides one image merging program and has the advantage of being able to check damage anywhere in real time by utilizing the cloud or NAS.

도 17a 내지 도 17d는 본 발명의 실시예에 따른 고해상도 이미지 획득 장치를 도시하며, 도 17a는 정면도, 도 17b는 좌측면도, 도 17c는 우측면도, 도 17d는 후면도를 도시한다. 17A to 17D show a high-resolution image acquisition device according to an embodiment of the present invention, wherein FIG. 17A is a front view, FIG. 17B is a left view, FIG. 17C is a right view, and FIG. 17D is a rear view.

본 발명의 실시예에 따른 고해상도 이미지 획득 장치는 모터 제너레이터(101), 베이스 패널(102), y축 회전 베이스(103), 삼각대 고정 브라켓(104), 베어링(105), x축 회전 기둥(106), 삼각대(107), x축 회전 풀리(108), 고정 브라켓(109), 카메라와 피사체 사이의 거리를 측정하는 거리 센서(110), x축 회전 베어링(111), y축 회전 풀리(112), 카메라 고정부(113), y축 회전 스토퍼(114), 카메라 고정 브라켓(115), 하부 모터 커버(116), 스마트폰(117), 타이밍벨트(118), x축 모터 회전축 어셈블리(119)를 포함한다. A high-resolution image acquisition device according to an embodiment of the present invention includes a motor generator 101, a base panel 102, a y-axis rotation base 103, a tripod fixing bracket 104, a bearing 105, and an x-axis rotation column 106. ), tripod 107, x-axis rotation pulley 108, fixing bracket 109, distance sensor 110 for measuring the distance between the camera and subject, x-axis rotation bearing 111, y-axis rotation pulley 112 ), camera fixing part 113, y-axis rotation stopper 114, camera fixing bracket 115, lower motor cover 116, smartphone 117, timing belt 118, x-axis motor rotation shaft assembly 119 ).

본 발명의 실시예에 따르면, 회전 이송 장치의 회전 각도 측정용 센서(엔코더)가 구비된다. According to an embodiment of the present invention, a sensor (encoder) for measuring a rotation angle of a rotation transfer device is provided.

삼각대(107)는 기설정 높이로 조정이 가능하며, 조절 높이는 최소 100mm에서 최대 500 내지 700mm로 제작된다. 설치 지형에 영향이 없이 수평을 맞출 수 있도록, 삼각대(107)의 각 다리는 높이 조절이 가능하며, 이동이 용이하도록 조립식으로 제작되며, 분해 시 접어서 보관이 가능하다. The tripod 107 can be adjusted to a preset height, and the adjustable height is manufactured from a minimum of 100 mm to a maximum of 500 to 700 mm. Each leg of the tripod 107 can be adjusted in height so that it can be leveled without affecting the installation terrain, and is manufactured in a prefabricated manner for easy movement, and can be folded and stored when disassembled.

본 발명의 실시예에 따르면, 서보 스텝핑 모터(장비를 정밀 제어하기 위한 구동용 모터)를 이용하여 카메라를 상하좌우 방향으로 회전하며, 복수의 회전 디바이스를 이용하여 상하 좌우 각도 회전이 가능하도록 한다. According to an embodiment of the present invention, the camera is rotated in up, down, left and right directions using a servo stepping motor (a driving motor for precisely controlling equipment), and up, down, left and right angle rotation is possible using a plurality of rotation devices.

회전 각도는 상하, 좌우 0에서 270도 범위를 간섭 없이 움직이도록 설정된다. The rotation angle is set to move in the range of 0 to 270 degrees up and down, left and right, without interference.

본 발명의 실시예에 따르면, 스텝핑 모터를 이용한 상, 하, 좌, 우, 틸트를 수행하고, 소비전력 DC 24V로 구동부 전기 회로를 간소화하는 것이 가능하며, 각 축의 회전 반경은 270도로 설정된다. According to an embodiment of the present invention, it is possible to perform up, down, left, right, and tilt using a stepping motor, simplify the electric circuit of the driving unit with power consumption DC 24V, and the rotation radius of each axis is set to 270 degrees.

본 발명의 실시예에 따르면, 24V 소비 전력 통일을 통해 회로를 간소화하고, 모터와 드라이버를 일체형으로 구성하여 부피를 감소시키며, 배선 연결 커넥팅을 최소화하는 장점이 있다. According to an embodiment of the present invention, there are advantages of simplifying the circuit through unification of 24V power consumption, reducing the volume by integrally configuring the motor and the driver, and minimizing the wiring connection.

본 발명의 실시예에 따르면, 드라이브 일체형 스텝핑 모터를 이용하여, 모터 구동에 필요한 인버터 생략이 가능하고, 모터 드라이버(모터를 연결하고 제어신호를 입력 받아 모터를 구동하는 모터 제어 장치) 일체형 구성을 통해 제어 박스의 부피를 감소시키고 배선을 간소화하는 것이 가능하다. According to an embodiment of the present invention, using a drive-integrated stepping motor, it is possible to omit an inverter required for driving a motor, and a motor driver (a motor control device that connects a motor and receives a control signal to drive a motor) is integrated through a configuration It is possible to reduce the volume of the control box and simplify wiring.

본 발명의 실시예에 따르면, 스텝핑 모터를 기구부 내측에 배치함으로써, 무게중심을 가운데에 맞춰 장비 설치 시 안정성을 확보할 뿐 아니라 전체 부피를 감소시킨다. According to an embodiment of the present invention, by arranging the stepping motor inside the mechanical unit, the center of gravity is aligned to the center to secure stability when installing the equipment and reduce the overall volume.

도 18을 참조하면, 자연광이 없는 경우 별도의 조명 장치를 이용하여 고해상도 이미지 획득이 가능하고, 도 19를 참조하면, 일체형 장비에 포함된 조명 장치를 이용하여 자연광이 없는 경우에도 고해상도 이미지 획득이 가능하다. Referring to FIG. 18, when there is no natural light, a high-resolution image can be acquired using a separate lighting device, and referring to FIG. 19, a high-resolution image can be obtained even when there is no natural light using a lighting device included in the integrated equipment. do.

도 18는 본 발명의 실시예에 따른 조명장치를 도시한다. 18 shows a lighting device according to an embodiment of the present invention.

본 발명의 실시예에 따른 조명장치는 이미지 획득 장치와 개별적으로 구비되어, 삼각대 구조에 연결된 복수의 조명부가 설치된다. 이 때, 조명부는 통신모듈을 구비하고, 제어 장치로부터 제어 신호를 인가받음에 따라 조명 조사 영역에 대한 제어가 이루어질 수 있다. 제어 신호는 카메라의 촬영 영역과, 조명 조사가 필요한 영역에 대해 종합적으로 검토하여 결정되고, 조명부의 통신 모듈로 전달되어, 조명부의 조사 영역이 자동제어될 수 있다. The lighting device according to the embodiment of the present invention is provided separately from the image acquisition device, and a plurality of lighting units connected to the tripod structure are installed. In this case, the lighting unit may include a communication module, and may control the lighting irradiation area by receiving a control signal from the control device. The control signal is determined by comprehensively examining the shooting area of the camera and the area requiring light irradiation, and is transmitted to the communication module of the lighting unit, so that the lighting area of the lighting unit can be automatically controlled.

도 19는 본 발명의 실시예에 따른 조명부가 배치된 고해상도 이미지 획득 장치를 도시한다. 19 shows a high-resolution image acquisition device in which a lighting unit is disposed according to an embodiment of the present invention.

조명부(310a, 310b)는 고해상도 이미지 획득 장치의 기설정 영역에 배치되어, 촬영 영역에 대해 조명을 조사하는 방식으로 적용되는 것이 가능하다.The lighting units 310a and 310b may be applied in a manner that is disposed in a predetermined area of the high-resolution image capture device and radiates light to a photographing area.

이 때, 별도의 제어 신호를 인가받아 조명부의 조사 영역이 제어될 수 있고, 촬영부에 대한 촬영 영역 제어에 의한 구동 시 이와 연동되어 함께 조사 영역이 제어되는 것이 가능하다. In this case, the irradiation area of the lighting unit may be controlled by receiving a separate control signal, and when driven by the imaging area control for the imaging unit, the irradiation area may be controlled in conjunction with this.

본 발명의 실시예에 따르면 기설정 출력의 조명(예: 200W 조명)이 촬영부를 기준으로 좌/우에 설치되어, 자연광이 없는 경우의 촬영 시 조명을 조사한다. According to an embodiment of the present invention, lighting (eg, 200W lighting) with a predetermined output is installed on the left/right side of the photographing unit to irradiate light when photographing in the absence of natural light.

이러한 조명부(310a, 310b)는 탈착 가능한 형태로 배치되어, 수납 시 부피를 감소시키는 것이 가능하다. Since the lighting units 310a and 310b are disposed in a detachable form, it is possible to reduce the volume when stored.

본 발명의 실시예에 따르면, 삼각대를 이용하여 설치를 간소화하고, 알루미늄 재질의 구조를 통해 무게를 경량화한다. 다른 예로서, 도 20에 도시한 바와 같이, 전술한 바와 같이 이동 대차(2010) 위에 촬영 장비를 배치하여, 이동이 용이한 효과가 있다. According to an embodiment of the present invention, installation is simplified by using a tripod, and weight is reduced through a structure made of aluminum. As another example, as shown in FIG. 20 , as described above, by arranging the photographing equipment on the moving cart 2010, there is an effect of facilitating movement.

도 21은 본 발명의 실시예에 따른 시스템 구성도를 도시한다. 21 shows a system configuration diagram according to an embodiment of the present invention.

주간 촬영 장비(401)는 모터 제어를 수행하고, 거리를 계측하며, 데이터를 획득한다. 주간 촬영 장비는 자연광이 있는 경우 사용되는 촬영 장비를 의미한다.The daytime imaging equipment 401 performs motor control, measures distance, and acquires data. Daytime shooting equipment means shooting equipment used when there is natural light.

야간 촬영 장비(402)는 모터 제어를 수행하고, 거리를 계측하며, 데이터를 획득하며, 조명 제어를 수행한다. 야간 촬영 장비는 자연광이 없는 경우 사용되는 촬영 장비를 의미한다.The night photographing equipment 402 performs motor control, measures distance, acquires data, and performs lighting control. Night photography equipment means photography equipment used when there is no natural light.

스마트폰(403)은 촬영, 이미지 전송, 촬영 정보 전송을 수행한다. The smartphone 403 performs photographing, image transmission, and photographing information transmission.

주간 촬영 장비용 유무선 공유기(402) 및 야간 촬영 장비용 유무선 공유기(405)는 폐쇄 와이파이망을 생성하고, SSID와 PW로 보안 연결된다. The wired/wireless router 402 for daytime shooting equipment and the wired/wireless router 405 for nighttime shooting equipment create a closed Wi-Fi network and are securely connected by SSID and PW.

노트북(406)에는 통합 제어 소프트웨어 및 분석 소프트웨어가 설치된다. The notebook 406 is installed with integrated control software and analysis software.

LTE 또는 5G 모뎀(407)은 LTE 또는 5G 망에 연결을 지원하고, 클라우드 또는 NAS(408)에 이미지를 저장한다. The LTE or 5G modem 407 supports connection to the LTE or 5G network and stores images in the cloud or NAS 408 .

본 발명의 실시예에 따르면, 시스템용 와이파이를 구성하여 wireless를 이루고, 이를 통해 장비 조립을 간략화하고 미결합, 오결합의 문제를 해소한다. 주간용 촬영 장비(401)와 별도로 야간용 촬영 장비(404)가 구비되며, 스마트폰(403)으로 촬영을 수행함에 따라 소형화, 경량화가 가능한 효과가 있다. 노트북(406)은 LTE 또는 5G 망이 연결되어, 촬영 이미지를 클라우드 또는 NAS(408)에 자동 백업한다. According to an embodiment of the present invention, by configuring Wi-Fi for the system to achieve wireless, through which equipment assembly is simplified and problems of non-coupling and misconnection are solved. A nighttime shooting device 404 is provided separately from the daytime shooting device 401, and as the shooting is performed with a smartphone 403, there is an effect of miniaturization and light weight. The notebook 406 is connected to an LTE or 5G network and automatically backs up captured images to the cloud or NAS 408.

모든 통신은 무선 폐쇄 와이파이 망을 이용한 TCP/IP 통신으로 수행되며, 통합제어프로그램(노트북), 촬영 장비 제어 프로그램(임베디드 피씨), 스마트폰 앱은 프로그램 구동과 동시에 통신 연결을 시도하고, 접속을 잃을 시 프로그램 종료까지 무한 재접속을 시도한다. All communication is carried out by TCP/IP communication using a wireless closed Wi-Fi network, and the integrated control program (laptop), shooting equipment control program (embedded PC), and smartphone app attempt to establish a communication connection at the same time as the program runs, and lose access. Attempts to reconnect infinitely until the end of the program.

도 22는 본 발명의 실시예에 따른 소프트웨어 구성도를 도시한다. 22 shows a software configuration diagram according to an embodiment of the present invention.

소프트웨어의 구성은 분산 제어를 목적으로, 통합 제어 소프트웨어와 하위 장비들을 제어하고 계측하는 하위 제어 소프트웨어로 분류된다. The software configuration is classified into integrated control software and sub-control software that controls and measures sub-devices for the purpose of distributed control.

모든 하위 제어 소프트웨어들은 와이파이를 통해 통합 제어 소프트웨어와 무선 통신을 통해 제어, 계측, 장비 상태 정보 등을 송수신하며, 통합 제어 소프트웨어는 사용자와의 인터페이스 및 촬영에 대한 총괄 제어를 수행한다. All subordinate control software transmits and receives control, measurement, and equipment status information through wireless communication with the integrated control software through Wi-Fi, and the integrated control software performs interface with the user and overall control of shooting.

임베디드 컴퓨터, 주간 촬영 장비(510)에는 주간 촬영 제어 소프트웨어가 설치된다. 임베디드 컴퓨터, 야간 촬영 장비(520)에는 야간 촬영 제어 소프트웨어가 설치된다. 임베디드 컴퓨터 프로그램은 장비에 내장되어 구동되며 디바이스 간의 신호 전달 및 데이터 파일의 전달을 수행한다. 디바이스 점검 및 알림 체크 기능, 데이터 획득 장비 실시간 계측 및 모터 제어 기능, 스마트폰 및 노트북과 무선으로 연결되어 신호 및 파일 실시간 중계 기능을 제공한다. 촬영 장비 프로그램 및 조명 장비 프로그램은 통합 제어 소프트웨어로부터 촬영에 필요한 모터의 이동 정보를 수신하여 모터를 제어하며, 거리 센서를 통해 구조물과의 거리 정보를 계측한다. 또한, 모터의 상태를 확인하기 위한 리미트 센서 정보를 획득한다. 주간 촬영 제어 소프트웨어 및 야간 촬영 제어 소프트웨어는 통합 제어 소프트웨어와의 통신을 통해, 모터 동작에 대한 정보를 수신하고, 계측 정보를 전송한다. 또한, 복수의 모터를 제어하며, 모터의 상태, 엔코더(각도) 값을 수신한다. 또한, 거리 센서와 리미트 센서를 통해 거리 정보와 모터의 위치 정보를 실시간 계측한다. Daytime shooting control software is installed in the embedded computer and the daytime shooting equipment 510 . A night photographing control software is installed in the embedded computer and the night photographing equipment 520 . The embedded computer program is built into and driven in the equipment, and transmits signals and data files between devices. It provides device inspection and notification check function, real-time measurement and motor control function of data acquisition equipment, and real-time signal and file relay function by wirelessly connecting to smartphones and laptops. The photographing equipment program and the lighting equipment program control the motor by receiving movement information of the motor necessary for photographing from the integrated control software, and measure distance information from the structure through a distance sensor. In addition, limit sensor information for checking the state of the motor is obtained. The daytime shooting control software and the nighttime shooting control software receive information on motor operation and transmit measurement information through communication with the integrated control software. In addition, it controls a plurality of motors and receives motor status and encoder (angle) values. In addition, distance information and motor position information are measured in real time through a distance sensor and a limit sensor.

스마트폰(530)에는 촬영 앱(app)이 설치된다. 촬영 앱은 제어 신호에 따라 영상을 촬영하고, 측정 영상을 전송한다. 실시간 제어 신호를 수신하여 카메라를 제어하고, 영상을 측정하며, 측정 영상을 실시간으로 전송한다. 카메라 및 영상 상태(포커스, 영상 정보)는 실시간 전송된다. 촬영 앱은 스마트폰의 전원이 켜지면 자동으로 실행되며, 백그라운드로 실행된다. 이후 통합 제어 소프트웨어와 통신이 연결되면, 자동으로 촬영 모드로 변경되어 통합 제어 소프트웨어의 명령에 따라 촬영을 진행한다. 촬영 모드에서는 포커스 정보 및 이미지 파일 등의 정보를 전송한다. 촬영 완료 또는 사용자가 강제 중단 시키는 경우 통신이 해제되며 다시 대기모드로 전환된다. A shooting app is installed in the smartphone 530 . The shooting app captures an image according to the control signal and transmits the measured image. It controls the camera by receiving the real-time control signal, measures the image, and transmits the measured image in real time. Camera and image status (focus, image information) is transmitted in real time. The shooting app runs automatically when the smartphone is turned on and runs in the background. After that, when communication with the integrated control software is connected, it is automatically changed to the shooting mode, and shooting proceeds according to the command of the integrated control software. In the shooting mode, information such as focus information and image files is transmitted. When shooting is completed or the user forcibly stops it, communication is released and it is converted to standby mode again.

노트북(540)에는 통합 제어 소프트웨어 및 분석 소프트웨어가 설치된다. 통합 제어 소프트웨어는 장비 전체를 계측하고 제어하는 프로그램으로, 장비와 스마트폰의 제어 및 계측을 수행하며, 사용자 인터페이스 기능, 실시간 모니터링 및 제어 기능, 스마트폰 연동 및 카메라 제어 기능, 영상 데이터 자동 모니터링 및 저장 기능을 제공한다. In the notebook 540, integrated control software and analysis software are installed. The integrated control software is a program that measures and controls the entire equipment. It controls and measures the equipment and the smartphone, user interface function, real-time monitoring and control function, smartphone linkage and camera control function, and video data automatic monitoring and storage. function.

클라우드 또는 NAS(550)는 이미지를 저장한다. A cloud or NAS 550 stores the images.

도 23은 본 발명의 실시예에 따른 제어 및 측정 장치를 도시한다. 23 shows a control and measurement device according to an embodiment of the present invention.

본 발명의 실시예에 따른 제어 및 측정장치와 연결되는 구성은 랩탑 컴퓨터, 배터리 및 충전기, 섀시, 모듈, 모터 드라이버, 임베디드 컴퓨터, 액세스 포인트, 파워 디바이스이다. Components connected to the control and measurement device according to an embodiment of the present invention include a laptop computer, a battery and charger, a chassis, a module, a motor driver, an embedded computer, an access point, and a power device.

섀시는 제어 및 측정 모듈을 연결하고 데이터를 측정한다. The chassis connects the control and measurement modules and measures the data.

모듈은 센서 신호를 측정하고 제어 신호를 발생시킨다. The module measures the sensor signal and generates a control signal.

모터 드라이버는 모터에 제어 명령을 전달하고, 에러 발생 시 에러를 보정한다. The motor driver delivers control commands to the motor and corrects errors when they occur.

임베디드 컴퓨터는 사용자의 명령을 받아 장비의 데이터 측정 및 계측을 수행하고, 스마트폰의 영상 제어 및 영상 파일을 수집하여 랩탑 컴퓨터에 전송한다. The embedded computer receives the user's command, measures and measures the data of the equipment, and collects video control and video files from the smartphone and transmits them to the laptop computer.

액세스 포인트는 시스템의 구성 장치를 네트워크로 연결한다. The access point connects the components of the system to the network.

파워 디바이스는 제어 장치에 전원을 공급하는 장치로, AC220, DC24 구동 가능하다. The power device is a device that supplies power to the control device and can drive AC220 or DC24.

랩탑 컴퓨터는 운영 프로그램을 내장하며, 사용자의 정보를 받아 시스템에 무선으로 실시간 계측 및 제어를 수행한다. The laptop computer has a built-in operating program, receives user information, and wirelessly measures and controls the system in real time.

배터리 및 충전기는 유선 전원이 없는 장소에서 장비를 사용하기 위해 구비되며, 최대 기설정 시간(예: 5시간)으로 구동된다. Batteries and chargers are provided to use the equipment in places without wired power, and run for a maximum preset time (eg 5 hours).

도 24는 본 발명의 실시예에 따른 데이터 흐름을 도시한다. 24 shows data flow according to an embodiment of the present invention.

점선으로 도시한 것은 무선 연결을, 실선으로 도시한 것은 유선 연결을 의미한다.A dotted line indicates a wireless connection, and a solid line indicates a wired connection.

도 24의 검은색 선은 제어 신호를, 파란색 선은 유선 LAN을 통한 데이터 흐름을, 붉은색 선은 파워 신호를, 보라색 선은 와이파이를 통한 데이터 흐름을 도시한다. In FIG. 24 , black lines show control signals, blue lines show data flow through wired LAN, red lines show power signals, and purple lines show data flow through Wi-Fi.

데이터 획득 장치와 임베디드 컴퓨터는 액세스 포인트와 유선 LAN으로 연결된다. The data acquisition device and the embedded computer are connected to the access point and wired LAN.

파워 디바이스는 AC 220V 또는 배터리 전원을 이용하여, 모터 드라이버, 데이터 획득 장치, 액세스 포인트, 임베디드 컴퓨터에 전원을 인가한다. The power device supplies power to the motor driver, data acquisition device, access point, and embedded computer using AC 220V or battery power.

모터 드라이버는 데이터 획득 장치로 제어 신호를 전송한다. The motor driver sends control signals to the data acquisition device.

액세스 포인트는 스마트폰과 랩탑 컴퓨터와 와이파이 통신을 통해 연결된다. The access point is connected via Wi-Fi communication with smartphones and laptop computers.

제어 명령은 모터 드라이버와 데이터 획득 장치 간에 전송되고, 데이터 획득장치와 임베디드 컴퓨터는 유선 랜으로, 임베디드 컴퓨터와 랩탑 컴퓨터는 와이파이 통신을 통해 데이터를 송수신한다. Control commands are transmitted between the motor driver and the data acquisition device, and the data acquisition device and the embedded computer transmit and receive data through a wired LAN, and the embedded computer and the laptop computer through Wi-Fi communication.

영상 데이터는 스마트폰과 임베디드 컴퓨터, 임베디드 컴퓨터와 랩탑 컴퓨터 간에 와이파이 통신을 통해 송수신된다. Image data is transmitted and received through Wi-Fi communication between the smart phone and the embedded computer, and between the embedded computer and the laptop computer.

도 25는 본 발명의 실시예에 따른 이미지 머징 과정을 도시한다. 25 illustrates an image merging process according to an embodiment of the present invention.

본 발명의 실시예에 따르면, 머징 시작 후 머징 이미지 경로 정보를 수신하면 이미지 머징(분석 프로그램에 의한 이미지 좌표정보 수신), 오류 확인(머징 완료 이미지의 결과 판정, 오류 시 사용자 인터페이스를 통한 편집 기능 제공), 미리 보기(순차적 머징 이미지를 압축 저장하여 미리 보기용 이미지를 디스플레이함), 사용자 편집 과정(오류 확인 시 사용자가 편집을 원하는 경우 사용자 제어로 이미지 머징, 후처리 수행)을 반복하고, 머징을 종료한다(이미지를 압축 저장하고, 손상탐지 모듈을 위한 분할 이미지를 저장한다). 즉, 이미지 머징 프로그램은 진행률과 현재 머징된 이미지의 압축 이미지를 사용자에게 제공하고, 머징에 오류가 있을 시 사용자 인터페이스를 통해 핸들링 기능을 제공한다. According to an embodiment of the present invention, when merging image path information is received after merging starts, image merging (receiving image coordinate information by an analysis program), error checking (determination of result of merging completed image, providing editing function through user interface in case of error) ), preview (sequential merging images are compressed and saved to display images for preview), and user editing processes (image merging and post-processing are performed under user control if the user wants to edit when checking an error), and merging is performed. End (images are compressed and saved, and split images for the damage detection module are saved). That is, the image merging program provides a progress rate and a compressed image of a currently merged image to the user, and provides a handling function through a user interface when there is an error in merging.

Claims (20)

스마트 디바이스 또는 카메라에 의해 촬영된 이미지 정보를 수신하는 입력부;
촬영 장비에 대한 운용 프로그램이 저장된 메모리; 및
상기 운용 프로그램을 실행시키는 프로세서를 포함하되,
상기 프로세서는 상기 촬영된 이미지 정보와 거리 센서의 계측 정보를 획득하고, 촬영 관련 제어 정보를 전송하되, 조명 관련 제어 정보를 포함하는 상기 촬영 관련 제어 정보를 전송하고,
상기 프로세서는 기설정된 이미지 중첩률로 분할 중첩 촬영에 대한 제어를 수행하되, 부재의 기설정 영역에 대해 촬영 범위를 지정하고, 상기 기설정된 이미지 중첩률을 갖는 화각의 테이블을 생성하여 각 테이블마다 촬영 여부를 판단하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
An input unit for receiving image information captured by a smart device or camera;
a memory in which operation programs for photographing equipment are stored; and
Including a processor that executes the operating program,
The processor obtains the captured image information and measurement information of a distance sensor, transmits shooting-related control information, and transmits the shooting-related control information including lighting-related control information;
The processor performs control for divisional overlapping shooting at a preset image overlap rate, designates a shooting range for a preset region of a member, creates a table of angles of view having the preset image overlap rate, and shoots for each table. to judge whether
Phosphor filming device operation, structural damage analysis and evaluation system.
제1항에 있어서,
상기 입력부는 무선 통신으로 획득되는 상기 이미지 정보를 수신하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
According to claim 1,
The input unit receiving the image information obtained through wireless communication
Phosphor filming device operation, structural damage analysis and evaluation system.
제1항에 있어서,
상기 프로세서는 거리 및 각도 정보를 이용하여 촬영 범위를 결정하는 상기 촬영 관련 제어 정보를 전송하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
According to claim 1,
The processor transmits the shooting-related control information for determining a shooting range using distance and angle information
Phosphor filming device operation, structural damage analysis and evaluation system.
제1항에 있어서,
상기 프로세서는 촬영 부위로 조명 각도를 제어하도록 상기 조명 관련 제어 정보를 전송하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
According to claim 1,
The processor transmits the lighting-related control information to control the lighting angle to the photographed part.
Phosphor filming device operation, structural damage analysis and evaluation system.
제1항에 있어서,
상기 프로세서는 사용자 설정에 따라 촬영 포커싱 위치에 대한 제어 명령을 전송하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
According to claim 1,
The processor transmits a control command for a shooting focusing position according to a user setting
Phosphor filming device operation, structural damage analysis and evaluation system.
삭제delete 삭제delete 제1항에 있어서,
상기 프로세서는 기설정된 타이밍에 따라 상기 계측 정보를 무선 전송하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
According to claim 1,
The processor wirelessly transmits the measurement information according to a predetermined timing
Phosphor filming device operation, structural damage analysis and evaluation system.
제1항에 있어서,
상기 프로세서는 회전 부재로 회전 제어 명령 신호를 전송하여, 상기 스마트 디바이스의 회전 각도를 제어하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
According to claim 1,
The processor transmits a rotation control command signal to the rotating member to control the rotation angle of the smart device.
Phosphor filming device operation, structural damage analysis and evaluation system.
제1항에 있어서,
상기 프로세서는 이미지 정보를 수신하여 정합을 수행하는 이미지 정합부와, 마스크 영역 기반 회선 신경망 알고리즘을 이용하여 균열, 백태, 박락, 파손 및 철근노출, 강교 도장 손상, 콘크리트 누수, 재료 분리 중 적어도 어느 하나에 대한 손상을 검출하고, 검출된 손상에 대한 정량화를 수행하는 손상검출 및 정량화부 및 외관조사망도와 손상물량표를 작성하는 문서화부를 포함하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
According to claim 1,
The processor performs at least one of cracks, efflorescence, exfoliation, damage and exposure of reinforcing bars, damage to steel bridge paint, concrete leakage, and material separation by using an image matching unit that receives image information and performs matching, and a convolutional neural network algorithm based on a mask area. To include a damage detection and quantification unit that detects damage to and quantifies the detected damage, and a documentation unit that prepares an external survey network map and damage quantity table
Phosphor filming device operation, structural damage analysis and evaluation system.
제10항에 있어서,
상기 이미지 정합부는 기설정된 중첩률로 분할 촬영된 이미지를 이용하여 특징점을 추출하고, 구조물에 대한 이미지를 구현하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
According to claim 10,
The image matching unit extracts feature points using images divided and photographed at a predetermined overlapping rate and implements an image of a structure.
Phosphor filming device operation, structural damage analysis and evaluation system.
제10항에 있어서,
상기 손상검출 및 정량화부는 손상 위치 탐지, 손상 종류 분류, 손상 영역에 대한 픽셀 단위 검출을 수행하는 상기 마스크 영역 기반 회선 신경망 알고리즘과 FCN을 융합한 방식을 이용하여 손상을 검출하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
According to claim 10,
The damage detection and quantification unit detects damage using a method combining the mask area-based convolutional neural network algorithm and FCN, which perform damage location detection, damage type classification, and pixel-by-pixel detection of damaged areas.
Phosphor filming device operation, structural damage analysis and evaluation system.
제12항에 있어서,
상기 손상검출 및 정량화부는 손상분석 시 검출된 손상에 대한 주변 픽셀의 웨이트를 적용하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
According to claim 12,
The damage detection and quantification unit applies weights of neighboring pixels to the damage detected during damage analysis.
Phosphor filming device operation, structural damage analysis and evaluation system.
제12항에 있어서,
상기 손상검출 및 정량화부는 Region Proposal Network를 이용하여 확률지도를 획득하고, 기설정된 기준 확률을 이용하여 물체를 결정하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
According to claim 12,
The damage detection and quantification unit acquires a probability map using a Region Proposal Network and determines an object using a preset standard probability.
Phosphor filming device operation, structural damage analysis and evaluation system.
제14항에 있어서,
상기 손상검출 및 정량화부는 상기 Region Proposal Network의 영역 제안 결과를 이용하여, 후보 상자로부터 RoIAlign을 통해 손상의 특징을 추출하고 분류를 수행하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
According to claim 14,
The damage detection and quantification unit extracts damage features from candidate boxes through RoIAlign using the region proposal results of the Region Proposal Network and performs classification.
Phosphor filming device operation, structural damage analysis and evaluation system.
제15항에 있어서,
상기 손상검출 및 정량화부는 상기 RoIAlign을 통해 추출된 특징 지도를 픽셀 단위로 이미지의 물체를 분할하는 Mask branch로 공급하여 물체의 형태를 검출하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
According to claim 15,
The damage detection and quantification unit detects the shape of the object by supplying the feature map extracted through the RoIAlign to a mask branch that divides the object of the image in pixel units
Phosphor filming device operation, structural damage analysis and evaluation system.
제10항에 있어서,
상기 손상검출 및 정량화부는 카메라 핀 홀 모델을 이용하여 이미지의 손상 크기에 대한 실제 손상 크기를 획득하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
According to claim 10,
The damage detection and quantification unit obtains the actual damage size for the damage size of the image using the camera pin hole model
Phosphor filming device operation, structural damage analysis and evaluation system.
제10항에 있어서,
상기 문서화부는 손상의 좌표와 범위를 길이로 환산하고, 손상 종류 및 손상 수량을 기준으로 분류하여 손상 정보에 대한 문서화를 수행하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
According to claim 10,
The documentation unit converts the coordinates and range of damage into length, classifies them based on damage type and amount of damage, and performs documentation on damage information.
Phosphor filming device operation, structural damage analysis and evaluation system.
제10항에 있어서,
상기 문서화부는 픽셀 좌표, 종류, 범위를 이용하여 외관조사망도를 생성하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
According to claim 10,
The documentation unit generates an external survey network map using pixel coordinates, type, and range.
Phosphor filming device operation, structural damage analysis and evaluation system.
제19항에 있어서,
상기 문서화부는 외곽을 결정하고, 상기 결정된 외곽 내부의 타겟에 대한 위치정보를 추출하여, 자동 문서화를 수행하는 것
인 촬영 장치 운용, 구조물 손상 분석 및 평가 시스템.
According to claim 19,
The documentation unit determines the perimeter, extracts location information on the target inside the determined perimeter, and performs automatic documentation.
Phosphor filming device operation, structural damage analysis and evaluation system.
KR1020220078157A 2022-06-27 2022-06-27 System for operating an imaging device, damage analysis and evaluation of structures KR102567163B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220078157A KR102567163B1 (en) 2022-06-27 2022-06-27 System for operating an imaging device, damage analysis and evaluation of structures

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220078157A KR102567163B1 (en) 2022-06-27 2022-06-27 System for operating an imaging device, damage analysis and evaluation of structures

Publications (1)

Publication Number Publication Date
KR102567163B1 true KR102567163B1 (en) 2023-08-16

Family

ID=87848143

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220078157A KR102567163B1 (en) 2022-06-27 2022-06-27 System for operating an imaging device, damage analysis and evaluation of structures

Country Status (1)

Country Link
KR (1) KR102567163B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117169286A (en) * 2023-11-03 2023-12-05 深圳市盛格纳电子有限公司 Industrial harness quality detection method under visual assistance

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020077250A (en) * 2002-03-29 2002-10-11 주식회사 케이엠티엘 A crack detecting and image processing device of the concrete structure
KR100591608B1 (en) * 2005-03-18 2006-06-20 전남대학교산학협력단 Method for searching matching point in image matching
KR101922831B1 (en) * 2018-01-31 2018-11-27 서울시립대학교 산학협력단 Image analysis apparatus and method for discriminating concrete status
KR102149682B1 (en) * 2020-04-07 2020-08-31 (재)한국건설품질연구원 Facility inspection system
KR102202572B1 (en) * 2019-11-25 2021-01-12 서울시립대학교 산학협력단 road crack assessment method and system using drone image and artificial intelligent algorithm
KR102236904B1 (en) * 2019-12-13 2021-04-06 조선대학교산학협력단 Method and apparatus for compositing images

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020077250A (en) * 2002-03-29 2002-10-11 주식회사 케이엠티엘 A crack detecting and image processing device of the concrete structure
KR100591608B1 (en) * 2005-03-18 2006-06-20 전남대학교산학협력단 Method for searching matching point in image matching
KR101922831B1 (en) * 2018-01-31 2018-11-27 서울시립대학교 산학협력단 Image analysis apparatus and method for discriminating concrete status
KR102202572B1 (en) * 2019-11-25 2021-01-12 서울시립대학교 산학협력단 road crack assessment method and system using drone image and artificial intelligent algorithm
KR102236904B1 (en) * 2019-12-13 2021-04-06 조선대학교산학협력단 Method and apparatus for compositing images
KR102149682B1 (en) * 2020-04-07 2020-08-31 (재)한국건설품질연구원 Facility inspection system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117169286A (en) * 2023-11-03 2023-12-05 深圳市盛格纳电子有限公司 Industrial harness quality detection method under visual assistance
CN117169286B (en) * 2023-11-03 2024-01-12 深圳市盛格纳电子有限公司 Industrial harness quality detection method under visual assistance

Similar Documents

Publication Publication Date Title
CN110595999B (en) Image acquisition system
US10089530B2 (en) Systems and methods for autonomous perpendicular imaging of test squares
CN106797438B (en) Control device, control method and aircraft device
EP3818337B1 (en) Defect detection system using a camera equipped uav for building facades on complex asset geometry with optimal automatic obstacle deconflicted flightpath
US8467049B2 (en) Manhole modeler using a plurality of scanners to monitor the conduit walls and exterior
KR101207378B1 (en) Visual examination device and visual examination method
Protopapadakis et al. Autonomous robotic inspection in tunnels
US10810426B2 (en) Systems and methods for autonomous perpendicular imaging of test squares
CN110246175A (en) Intelligent Mobile Robot image detecting system and method for the panorama camera in conjunction with holder camera
WO2017169516A1 (en) Unmanned flying device control system, unmanned flying device control method, and inspection device
CN105675610A (en) Online detection system for object surface texture characteristics and working principle
KR102014425B1 (en) Tunnel wall damage inspection system using drone and inspection method
Zhang et al. Quantifying impacts on remote photogrammetric inspection using unmanned aerial vehicles
KR102567163B1 (en) System for operating an imaging device, damage analysis and evaluation of structures
JP7387261B2 (en) Information processing device, information processing method and program
CN105812790A (en) Evaluation method for perpendicularity of image sensor light-sensitive surface and optical axis and optical test card
CN105787870A (en) Graphic image splicing fusion system
Pulcrano et al. 3D cameras acquisitions for the documentation of cultural heritage
CN105023270A (en) Proactive 3D stereoscopic panorama visual sensor for monitoring underground infrastructure structure
CN114092551A (en) Intelligent vehicle based on panoramic vision and laser radar fusion SLAM system
JP2017174159A (en) Pilotless flight device control system, pilotless flight device controlling method, and image projector
KR20130050420A (en) A measurement equipment and method for shape measure of curved spring
CN116167993A (en) Pipeline quality inspection method and pipeline quality inspection device based on panoramic vision
KR102210571B1 (en) Bridge and tunnel safety diagnosis remote monitoring alarm method using GPS coordinates and mobile communication system
RU2454627C1 (en) Apparatus for studying geometric defects of reservoirs using moire method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant