KR102252845B1 - Method, device and system for analyzing concrete surface through machine vision and 3d profile - Google Patents

Method, device and system for analyzing concrete surface through machine vision and 3d profile Download PDF

Info

Publication number
KR102252845B1
KR102252845B1 KR1020210011104A KR20210011104A KR102252845B1 KR 102252845 B1 KR102252845 B1 KR 102252845B1 KR 1020210011104 A KR1020210011104 A KR 1020210011104A KR 20210011104 A KR20210011104 A KR 20210011104A KR 102252845 B1 KR102252845 B1 KR 102252845B1
Authority
KR
South Korea
Prior art keywords
data
concrete surface
neural network
artificial neural
classification result
Prior art date
Application number
KR1020210011104A
Other languages
Korean (ko)
Inventor
정진훈
박해원
안성일
박만호
Original Assignee
주식회사 도로시
정진훈
박해원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 도로시, 정진훈, 박해원 filed Critical 주식회사 도로시
Priority to KR1020210011104A priority Critical patent/KR102252845B1/en
Application granted granted Critical
Publication of KR102252845B1 publication Critical patent/KR102252845B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8809Adjustment for highlighting flaws
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8812Diffuse illumination, e.g. "sky"
    • G01N2021/8816Diffuse illumination, e.g. "sky" by using multiple sources, e.g. LEDs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a method, device, and system for analyzing a concrete surface through a machine vision and a three-dimensional profile. In accordance with an embodiment of the present invention, the method for analyzing the concrete surface through the machine vision and the three-dimensional profile, which is executed by the system, comprises: a step of acquiring three-dimensional data on the concrete surface through lidar, and acquiring two-dimensional data on the concrete surface through a camera; a step of separating a union area of the two-dimensional data and the three-dimensional data, and extracting a first data integrating the two-dimensional data and the three-dimensional data; a step of encoding the first data and generating a first input signal; a step of inputting the first input signal into a first artificial neural network, and acquiring a first output signal based on the result of the input into the first artificial neural network; and a step of generating a first classification result on the concrete surface based on the first output signal. The present invention aims to provide a method, device, and system for analyzing a concrete surface through a machine vision and a three-dimensional profile, which are able to effectively improve the performance in analyzing the concrete surface.

Description

머신비전 및 3D 프로파일을 통한 콘크리트 표면 분석 방법, 장치 및 시스템 {METHOD, DEVICE AND SYSTEM FOR ANALYZING CONCRETE SURFACE THROUGH MACHINE VISION AND 3D PROFILE}Concrete surface analysis method, device and system through machine vision and 3D profile {METHOD, DEVICE AND SYSTEM FOR ANALYZING CONCRETE SURFACE THROUGH MACHINE VISION AND 3D PROFILE}

아래 실시예들은 콘크리트 표면을 분석하는 기술에 관한 것이다. The following examples relate to a technique for analyzing a concrete surface.

손상된 콘크리트 구조물은 손상 정보에 따라 적절한 보수 및 보강을 실시하여 본래의 기능을 회복시켜야 하며, 콘크리트 구조물의 본래의 성능을 높이기 위해 예방적인 유지보수 측면에서 보수 및 보강이 필요하다.Damaged concrete structures must be repaired and reinforced appropriately according to the damage information to restore their original functions, and repairs and reinforcements are required in terms of preventive maintenance to enhance the original performance of the concrete structure.

이에 따라, 콘크리트 구조물의 보수, 보강 공법 및 재료에 관한 연구가 꾸준히 이루어지고 있으나, 보수, 보강 공법의 전처리에 대한 기술이 축적되지 않아 많은 문제점을 내포하고 있는 실정이다.Accordingly, researches on the repair, reinforcement method, and material of concrete structures are being conducted steadily, but there are many problems as the technology for pretreatment of the repair and reinforcement method has not been accumulated.

현재까지 체계적인 기술 개발보다는 원재료, 보수 재료에 대한 기술 분석이 이루어지고 있으나, 유지보수 공사 전반에 걸쳐 시공 전처리에 대한 기술개발이 요구되고 있다.Until now, rather than systematic technology development, technical analysis of raw materials and repair materials has been conducted, but technology development for pre-construction treatment is required throughout maintenance and repair work.

콘크리트 단면 구조물의 복구를 위한 보수, 보강 공법 시에는 내구성능이 저하된 표면 콘크리트 제거 작업이 필요하며, 이 과정에서 나타나는 충격으로 인해 의도치 않게 성능이 저하되지 않은 주위의 콘크리트에도 균열 등을 유발시킴으로써, 손상을 입혀 보수 후에도 그 부위에서 재탈락이 되는 문제점을 발생시킬 수 있다.In the case of repair and reinforcement methods for repairing and reinforcing concrete cross-sectional structures, it is necessary to remove surface concrete with deteriorated durability, and by causing cracks in the surrounding concrete where performance is not unintentionally degraded due to the impact that appears during this process, It may cause damage and cause a problem of re-falling out of the area even after repair.

따라서, 콘크리트 보수 및 보강 전반에 걸친 전처리 과정에 대한 연구의 필요성이 증대되고 있으며, 전처리 과정에서 균열 유무 확인 및 품질 관리까지 수행하고자 하는 방법에 대한 요구가 증대되고 있다.Accordingly, there is an increasing need for research on the pretreatment process throughout the entire concrete repair and reinforcement process, and there is an increasing demand for a method to check the presence of cracks and even quality control in the pretreatment process.

일실시예에 따르면, 장치를 통해 2D 데이터 및 3D 데이터를 병합한 제1 데이터를 추출하여, 제1 데이터를 이용하여 콘크리트 표면에 대한 제1 분류 결과를 생성하는 방법을 제공하기 위한 것을 그 목적으로 한다.According to an embodiment, the purpose of the present invention is to provide a method of extracting first data in which 2D data and 3D data are merged through an apparatus, and generating a first classification result for a concrete surface using the first data. do.

또한, 일실시예에 따르면, 서버를 통해 제1 데이터에서 손상 영역을 삭제한 제2 데이터를 추출하여, 제2 데이터를 이용하여 콘크리트 표면에 대한 제2 분류 결과를 생성하는 방법을 제공하기 위한 것을 그 목적으로 한다.In addition, according to an embodiment, providing a method for generating a second classification result for a concrete surface by using the second data by extracting second data from which the damaged area is deleted from the first data through a server. It is for that purpose.

또한, 일실시예에 따르면, 제1 분류 결과 및 제2 분류 결과를 이용하여, 콘크리트 표면에 대한 최종 분류 결과를 설정하는 방법을 제공하기 위한 것을 그 목적으로 한다.In addition, according to an embodiment, it is an object of the present invention to provide a method of setting a final classification result for a concrete surface by using the first classification result and the second classification result.

본 발명의 목적은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood from the following description.

일실시예에 따르면, 시스템에 의해 수행되는, 머신비전과 3D 프로파일을 통해 콘크리트 표면을 분석하는 방법에 있어서, 라이다를 통해 콘크리트 표면에 대한 3D 데이터를 획득하고, 카메라를 통해 상기 콘크리트 표면에 대한 2D 데이터를 획득하는 단계; 상기 2D 데이터와 상기 3D 데이터의 합집합 영역을 분리하여, 상기 2D 데이터 및 상기 3D 데이터를 병합한 제1 데이터를 추출하는 단계; 상기 제1 데이터를 인코딩 하여 제1 입력 신호를 생성하는 단계; 상기 제1 입력 신호를 장치 내 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망의 입력의 결과에 기초하여, 제1 출력 신호를 획득하는 단계; 및 상기 제1 출력 신호에 기초하여, 상기 콘크리트 표면에 대한 제1 분류 결과를 생성하는 단계를 포함하는, 머신비전 및 3D 프로파일을 통한 콘크리트 표면 분석 방법이 제공된다.According to an embodiment, in a method of analyzing a concrete surface through a machine vision and a 3D profile performed by a system, 3D data on the concrete surface is obtained through a lidar, and the concrete surface is obtained through a camera. Obtaining 2D data; Separating the union region of the 2D data and the 3D data, and extracting first data obtained by merging the 2D data and the 3D data; Encoding the first data to generate a first input signal; Inputting the first input signal to a first artificial neural network in a device, and obtaining a first output signal based on a result of the input of the first artificial neural network; And generating a first classification result for the concrete surface based on the first output signal. A method for analyzing a concrete surface through machine vision and a 3D profile is provided.

상기 머신비전 및 3D 프로파일을 통한 콘크리트 표면 분석 방법은, 상기 제1 데이터 및 상기 제1 분류 결과를 서버로 전송하는 단계; 상기 서버로 전송된 제1 데이터를 분석하여 상기 콘크리트 표면에 발생한 균열을 검출하는 단계; 상기 콘크리트 표면에 발생한 균열을 영역별로 확인하여, 제1 기준치 미만으로 균열이 검출된 정상 영역과 상기 제1 기준치 이상으로 균열이 검출된 손상 영역을 구분하는 단계; 상기 제1 데이터에서 상기 손상 영역을 삭제한 제2 데이터를 추출하는 단계; 상기 제2 데이터를 인코딩 하여 제2 입력 신호를 생성하는 단계; 상기 제2 입력 신호를 상기 서버 내 제2 인공 신경망에 입력하고, 상기 제2 인공 신경망의 입력의 결과에 기초하여, 제2 출력 신호를 획득하는 단계; 상기 제2 출력 신호에 기초하여, 상기 콘크리트 표면에 대한 제2 분류 결과를 생성하는 단계; 및 상기 제1 분류 결과 및 상기 제2 분류 결과가 동일한 경우, 상기 제1 분류 결과 및 상기 제2 분류 결과 중 어느 하나를 상기 콘크리트 표면에 대한 최종 분류 결과로 설정하는 단계를 더 포함할 수 있다.The method for analyzing a concrete surface through the machine vision and 3D profile includes: transmitting the first data and the first classification result to a server; Analyzing the first data transmitted to the server to detect cracks occurring on the concrete surface; Identifying a crack generated on the concrete surface by region, and dividing a normal region in which a crack is detected below a first reference value and a damaged region in which a crack is detected above the first reference value; Extracting second data from which the damaged area is deleted from the first data; Encoding the second data to generate a second input signal; Inputting the second input signal to a second artificial neural network in the server, and obtaining a second output signal based on a result of the input of the second artificial neural network; Generating a second classification result for the concrete surface based on the second output signal; And when the first classification result and the second classification result are the same, setting one of the first classification result and the second classification result as a final classification result for the concrete surface.

상기 머신비전 및 3D 프로파일을 통한 콘크리트 표면 분석 방법은, 상기 최종 분류 결과에 따라 상기 제2 데이터에 대한 영상처리 및 패턴인식을 수행하여 상기 콘크리트 표면을 분석하는 단계; 상기 최종 분류 결과에 대한 작업자의 판단 결과를 획득하는 단계; 상기 판단 결과가 제2 기준치 이상으로 수집되면, 상기 수집된 판단 결과들을 상기 서버와 연결된 클라우드에 전송하는 단계; 상기 판단 결과들을 통해 상기 제2 인공 신경망에 대한 추가 학습이 수행되도록 처리하는 단계; 및 상기 제2 인공 신경망을 통한 학습 결과와 상기 제1 인공 신경망을 통한 학습 결과에 대한 성능을 비교하여, 상기 제2 인공 신경망을 통한 학습 결과가 제3 기준치 이상으로 성능이 향상된 경우, 상기 제2 인공 신경망을 통해 상기 제1 인공 신경망의 딥러닝 모델을 갱신하는 단계를 더 포함할 수 있다.The method of analyzing the concrete surface through the machine vision and the 3D profile includes: analyzing the concrete surface by performing image processing and pattern recognition on the second data according to the final classification result; Obtaining a result of the operator's judgment on the final classification result; If the determination result is collected above a second reference value, transmitting the collected determination results to a cloud connected to the server; Processing the second artificial neural network to perform additional learning based on the determination results; And comparing the performance of the learning result through the second artificial neural network with the learning result through the first artificial neural network, and when the learning result through the second artificial neural network is improved by more than a third reference value, the second It may further include updating the deep learning model of the first artificial neural network through an artificial neural network.

상기 머신비전 및 3D 프로파일을 통한 콘크리트 표면 분석 방법은, 상기 제1 분류 결과 및 상기 제2 분류 결과가 상이한 경우, 상기 제1 분류의 대표 이미지로 등록되어 있는 제3 데이터와 상기 제2 분류의 대표 이미지로 등록되어 있는 제4 데이터를 획득하는 단계; 상기 제1 데이터와 상기 제3 데이터를 비교하여 제1 일치도를 분석하고, 상기 제2 데이터와 상기 제4 데이터를 비교하여 제2 일치도를 분석하는 단계; 상기 제1 일치도가 상기 제2 일치도 보다 큰 것으로 확인되면, 상기 제1 분류 결과를 상기 콘크리트 표면에 대한 최종 분류 결과로 설정하는 단계; 및 상기 제2 일치도가 상기 제1 일치도 보다 큰 것으로 확인되면, 상기 제2 분류 결과를 상기 콘크리트 표면에 대한 최종 분류 결과로 설정하는 단계를 더 포함할 수 있다.The concrete surface analysis method through the machine vision and the 3D profile, when the first classification result and the second classification result are different, the third data registered as the representative image of the first classification and the representative of the second classification Obtaining fourth data registered as an image; Analyzing a first degree of agreement by comparing the first data and the third data, and analyzing a second degree of agreement by comparing the second data and the fourth data; Setting the first classification result as a final classification result for the concrete surface when it is determined that the first degree of agreement is greater than the second degree of agreement; And setting the second classification result as a final classification result for the concrete surface when it is determined that the second degree of agreement is greater than the first degree of agreement.

상기 정상 영역과 상기 손상 영역을 구분하는 단계는, 상기 콘크리트 표면에 가해진 압력의 크기를 구역별로 감지하는 균열 인식 수단에서 미리 설정된 압력 기준값 보다 큰 압력을 감지한 경우, 상기 압력 기준값 보다 큰 압력이 감지된 구역에 위치하는 센서의 좌표값에 대한 압력 감지 데이터를 획득하는 단계; 및 상기 좌표값과 대응하는 위치에 있는 구역을 상기 정상 영역으로 구분하는 단계를 포함하며, 상기 압력 감지 데이터를 획득하는 단계는, 상기 균열 인식 수단에 포함된 복수의 센서 중 어느 하나인 제1 센서에서 상기 압력 기준값 보다 큰 압력을 감지하고 상기 제1 센서와 맞닿아 있는 주변의 센서 전체에서 상기 압력 기준값 보다 큰 압력을 감지한 경우, 상기 제1 센서의 좌표값에 대한 압력 감지 데이터를 상기 제1 센서로부터 획득하는 단계; 및 상기 제1 센서에서 상기 압력 기준값 보다 큰 압력을 감지하더라도, 상기 제1 센서와 맞닿아 있는 주변의 센서 중 적어도 하나에서 상기 압력 기준값 보다 큰 압력을 감지하지 않은 경우, 상기 제1 센서의 좌표값에 대한 압력 감지 데이터가 획득되지 않도록 제어하는 단계를 포함할 수 있다.The step of dividing the normal region and the damaged region may include detecting a pressure greater than a preset pressure reference value by a crack recognition means for detecting the magnitude of the pressure applied to the concrete surface for each region, a pressure greater than the pressure reference value is detected. Acquiring pressure sensing data for coordinate values of sensors located in the designated area; And dividing a region at a position corresponding to the coordinate value into the normal region, wherein the obtaining of the pressure sensing data comprises: a first sensor that is any one of a plurality of sensors included in the crack recognition means In the case where a pressure greater than the pressure reference value is sensed and a pressure greater than the pressure reference value is sensed in all of the surrounding sensors in contact with the first sensor, pressure detection data for the coordinate value of the first sensor is transmitted to the first sensor. Obtaining from a sensor; And even if the first sensor detects a pressure greater than the pressure reference value, when at least one of the surrounding sensors in contact with the first sensor does not detect a pressure greater than the pressure reference value, the coordinate value of the first sensor. It may include controlling so that pressure sensing data for is not obtained.

일실시예에 따르면, 콘크리트 유지보수의 전처리를 위한 CSP(Concrete Surface Profile)의 객관화 기준을 마련하고, CSP의 분류 기준을 정립하고, 콘크리트의 표면을 분석하는데 있어 효과적으로 성능을 개선시키고, 콘크리트의 균열 유무까지 확인할 수 있는 효과가 있다.According to an embodiment, in order to prepare an objectification standard of CSP (Concrete Surface Profile) for pretreatment of concrete maintenance, establish a classification standard for CSP, and effectively improve performance in analyzing the surface of concrete, cracking of concrete It has the effect of checking the presence or absence.

한편, 실시예들에 따른 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Meanwhile, the effects according to the embodiments are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the relevant technical field from the following description.

도 1은 일실시예에 따른 콘크리트 표면을 분석하는 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 CSP(Concrete Surface Profile)의 분류 기준을 설명하기 위한 도면이다.
도 3은 일실시예에 따른 콘크리트 표면에 대한 데이터를 생성하는 과정을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 CSP 3에 해당하는 콘크리트 표면을 분석하는 과정을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 CSP 5에 해당하는 콘크리트 표면을 분석하는 과정을 설명하기 위한 도면이다.
도 6은 일실시예에 따른 CSP 7에 해당하는 콘크리트 표면을 분석하는 과정을 설명하기 위한 도면이다.
도 7은 일실시예에 따른 콘크리트 표면에 대한 데이터를 학습하는 과정을 설명하기 위한 도면이다.
도 8은 일실시예에 따른 제1 분석 결과를 생성하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 제2 분석 결과를 생성하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 제2 인공 신경망에 대한 추가 학습을 수행하는 과정을 설명하기 위한 순서도이다.
도 11은 일실시예에 따른 제1 인공 신경망의 딥러닝 모델을 갱신하는 과정을 설명하기 위한 순서도이다.
도 12는 일실시예에 따른 최종 분류 결과를 설정하는 과정을 설명하기 위한 순서도이다.
도 13은 일실시예에 따른 균열 인식을 위해 압력 감지 데이터를 획득하는 과정을 설명하기 위한 도면이다.
도 14는 일실시예에 따른 인공 신경망을 설명하기 위한 도면이다.
도 15는 일실시예에 따른 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.
1 is a diagram schematically showing the configuration of a system for analyzing a concrete surface according to an embodiment.
FIG. 2 is a diagram illustrating a classification criterion for a Concrete Surface Profile (CSP) according to an embodiment.
3 is a diagram illustrating a process of generating data on a concrete surface according to an exemplary embodiment.
4 is a view for explaining a process of analyzing a concrete surface corresponding to CSP 3 according to an embodiment.
5 is a view for explaining a process of analyzing a concrete surface corresponding to CSP 5 according to an embodiment.
6 is a view for explaining a process of analyzing a concrete surface corresponding to CSP 7 according to an embodiment.
7 is a diagram illustrating a process of learning data on a concrete surface according to an exemplary embodiment.
8 is a flowchart illustrating a process of generating a first analysis result according to an exemplary embodiment.
9 is a flowchart illustrating a process of generating a second analysis result according to an exemplary embodiment.
10 is a flowchart illustrating a process of performing additional learning on a second artificial neural network according to an embodiment.
11 is a flowchart illustrating a process of updating a deep learning model of a first artificial neural network according to an embodiment.
12 is a flowchart illustrating a process of setting a final classification result according to an embodiment.
13 is a diagram for describing a process of acquiring pressure sensing data for crack recognition according to an exemplary embodiment.
14 is a diagram illustrating an artificial neural network according to an embodiment.
15 is a diagram illustrating a method of learning an artificial neural network according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It is to be understood that all changes, equivalents, or substitutes to the embodiments are included in the scope of the rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for the purpose of illustration only, and may be changed and implemented in various forms. Accordingly, the embodiments are not limited to a specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, these terms should be interpreted only for the purpose of distinguishing one component from other components. For example, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being "connected" to another component, it is to be understood that it may be directly connected or connected to the other component, but other components may exist in the middle.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for illustrative purposes only and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof does not preclude in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in the present application. Does not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of the reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that a detailed description of a related known technology may unnecessarily obscure the subject matter of the embodiment, a detailed description thereof will be omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.The embodiments may be implemented in various types of products such as a personal computer, a laptop computer, a tablet computer, a smart phone, a television, a smart home appliance, an intelligent vehicle, a kiosk, and a wearable device.

도 1은 일실시예에 따른 콘크리트 표면을 분석하는 시스템의 구성을 개략적으로 나타낸 도면이다.1 is a diagram schematically showing the configuration of a system for analyzing a concrete surface according to an embodiment.

도 1을 참조하면, 일실시예에 따른 시스템은 통신망을 통해 서로 통신 가능한 장치(100) 및 서버(200)를 포함할 수 있다.Referring to FIG. 1, a system according to an embodiment may include a device 100 and a server 200 capable of communicating with each other through a communication network.

먼저, 통신망은 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크로 구성될 수 있으며, 서버와 서버 간의 통신과 서버와 단말 간의 통신이 수행되도록 다양한 형태로 구현될 수 있다.First, the communication network may be composed of wireless networks such as wireless LANs, CDMA, Bluetooth, and satellite communication, and may be implemented in various forms so that communication between a server and a server and communication between a server and a terminal are performed.

장치(100)는 통신 기능을 갖춘 연산 장치로 구현될 수 있으며, 예를 들면, 휴대전화기, 데스크톱 PC, 랩탑 PC, 태블릿 PC, 스마트폰 등으로 구현될 수 있으나, 이에 제한되지는 않으며, 외부 서버와 연결될 수 있는 다양한 형태의 통신 장치로 구현될 수도 있다.The device 100 may be implemented as a computing device having a communication function, for example, a mobile phone, a desktop PC, a laptop PC, a tablet PC, a smartphone, etc., but is not limited thereto, and an external server It may be implemented with various types of communication devices that can be connected with.

장치(100)는 콘크리트 표면에 대한 이미지를 분석하고, 해당 이미지가 어느 분류에 속하는지를 분류하여, 콘크리트 표면에 대한 제1 분류 결과를 획득할 수 있다. 여기서, 제1 분류 결과는 CSP(Concrete Surface Profile)의 분류 기준에 따라 분류된 10 단계 중 어느 하나를 나타낼 수 있다. CSP의 분류 기준에 대한 자세한 설명은 도 2를 참조하여 후술하기로 한다.The apparatus 100 may analyze an image of the concrete surface, classify which classification the image belongs to, and obtain a first classification result for the concrete surface. Here, the first classification result may represent any one of 10 steps classified according to the classification criteria of CSP (Concrete Surface Profile). A detailed description of the CSP classification criteria will be described later with reference to FIG. 2.

장치(100)는 통신부(110), 라이다부(120), 카메라부(130), 균열 인식 수단(140) 및 제1 프로세서(150)를 포함할 수 있으며, 메모리(160)를 더 포함하거나 별도로 구현된 메모리(160)와 연결될 수 있다.The device 100 may include a communication unit 110, a lidar unit 120, a camera unit 130, a crack recognition unit 140, and a first processor 150, and may further include a memory 160 or separately It may be connected to the implemented memory 160.

통신부(110)는 서버(200)와 무선 통신을 통해 데이터를 송수신할 수 있다.The communication unit 110 may transmit and receive data through wireless communication with the server 200.

구체적으로, 통신부(110)는 통신망과 연동하여 장치(100)와 서버(200) 간의 송수신 신호를 패킷 데이터 형태로 제공할 수 있으며, 서버(200)로 데이터 요청을 송신하고, 이에 대한 응답으로 데이터를 수신하는 역할을 수행할 수 있다.Specifically, the communication unit 110 may provide a transmission/reception signal between the device 100 and the server 200 in the form of packet data by interworking with a communication network, and transmits a data request to the server 200 and transmits a data request in response thereto. It can play a role of receiving.

라이다부(120)는 라이다(Lidar) 센서를 통해 콘크리트 표면에 대한 3D 데이터를 생성할 수 있다. 여기서, 3D 데이터는 콘크리트 표면에 대한 3D 이미지이다.The lidar unit 120 may generate 3D data on the concrete surface through a lidar sensor. Here, the 3D data is a 3D image of the concrete surface.

카메라부(130)는 카메라 촬영을 통해 콘크리트 표면에 대한 2D 데이터를 생성할 수 있다. 여기서, 2D 데이터는 콘크리트 표면에 대한 2D 이미지이다.The camera unit 130 may generate 2D data on the concrete surface through camera photographing. Here, the 2D data is a 2D image of the concrete surface.

균열 인식 수단(140)은 복수의 압력 센서를 포함할 수 있으며, 콘크리트에 가해지는 압력의 크기를 구역별로 감지할 수 있다. 압력 감지와 관련된 자세한 설명은 도 13을 참조하여 후술하기로 한다.The crack recognition means 140 may include a plurality of pressure sensors, and may detect the magnitude of the pressure applied to the concrete for each area. A detailed description related to pressure sensing will be described later with reference to FIG. 13.

제1 프로세서(150)는 일종의 중앙처리장치로서 제1 분류 결과를 획득하는 전체 과정을 제어할 수 있다. 제1 프로세서(150)는 장치(100)의 동작을 제어하여 제1 분류 결과를 획득하는 과정을 수행할 수 있다. 제1 분류 결과를 획득하는 과정에 대한 자세한 설명은 도 8을 참조하여 후술하기로 한다.The first processor 150 is a kind of central processing unit and may control the entire process of obtaining the first classification result. The first processor 150 may perform a process of obtaining a first classification result by controlling the operation of the device 100. A detailed description of the process of obtaining the first classification result will be described later with reference to FIG. 8.

메모리(160)는 제1 분류 결과를 획득하는 방법을 수행하기 위한 프로그램이 기록될 수 있다. 또한, 제1 프로세서(150)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다.A program for performing a method of obtaining a first classification result may be recorded in the memory 160. In addition, a function of temporarily or permanently storing data processed by the first processor 150 may be performed.

일실시예에 따르면, 제1 프로세서(150)는 프로그램을 실행하고, 장치(100)를 제어할 수 있다. 제1 프로세서(150)에 의하여 실행되는 프로그램의 코드는 메모리(160)에 저장될 수 있다. According to an embodiment, the first processor 150 may execute a program and control the device 100. The code of a program executed by the first processor 150 may be stored in the memory 160.

장치(100)는 후술할 제1 인공 신경망을 학습시키거나, 학습된 제1 인공 신경망을 이용하는데 사용될 수 있다. 메모리(160)는 학습 중인 또는 학습된 제1 인공 신경망을 포함할 수 있다. 제1 프로세서(150)는 인공지능을 포함할 수 있으며, 메모리(160)에 저장된 제1 인공 신경망의 알고리즘을 학습시키거나 실행시킬 수 있다. The device 100 may be used to train a first artificial neural network to be described later or to use the learned first artificial neural network. The memory 160 may include a learning-in-progress or learned first artificial neural network. The first processor 150 may include artificial intelligence, and may learn or execute an algorithm of the first artificial neural network stored in the memory 160.

서버(200)는 콘크리트 표면에 대한 이미지를 분석하고, 해당 이미지가 어느 분류에 속하는지를 분류하여, 콘크리트 표면에 대한 제2 분류 결과를 획득할 수 있다. 여기서, 제2 분류 결과는 CSP(Concrete Surface Profile)의 분류 기준에 따라 분류된 10 단계 중 어느 하나를 나타낼 수 있다. CSP의 분류 기준에 대한 자세한 설명은 도 2를 참조하여 후술하기로 한다.The server 200 may analyze the image of the concrete surface, classify which classification the image belongs to, and obtain a second classification result for the concrete surface. Here, the second classification result may represent any one of 10 steps classified according to the classification criteria of CSP (Concrete Surface Profile). A detailed description of the CSP classification criteria will be described later with reference to FIG. 2.

서버(200)는 통신부(210), 데이터 버퍼(220), 로드 밸런서(230) 및 제2 프로세서(240)를 포함할 수 있으며, 데이터베이스(250)를 더 포함하거나 별도로 구현된 데이터베이스(250)와 연결될 수 있다.The server 200 may include a communication unit 210, a data buffer 220, a load balancer 230, and a second processor 240, and may further include a database 250 or a separately implemented database 250 and Can be connected.

통신부(210)는 장치(100)와 유무선 통신을 통해 데이터를 송수신할 수 있다.The communication unit 210 may transmit and receive data through wired or wireless communication with the device 100.

구체적으로, 통신부(210)는 통신망과 연동하여 서버(200)와 장치(100) 간의 송수신 신호를 패킷 데이터 형태로 제공할 수 있으며, 장치(100)로 데이터 요청을 송신하고, 이에 대한 응답으로 데이터를 수신하는 역할을 수행할 수 있다.Specifically, the communication unit 210 may provide a transmission/reception signal between the server 200 and the device 100 in the form of packet data by interworking with the communication network, and transmits a data request to the device 100 and transmits a data request in response thereto. It can play a role of receiving.

데이터 버퍼(220)는 통신부(210)로부터 수신된 데이터를 임시로 저장하는 역할을 수행할 수 있다.The data buffer 220 may serve to temporarily store data received from the communication unit 210.

로드 밸런서(230)는 데이터 버퍼(220)에 저장된 데이터를 부하 분산 알고리즘을 통해 분배할 수 있다.The load balancer 230 may distribute data stored in the data buffer 220 through a load balancing algorithm.

제2 프로세서(240)는 일종의 중앙처리장치로서 제2 분류 결과를 획득하는 전체 과정을 제어할 수 있다. 제2 프로세서(240)는 서버(200)의 동작을 제어하여 제2 분류 결과를 획득하는 과정을 수행할 수 있다. 제2 분류 결과를 획득하는 과정에 대한 자세한 설명은 도 9를 참조하여 후술하기로 한다.The second processor 240 is a kind of central processing unit and may control the entire process of obtaining the second classification result. The second processor 240 may perform a process of obtaining a second classification result by controlling the operation of the server 200. A detailed description of the process of obtaining the second classification result will be described later with reference to FIG. 9.

데이터베이스(250)는 제2 분류 결과를 획득하는 방법을 수행하기 위한 프로그램이 기록될 수 있다. 또한, 제2 프로세서(240)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다.In the database 250, a program for performing a method of obtaining a second classification result may be recorded. In addition, a function of temporarily or permanently storing data processed by the second processor 240 may be performed.

일실시예에 따르면, 제2 프로세서(240)는 프로그램을 실행하고, 서버(200)를 제어할 수 있다. 제2 프로세서(240)에 의하여 실행되는 프로그램의 코드는 데이터베이스(250)에 저장될 수 있다. According to an embodiment, the second processor 240 may execute a program and control the server 200. The code of a program executed by the second processor 240 may be stored in the database 250.

서버(200)는 후술할 제2 인공 신경망을 학습시키거나, 학습된 제2 인공 신경망을 이용하는데 사용될 수 있다. 데이터베이스(250)는 학습 중인 또는 학습된 제2 인공 신경망을 포함할 수 있다. 제2 프로세서(240)는 인공지능을 포함할 수 있으며, 데이터베이스(250)에 저장된 제2 인공 신경망의 알고리즘을 학습시키거나 실행시킬 수 있다.The server 200 may be used to train a second artificial neural network to be described later or to use the learned second artificial neural network. The database 250 may include a second artificial neural network that is being trained or trained. The second processor 240 may include artificial intelligence, and may learn or execute an algorithm of the second artificial neural network stored in the database 250.

도 2는 일실시예에 따른 CSP(Concrete Surface Profile)의 분류 기준을 설명하기 위한 도면이다.FIG. 2 is a diagram illustrating a classification criterion for a Concrete Surface Profile (CSP) according to an embodiment.

일실시예에 따르면, 콘크리트 구조물은 손상 정도에 따라 보수 및 보강을 실시하여야 하는데, 보수 보강을 수행할 때 콘크리트 표면을 어느 정도 그라인더로 긁고 재포장 할 수 있으며, 이러한 행위를 유지보수 전처리 단계라고 한다. 이때, 이 전처리 과정에서 얼마나 깊숙이 긁었느냐에 따라 CSP(Concrete Surface Profile)가 높은 치수 또는 낮은 치수로 산정될 수 있다.According to one embodiment, the concrete structure needs to be repaired and reinforced according to the degree of damage.When the repair and reinforcement is performed, the concrete surface can be scratched and repaved to some extent with a grinder, and this action is referred to as a maintenance pretreatment step. . At this time, the CSP (Concrete Surface Profile) can be calculated as a high dimension or a low dimension depending on how deeply the scratch is made in this pretreatment process.

CSP는 표면의 긁힘 정도를 측정하는 방법으로, 표면 상태에 따라 총 10단계로 구분되어, CSP 1부터 10까지 분류될 수 있다. CSP는 낮은 단계일수록 표면이 매우 평평한 상태이고 높은 단계일수록 표면이 매우 거친 상태일 수 있다.CSP is a method of measuring the degree of scratching on the surface, and it is divided into 10 steps according to the surface condition, and can be classified from CSP 1 to 10. The CSP may have a very flat surface at a lower level, and a very rough surface at a higher level.

장치(100)의 메모리(160)와 서버(200)의 데이터베이스(250)에는 도 2에 도시된 CSP의 단계별 이미지가 저장되어 있을 수 있다.In the memory 160 of the device 100 and the database 250 of the server 200, a step-by-step image of the CSP shown in FIG. 2 may be stored.

구체적으로, 도 2의 (a)에 도시된 CSP 1은 Acid-etched 상태를 나타내는 대표 이미지이다. 도 2의 (b)에 도시된 CSP 2는 Grinding 상태를 나타내는 대표 이미지이다. 도 2의 (c)에 도시된 CSP 3은 Light shotblast 상태를 나타내는 대표 이미지이다. 도 2의 (d)에 도시된 CSP 4는 Light scarification 상태를 나타내는 대표 이미지이다. 도 2의 (e)에 도시된 CSP 5는 Medium shotblast 상태를 나타내는 대표 이미지이다. 도 2의 (f)에 도시된 CSP 6은 Medium scarification 상태를 나타내는 대표 이미지이다. 도 2의 (g)에 도시된 CSP 7은 Heavy abrasive blast 상태를 나타내는 대표 이미지이다. 도 2의 (h)에 도시된 CSP 8은 Scabbled 상태를 나타내는 대표 이미지이다. 도 2의 (i)에 도시된 CSP 9는 Heavy scarification-rotomilled 상태를 나타내는 대표 이미지이다. 도 2의 (j)에 도시된 CSP 10은 Handheld concrete breaker followed by abrasive blasting 상태를 나타내는 대표 이미지이다.Specifically, CSP 1 shown in (a) of FIG. 2 is a representative image showing an acid-etched state. CSP 2 shown in (b) of FIG. 2 is a representative image showing a grinding state. CSP 3 shown in (c) of FIG. 2 is a representative image showing a light shotblast state. CSP 4 shown in (d) of FIG. 2 is a representative image showing a light scarification state. CSP 5 shown in (e) of FIG. 2 is a representative image showing a medium shotblast state. CSP 6 shown in (f) of FIG. 2 is a representative image showing a medium scarification state. CSP 7 shown in (g) of FIG. 2 is a representative image showing a heavy abrasive blast state. CSP 8 shown in (h) of FIG. 2 is a representative image showing a scabbled state. CSP 9 shown in (i) of FIG. 2 is a representative image showing a heavy scarification-rotomilled state. CSP 10 shown in Figure 2 (j) is a representative image showing a handheld concrete breaker followed by abrasive blasting state.

장치(100)는 분석 대상 데이터와 메모리(160)에 저장되어 있는 CSP의 단계별 이미지를 비교하여, 분석 대상 데이터가 어느 단계에 해당되는지를 나타내는 제1 분석 결과를 획득할 수 있다.The apparatus 100 may compare the analysis target data with the step-by-step image of the CSP stored in the memory 160 to obtain a first analysis result indicating which step the analysis target data corresponds to.

마찬가지로, 서버(200)는 분석 대상 데이터와 데이터베이스(250)에 저장되어 있는 CSP의 단계별 이미지를 비교하여, 분석 대상 데이터가 어느 단계에 해당되는지를 나타내는 제2 분석 결과를 획득할 수 있다.Likewise, the server 200 may obtain a second analysis result indicating which stage the analysis target data corresponds to by comparing the analysis target data with the step-by-step image of the CSP stored in the database 250.

일실시예에 따르면, 시스템은 콘크리트 표면의 검사를 자동화할 수 있으며, 데이터의 패턴을 위주로 가능성을 분석하여, 콘크리트 표면을 분석할 수 있다.According to an embodiment, the system may automate the inspection of the concrete surface, and may analyze the concrete surface by analyzing the possibility based on the pattern of the data.

시스템은 머신비전과 3D 라인타입의 레이저 프로파일링 데이터를 이용한 분류기를 포함할 수 있으며, 인공지능을 기반으로 3D 포인트 변환센서 데이터를 이용한 패턴인식 기술을 이용할 수 있으며, 3D 패턴과 실제 촬영된 이미지의 칼리브레이션을 통해 표면 검사를 수행할 수 있다.The system may include a classifier using machine vision and 3D line-type laser profiling data, and may use pattern recognition technology using 3D point conversion sensor data based on artificial intelligence. Surface inspection can be performed through calibration.

시스템은 인공지능을 기반으로 3D 변위센서 데이터를 분류할 수 있다. 이때, 3D 변위센서의 데이터로는 CSV 파일이 제공되며 2D 형식으로 표현될 수 있다. 표현된 차트는 특정 분포의 패턴을 이루고 있어, 이를 통해 표면에 대한 분류를 수행할 수 있다.The system can classify 3D displacement sensor data based on artificial intelligence. At this time, a CSV file is provided as the data of the 3D displacement sensor and can be expressed in a 2D format. Since the expressed chart forms a pattern of a specific distribution, it is possible to classify the surface through this.

시스템은 Linear Regressor 모델을 이용하여 예측 및 분류하는 기술을 센서 데이터의 분포 패턴을 분류하는데 사용할 수 있다.The system can use a technology that predicts and classifies using a Linear Regressor model to classify the distribution pattern of sensor data.

장치(100)는 laptop, amplifier, controller, laser sensor 등을 포함할 수 있다.The device 100 may include a laptop, amplifier, controller, laser sensor, and the like.

장치(100)의 하단에 콘크리트가 위치하게 되면, 콘크리트 상부에 있는 라이다 및 카메라를 통해 콘크리트 표면을 촬영할 수 있다.When the concrete is positioned at the bottom of the device 100, the concrete surface can be photographed through a lidar and a camera on the upper part of the concrete.

장치(100)는 콘크리트 표면에 대한 데이터를 획득할 수 있다.The device 100 may acquire data on the concrete surface.

장치(100)는 콘크리트 표면에 대한 데이터를 분석하여, 콘크리트 표면이 어느 분류에 해당되는지를 차트 상에서 분류할 수 있다.The apparatus 100 may analyze data on the concrete surface and classify which classification the concrete surface corresponds to on a chart.

도 3은 일실시예에 따른 콘크리트 표면에 대한 데이터를 생성하는 과정을 설명하기 위한 도면이다.3 is a diagram illustrating a process of generating data on a concrete surface according to an exemplary embodiment.

도 3의 (a)에 도시된 바와 같이, 장치(100)의 상부에는 라이다 센서가 설치되어 있다.As shown in (a) of FIG. 3, a lidar sensor is installed on the top of the device 100.

도 3의 (b)에 도시된 바와 같이, 라이다 센서의 하단에 분석 대상 콘크리트가 배치될 수 있다.As shown in (b) of FIG. 3, the concrete to be analyzed may be disposed under the lidar sensor.

라이다 센서에서 콘크리트 표면에 대한 데이터를 획득하면, 도 3의 (c)에 도시된 바와 같이, 라이다 센서는 측정이 종료되면 측면으로 이동하여, 콘크리트가 제거될 수 있는 공간을 제공할 수 있다.When the data on the concrete surface is acquired by the lidar sensor, as shown in FIG. 3(c), the lidar sensor may move to the side when the measurement is finished, providing a space in which concrete can be removed. .

일실시예에 따르면, 장치(100)는 라이다 센서에서 획득된 데이터를 분석하여, 콘크리트 표면이 CSP 10 단계 중 어느 단계에 해당되는지를 분석할 수 있다.According to an embodiment, the apparatus 100 may analyze data obtained from a lidar sensor and analyze which of the 10 steps the concrete surface corresponds to.

도 4는 일실시예에 따른 CSP 3에 해당하는 콘크리트 표면을 분석하는 과정을 설명하기 위한 도면이다.4 is a view for explaining a process of analyzing a concrete surface corresponding to CSP 3 according to an embodiment.

도 4의 (a)에서 좌측에 도시된 바와 같이, 장치(100)는 카메라, 라이다 센서 등을 통해 콘크리트 표면을 촬영한 제1 이미지를 획득할 수 있으며, 획득된 제1 이미지는 도 4의 (a)에서 우측에 도시된 바와 같이, 장치(100)의 화면에 표시될 수 있다.As shown on the left in (a) of FIG. 4, the device 100 may acquire a first image photographing a concrete surface through a camera, a lidar sensor, etc., and the acquired first image is shown in FIG. 4. As shown on the right in (a), it may be displayed on the screen of the device 100.

도 4의 (b)에 도시된 바와 같이, 장치(100)는 제1 이미지를 기초로, 콘크리트 표면을 측정한 센서 데이터의 각 Column별 특징들을 분석하여 정리할 수 있다.As shown in (b) of FIG. 4, the device 100 may analyze and organize characteristics of each column of sensor data measuring the concrete surface based on the first image.

도 4의 (c)에 도시된 바와 같이, 장치(100)는 콘크리트 표면을 측정한 센서 데이터의 특정 부분만 추출하여, 이를 통해, 콘크리트 표면이 CSP 3에 해당하는 것으로 분석할 수 있다.As shown in (c) of FIG. 4, the device 100 extracts only a specific part of the sensor data measuring the concrete surface, and through this, it can be analyzed that the concrete surface corresponds to CSP 3.

도 5는 일실시예에 따른 CSP 5에 해당하는 콘크리트 표면을 분석하는 과정을 설명하기 위한 도면이다.5 is a view for explaining a process of analyzing a concrete surface corresponding to CSP 5 according to an embodiment.

도 5의 (a)에서 좌측에 도시된 바와 같이, 장치(100)는 카메라, 라이다 센서 등을 통해 콘크리트 표면을 촬영한 제2 이미지를 획득할 수 있으며, 획득된 제2 이미지는 도 5의 (a)에서 우측에 도시된 바와 같이, 장치(100)의 화면에 표시될 수 있다.As shown on the left in (a) of FIG. 5, the device 100 may acquire a second image photographing the concrete surface through a camera or a lidar sensor, and the acquired second image is shown in FIG. 5. As shown on the right in (a), it may be displayed on the screen of the device 100.

도 5의 (b)에 도시된 바와 같이, 장치(100)는 제2 이미지를 기초로, 콘크리트 표면을 측정한 센서 데이터의 각 Column별 특징들을 분석하여 정리할 수 있다.As shown in (b) of FIG. 5, the device 100 may analyze and organize characteristics of each column of sensor data measuring the concrete surface based on the second image.

도 5의 (c)에 도시된 바와 같이, 장치(100)는 콘크리트 표면을 측정한 센서 데이터의 특정 부분만 추출하여, 이를 통해, 콘크리트 표면이 CSP 5에 해당하는 것으로 분석할 수 있다.As shown in (c) of FIG. 5, the device 100 extracts only a specific part of the sensor data measuring the concrete surface, and through this, it can be analyzed that the concrete surface corresponds to CSP 5.

도 6은 일실시예에 따른 CSP 7에 해당하는 콘크리트 표면을 분석하는 과정을 설명하기 위한 도면이다.6 is a view for explaining a process of analyzing a concrete surface corresponding to CSP 7 according to an embodiment.

도 6의 (a)에서 좌측에 도시된 바와 같이, 장치(100)는 카메라, 라이다 센서 등을 통해 콘크리트 표면을 촬영한 제3 이미지를 획득할 수 있으며, 획득된 제3 이미지는 도 6의 (a)에서 우측에 도시된 바와 같이, 장치(100)의 화면에 표시될 수 있다.As shown on the left in (a) of FIG. 6, the device 100 may acquire a third image photographing the concrete surface through a camera or a lidar sensor, and the acquired third image is shown in FIG. 6. As shown on the right in (a), it may be displayed on the screen of the device 100.

도 6의 (b)에 도시된 바와 같이, 장치(100)는 제3 이미지를 기초로, 콘크리트 표면을 측정한 센서 데이터의 각 Column별 특징들을 분석하여 정리할 수 있다.As shown in (b) of FIG. 6, the device 100 may analyze and organize characteristics of each column of sensor data measuring the concrete surface based on the third image.

도 6의 (c)에 도시된 바와 같이, 장치(100)는 콘크리트 표면을 측정한 센서 데이터의 특정 부분만 추출하여, 이를 통해, 콘크리트 표면이 CSP 7에 해당하는 것으로 분석할 수 있다.As shown in (c) of FIG. 6, the device 100 extracts only a specific part of the sensor data measuring the concrete surface, and through this, it can be analyzed that the concrete surface corresponds to CSP 7.

제1 이미지, 제2 이미지 및 제3 이미지 각각을 획득하기 위해 데이터를 측정하는 과정에서, 데이터를 측정하는 과정에서, 도로 시편과 센서의 거리는 일정할 수 있으며, 각각의 시편을 측정하는데 있어서 센서의 높이는 일정할 수 있다.In the process of measuring data to acquire each of the first image, the second image, and the third image, in the process of measuring the data, the distance between the road specimen and the sensor may be constant. The height can be constant.

도 4의 (b), 도 5의 (b) 및 도 6의 (b)를 참조하면, 데이터의 내부 구조를 분석한 결과, 측정값 -999.999는 다른 측정값들과는 매우 상이한 값을 가지고 있으므로, -999.999 값들을 불필요한 데이터로 판단하여, 해당 데이터가 존재하는 모든 Column을 제거한 후 분석을 진행할 수 있다.Referring to FIGS. 4B, 5B and 6B, as a result of analyzing the internal structure of the data, the measured value -999.999 has a very different value from other measured values,- By judging the values of 999.999 as unnecessary data, you can proceed with analysis after removing all columns in which the data exists.

도 7은 일실시예에 따른 콘크리트 표면에 대한 데이터를 학습하는 과정을 설명하기 위한 도면이다.7 is a diagram illustrating a process of learning data on a concrete surface according to an exemplary embodiment.

일실시예에 따르면, 시스템은 도 7에 도시된 과정을 통합하여 수행할 수 있고, 장치(100) 및 서버(200) 각각에서 도 7에 도시된 과정을 별도로 수행할 수도 있다.According to an embodiment, the system may integrate and perform the process shown in FIG. 7, and the device 100 and the server 200 may separately perform the process shown in FIG. 7.

도 7의 (a)에 도시된 바와 같이, 시스템은 복수의 이미지를 로드하여 하나의 입력 이미지를 생성할 수 있다.As shown in (a) of FIG. 7, the system may generate one input image by loading a plurality of images.

도 7의 (b)에 도시된 바와 같이, 시스템은 입력 이미지를 통해 학습을 수행할 수 있다.As shown in (b) of FIG. 7, the system may perform learning through an input image.

도 7의 (c)에 도시된 바와 같이, 입력 값에 대한 출력 결과를 획득할 수 있다.As shown in (c) of FIG. 7, an output result for an input value may be obtained.

일실시예에 따르면, CNN(Convolutional Neural Network) 안에서 이용하는 이미지의 사이즈는 (300Ⅹ300) 픽셀이지만, 시스템은 CSV 파일 전체를 불러와서 (300Ⅹ300) 픽셀 부분의 영역만 추출하여 CNN에 적용할 수 있다. 이때, CSV 데이터에서 미리 (300Ⅹ300) 픽셀의 이미지를 생성하는 경우, 하드웨어 리소스와 메모리 공간이 많이 필요하기 때문에, CSV 파일을 일단 불러온 후에, 랜덤하게 스타트 포인트 (x, y)만 생성하여, (x ~ x+300, y ~ y+300) 만큼의 픽셀 영역만 가져와서 학습에 이용할 수 있다. 이는 매번 랜덤하게 스타트 포인트를 생성하였기 때문에, 매 학습마다 새로운 데이터를 학습하는 것과 같은 효과를 가진다.According to an embodiment, the size of an image used in a convolutional neural network (CNN) is (300×300) pixels, but the system can import the entire CSV file and extract only the area of the (300×300) pixel portion and apply it to the CNN. At this time, when generating an image of (300×300) pixels from CSV data in advance, a lot of hardware resources and memory space are required, so once the CSV file is loaded, only the start points (x, y) are randomly generated, and the ( Only the pixel area of x ~ x+300, y ~ y+300) can be imported and used for learning. This has the same effect as learning new data for each learning because the starting point is randomly generated each time.

도 7의 (d)에 도시된 바와 같이, 시스템은 학습이 완료되면, 학습 결과를 획득하여 분석할 수 있으며, 마지막 Dense Layer에서 결과값으로, CSP 3 Probability, CSP 5 Probability, CSP 7 Probability의 값이 출력되며, 3개 값 중에 가장 큰 값을 분석 대상 이미지의 라벨로 활용할 수 있다.As shown in (d) of FIG. 7, when the learning is completed, the system can acquire and analyze the learning result, and as a result value in the last Dense Layer, the values of CSP 3 Probability, CSP 5 Probability, and CSP 7 Probability Is displayed, and the largest value among the three values can be used as a label for the image to be analyzed.

도 8은 일실시예에 따른 제1 분석 결과를 생성하는 과정을 설명하기 위한 순서도이다.8 is a flowchart illustrating a process of generating a first analysis result according to an exemplary embodiment.

도 8을 참조하면, 먼저 S801 단계에서, 장치(100)는 라이다를 통해 콘크리트 표면에 대한 3D 데이터를 획득할 수 있다. 여기서, 3D 데이터는 콘크리트 표면에 대한 3D 이미지이다.Referring to FIG. 8, first, in step S801, the device 100 may acquire 3D data on the concrete surface through the lidar. Here, the 3D data is a 3D image of the concrete surface.

S802 단계에서, 장치(100)는 카메라를 통해 콘크리트 표면에 대한 2D 데이터를 획득할 수 있다. 여기서, 2D 데이터는 콘크리트 표면에 대한 2D 이미지이다.In step S802, the device 100 may acquire 2D data on the concrete surface through the camera. Here, the 2D data is a 2D image of the concrete surface.

S803 단계에서, 장치(100)는 2D 데이터와 3D 데이터의 합집합 영역을 분리하여, 2D 데이터 및 3D 데이터를 병합한 제1 데이터를 추출할 수 있다.In operation S803, the apparatus 100 may extract first data obtained by merging the 2D data and the 3D data by separating the union area of the 2D data and the 3D data.

구체적으로, 장치(100)는 2D 데이터와 3D 데이터를 비교하여, 서로 중복되는 합집합 영역을 파악할 수 있으며, 2D 데이터에서 합집합 영역을 분리하고 3D 데이터에서 합집합 영역을 분리하여, 분리된 합집합 영역을 병합하여 제1 데이터를 추출할 수 있다. 여기서, 제1 데이터는 4채널로 구성될 수 있으며, 3채널은 RGB 값을 나타내는 2D 데이터이고, 1채널은 3D 깊이 값을 나타내는 데이터일 수 있다.Specifically, the device 100 may compare 2D data and 3D data to identify a union area that overlaps each other, separate the union area from 2D data, separate the union area from 3D data, and merge the separated union area Thus, the first data can be extracted. Here, the first data may be composed of 4 channels, 3 channels may be 2D data indicating RGB values, and 1 channel may be data indicating 3D depth values.

장치(100)는 제1 데이터를 인코딩하여 제1 입력 신호를 생성할 수 있다.The device 100 may generate a first input signal by encoding the first data.

구체적으로, 장치(100)는 제1 데이터의 픽셀을 색 정보로 인코딩하여 제1 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다. 장치(100)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 제1 데이터를 인코딩할 수 있다.Specifically, the device 100 may generate a first input signal by encoding a pixel of the first data into color information. The color information may include RGB color information, brightness information, saturation information, and depth information, but is not limited thereto. The apparatus 100 may convert color information into a numerical value, and may encode the first data in the form of a data sheet including this value.

장치(100)는 제1 입력 신호를 장치(100) 내 미리 학습된 제1 인공 신경망에 입력할 수 있다.The device 100 may input the first input signal to a first artificial neural network that has been learned in advance in the device 100.

일실시예에 따른 제1 인공 신경망은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The first artificial neural network according to an embodiment is composed of a feature extraction neural network and a classification neural network, and the feature extraction neural network sequentially stacks an input signal by a convolutional layer and a pooling layer. The convolution layer includes convolution operations, convolution filters, and activation functions. The calculation of the convolution filter is adjusted according to the size of the matrix of the target input, but generally a 9X9 matrix is used. The activation function generally uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The pooling layer is a layer that reduces the size of an input matrix, and uses a method of extracting a representative value by grouping pixels in a specific area. In general, an average value or a maximum value is often used for the operation of the pooling layer, but is not limited thereto. This operation is performed using a square matrix, usually a 9X9 matrix. The convolutional layer and the pooling layer are alternately iterated until the corresponding input is small enough while maintaining the difference.

일실시예에 따르면, 분류 신경망은 히든 레이어와 출력 레이어를 가지고 있다. 콘크리트 표면의 CSP 분류를 위한 제1 인공 신경망의 분류 신경망은 5층 이하의 히든 레이어로 구성되며, 총 50개 이하의 히든 레이어 노드를 포함할 수 있다. 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 분류 신경망의 출력 레이어 노드는 총 1개이며, 콘크리트 표면의 분류에 대한 출력값을 출력 레이어 노드에 출력할 수 있다. 제1 인공 신경망에 대한 자세한 설명은 도 14를 참조하여 후술한다.According to an embodiment, the classification neural network has a hidden layer and an output layer. The classification neural network of the first artificial neural network for CSP classification of the concrete surface is composed of 5 or less hidden layers, and may include a total of 50 or less hidden layer nodes. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. There is a total of 1 output layer node of the classification neural network, and the output value for the classification of the concrete surface can be output to the output layer node. A detailed description of the first artificial neural network will be described later with reference to FIG. 14.

장치(100)는 제1 인공 신경망의 입력의 결과에 기초하여, 제1 출력 신호를 획득할 수 있다.The device 100 may obtain a first output signal based on a result of the input of the first artificial neural network.

S804 단계에서, 장치(100)는 제1 출력 신호에 기초하여, 콘크리트 표면에 대한 제1 분류 결과를 생성할 수 있다. 여기서, 제1 분류 결과는 콘크리트 표면이 CSP의 어느 단계로 분류되는지에 대한 정보를 포함할 수 있다.In step S804, the device 100 may generate a first classification result for the concrete surface based on the first output signal. Here, the first classification result may include information on which stage of the CSP the concrete surface is classified.

예를 들어, 장치(100)는 제1 출력 신호의 출력값을 확인한 결과, 출력값이 1인 경우, 콘크리트 표면이 CSP 1에 해당하는 것으로 제1 분류 결과를 생성하고, 출력값이 2인 경우, 콘크리트 표면이 CSP 2에 해당하는 것으로 제1 분류 결과를 생성할 수 있다.For example, as a result of checking the output value of the first output signal, when the output value is 1, the device 100 generates a first classification result as the concrete surface corresponds to CSP 1, and when the output value is 2, the concrete surface It is possible to generate a first classification result as corresponding to this CSP 2.

도 9는 일실시예에 따른 제2 분석 결과를 생성하는 과정을 설명하기 위한 순서도이다.9 is a flowchart illustrating a process of generating a second analysis result according to an exemplary embodiment.

도 9를 참조하면, 먼저 S901 단계에서, 장치(100)는 제1 데이터의 분석을 통해 제1 분류 결과가 생성되면, 제1 데이터 및 제1 분류 결과를 서버(200)로 전송할 수 있다.Referring to FIG. 9, first in step S901, when a first classification result is generated through analysis of the first data, the device 100 may transmit the first data and the first classification result to the server 200.

S902 단계에서, 서버(200)는 장치(100)로부터 수신된 제1 데이터를 분석하여 콘크리트 표면에 발생한 균열을 검출할 수 있다. 균열 검출 시에는 이미지 분석을 통해 일정 크기 이상으로 확인된 부분만 콘크리트 표면에 발생한 균열로 검출할 수 있다.In step S902, the server 200 may analyze the first data received from the device 100 to detect a crack generated on the concrete surface. In the case of crack detection, only the part that is confirmed to be larger than a certain size through image analysis can be detected as a crack generated on the concrete surface.

S903 단계에서, 서버(200)는 콘크리트 표면에 발생한 균열을 영역별로 확인하여, 정상 영역과 손상 영역을 구분할 수 있다.In step S903, the server 200 may identify cracks generated on the concrete surface for each area, thereby distinguishing between the normal area and the damaged area.

구체적으로, 서버(200)는 제1 데이터를 제1 영역, 제2 영역 등의 복수의 영역으로 구분하여, 각각의 영역 별로 균열이 몇 개씩 검출되었는지 확인할 수 있으며, 제1 기준치 미만으로 균열이 검출된 영역을 정상 영역으로 구분하고, 제1 기준치 이상으로 균열이 검출된 영역을 손상 영역으로 구분할 수 있다. 이때, 제1 기준치는 실시예에 따라 상이하게 설정될 수 있다.Specifically, the server 200 divides the first data into a plurality of areas, such as a first area and a second area, and can check how many cracks have been detected for each area, and a crack is detected below the first reference value. The damaged area may be divided into a normal area, and an area in which a crack is detected above the first reference value may be divided into a damaged area. In this case, the first reference value may be set differently according to the exemplary embodiment.

S904 단계에서, 서버(200)는 제1 데이터에서 손상 영역을 삭제한 제2 데이터를 추출할 수 있다.In step S904, the server 200 may extract second data from which the damaged area is deleted from the first data.

예를 들어, 제1 데이터에 있는 이미지가 제1 영역, 제2 영역 및 제3 영역으로 구성되어 있는데, 제1 영역은 손상 영역으로 구분되고, 제2 영역 및 제3 영역은 정상 영역으로 구분된 경우, 서버(200)는 제2 영역 및 제3 영역만 포함된 이미지를 제2 데이터로 추출할 수 있다.For example, the image in the first data is composed of a first area, a second area, and a third area. The first area is divided into a damaged area, and the second area and the third area are divided into normal areas. In this case, the server 200 may extract an image including only the second region and the third region as second data.

서버(200)는 제2 데이터를 인코딩하여 제2 입력 신호를 생성할 수 있다.The server 200 may generate a second input signal by encoding the second data.

구체적으로, 서버(200)는 제2 데이터의 픽셀을 색 정보로 인코딩하여 제2 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다. 서버(200)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 제2 데이터를 인코딩할 수 있다.Specifically, the server 200 may generate a second input signal by encoding a pixel of the second data into color information. The color information may include RGB color information, brightness information, saturation information, and depth information, but is not limited thereto. The server 200 may convert the color information into a numerical value, and may encode the second data in the form of a data sheet including this value.

서버(200)는 제2 입력 신호를 서버(200) 내 미리 학습된 제2 인공 신경망에 입력할 수 있다.The server 200 may input the second input signal to a second artificial neural network that has been learned in advance in the server 200.

일실시예에 따른 제2 인공 신경망은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The second artificial neural network according to an embodiment is composed of a feature extraction neural network and a classification neural network, and the feature extraction neural network sequentially stacks an input signal with a convolutional layer and a pooling layer. The convolution layer includes convolution operations, convolution filters, and activation functions. The calculation of the convolution filter is adjusted according to the size of the matrix of the target input, but generally a 9X9 matrix is used. The activation function generally uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The pooling layer is a layer that reduces the size of an input matrix, and uses a method of extracting a representative value by grouping pixels in a specific area. In general, an average value or a maximum value is often used for the operation of the pooling layer, but is not limited thereto. This operation is performed using a square matrix, usually a 9X9 matrix. The convolutional layer and the pooling layer are alternately iterated until the corresponding input is small enough while maintaining the difference.

일실시예에 따르면, 분류 신경망은 히든 레이어와 출력 레이어를 가지고 있다. 콘크리트 표면의 CSP 분류를 위한 제2 인공 신경망의 분류 신경망은 5층 이하의 히든 레이어로 구성되며, 총 50개 이하의 히든 레이어 노드를 포함할 수 있다. 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 분류 신경망의 출력 레이어 노드는 총 1개이며, 콘크리트 표면의 분류에 대한 출력값을 출력 레이어 노드에 출력할 수 있다. 제2 인공 신경망에 대한 자세한 설명은 도 14를 참조하여 후술한다.According to an embodiment, the classification neural network has a hidden layer and an output layer. The classification neural network of the second artificial neural network for CSP classification of the concrete surface is composed of 5 or less hidden layers, and may include a total of 50 or less hidden layer nodes. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. There is a total of 1 output layer node of the classification neural network, and the output value for the classification of the concrete surface can be output to the output layer node. A detailed description of the second artificial neural network will be described later with reference to FIG. 14.

서버(200)는 제2 인공 신경망의 입력의 결과에 기초하여, 제2 출력 신호를 획득할 수 있다.The server 200 may obtain a second output signal based on a result of the input of the second artificial neural network.

S905 단계에서, 서버(200)는 제2 출력 신호에 기초하여, 콘크리트 표면에 대한 제2 분류 결과를 생성할 수 있다. 여기서, 제2 분류 결과는 콘크리트 표면이 CSP의 어느 단계로 분류되는지에 대한 정보를 포함할 수 있다.In step S905, the server 200 may generate a second classification result for the concrete surface based on the second output signal. Here, the second classification result may include information on which stage of the CSP the concrete surface is classified.

예를 들어, 서버(200)는 제2 출력 신호의 출력값을 확인한 결과, 출력값이 1인 경우, 콘크리트 표면이 CSP 1에 해당하는 것으로 제2 분류 결과를 생성하고, 출력값이 2인 경우, 콘크리트 표면이 CSP 2에 해당하는 것으로 제2 분류 결과를 생성할 수 있다.For example, the server 200 checks the output value of the second output signal, and when the output value is 1, generates a second classification result as the concrete surface corresponds to CSP 1, and when the output value is 2, the concrete surface It is possible to generate a second classification result that corresponds to this CSP 2.

서버(200)는 제1 분류 결과 및 제2 분류 결과를 기초로, 콘크리트 표면에 대한 최종 분류 결과를 설정할 수 있다.The server 200 may set a final classification result for the concrete surface based on the first classification result and the second classification result.

예를 들어, 제1 분류 결과 및 제2 분류 결과가 동일한 경우, 서버(200)는 제1 분류 결과 및 제2 분류 결과 중 어느 하나를 콘크리트 표면에 대한 최종 분류 결과로 설정할 수 있다. 최종 분류 결과를 설정하는 내용과 관련된 자세한 설명은 도 12를 참조하여 후술하기로 한다.For example, when the first classification result and the second classification result are the same, the server 200 may set any one of the first classification result and the second classification result as the final classification result for the concrete surface. A detailed description of the content for setting the final classification result will be described later with reference to FIG. 12.

도 10은 일실시예에 따른 제2 인공 신경망에 대한 추가 학습을 수행하는 과정을 설명하기 위한 순서도이다.10 is a flowchart illustrating a process of performing additional learning on a second artificial neural network according to an embodiment.

도 10을 참조하면, 먼저 S1001 단계에서, 서버(200)는 제1 분류 결과 및 제2 분류 결과를 기초로 설정된 최종 분류 결과를 확인할 수 있다.Referring to FIG. 10, first in step S1001, the server 200 may check a final classification result set based on the first classification result and the second classification result.

S1002 단계에서, 서버(200)는 최종 분류 결과에 따라 제2 데이터에 대한 영상처리 및 패턴인식을 수행하여, 콘크리트 표면을 분석할 수 있다.In step S1002, the server 200 may analyze the concrete surface by performing image processing and pattern recognition on the second data according to the final classification result.

예를 들어, 서버(200)의 데이터베이스(250)에는 CSP 단계 별로 해당 단계를 위해 최적화된 영상처리 및 패턴인식에 대한 알고리즘이 각각 저장되어 있는데, 최종 분류 결과에 따라 콘크리트 표면이 CSP 1로 분류되면, 서버(200)는 CSP 1 전용 알고리즘을 이용하여, 제2 데이터에 대한 영상처리 및 패턴인식을 수행할 수 있으며, 최종 분류 결과에 따라 콘크리트 표면이 CSP 2로 분류되면, 서버(200)는 CSP 2 전용 알고리즘을 이용하여, 제2 데이터에 대한 영상처리 및 패턴인식을 수행할 수 있다. 즉, 최종 분류 결과를 통해 확인된 CSP 단계에 따라 상이한 방식으로 제2 데이터에 대한 영상처리 및 패턴인식이 수행될 수 있다.For example, in the database 250 of the server 200, an algorithm for image processing and pattern recognition optimized for each CSP step is stored. If the concrete surface is classified as CSP 1 according to the final classification result, , The server 200 can perform image processing and pattern recognition on the second data using the CSP 1 dedicated algorithm, and when the concrete surface is classified as CSP 2 according to the final classification result, the server 200 2 Using a dedicated algorithm, image processing and pattern recognition may be performed on the second data. That is, image processing and pattern recognition for the second data may be performed in different ways according to the CSP step identified through the final classification result.

S1003 단계에서, 서버(200)는 최종 분류 결과에 대한 작업자의 판단 결과를 획득할 수 있다.In step S1003, the server 200 may obtain a result of the operator's determination on the final classification result.

구체적으로, 서버(200)는 작업자 단말로 최종 분류 결과를 전송할 수 있으며, 작업자 단말로부터 최종 분류 결과에 대한 판단 결과를 수신하여 획득할 수 있다. 이때, 작업자의 판단 결과는 성공 또는 실패 중 어느 하나를 나타내는 정보를 포함할 수 있다.Specifically, the server 200 may transmit the final classification result to the worker terminal, and may receive and obtain a determination result for the final classification result from the worker terminal. In this case, the operator's determination result may include information indicating either success or failure.

S1004 단계에서, 서버(200)는 작업자 단말로부터 획득된 판단 결과가 제2 기준치 이상으로 수집되었는지 여부를 확인할 수 있다. 여기서, 제2 기준치는 실시예에 따라 상이하게 설정될 수 있다.In step S1004, the server 200 may check whether the determination result obtained from the worker terminal is collected above the second reference value. Here, the second reference value may be set differently according to embodiments.

S1004 단계에서 판단 결과가 제2 기준치 이상으로 수집되지 않은 것이 확인되면, S1003 단계로 되돌아가, 서버(200)는 작업자의 판단 결과를 다시 획득할 수 있다.If it is confirmed in step S1004 that the determination result is not collected above the second reference value, the process returns to step S1003, and the server 200 may obtain the determination result of the operator again.

S1004 단계에서 판단 결과가 제2 기준치 이상으로 수집된 것이 확인되면, S1005 단계에서, 서버(200)는 판단 결과들을 서버(200)와 연결된 클라우드에 전송할 수 있다. 이때, 서버(200)는 클라우드 서버로 구현될 수 있다.When it is confirmed in step S1004 that the determination result is collected above the second reference value, in step S1005, the server 200 may transmit the determination results to a cloud connected to the server 200. In this case, the server 200 may be implemented as a cloud server.

S1006 단계에서, 서버(200)는 판단 결과들을 통해 서버(200) 내 제2 인공 신경망에 대한 추가 학습이 수행되도록 처리할 수 있다. 이때, 서버(200)는 판단 결과가 성공인 데이터와 실패인 데이터를 구분하여, 제2 인공 신경망이 최적화되도록 추가 학습을 수행할 수 있다.In step S1006, the server 200 may process additional learning on the second artificial neural network in the server 200 based on the determination results. In this case, the server 200 may perform additional learning so that the second artificial neural network is optimized by dividing data in which the determination result is a success and data that is a failure.

도 11은 일실시예에 따른 제1 인공 신경망의 딥러닝 모델을 갱신하는 과정을 설명하기 위한 순서도이다.11 is a flowchart illustrating a process of updating a deep learning model of a first artificial neural network according to an embodiment.

도 11을 참조하면, 먼저 S1101 단계에서, 장치(100)는 장치(100) 내 제1 인공 신경망을 통해 학습을 수행하여, 제1 인공 신경망을 통한 학습 결과를 획득할 수 있으며, 제1 인공 신경망을 통한 학습 결과를 통해 제1 인공 신경망의 성능을 확인할 수 있다.Referring to FIG. 11, first, in step S1101, the device 100 may perform learning through a first artificial neural network in the device 100 to obtain a learning result through the first artificial neural network, and the first artificial neural network The performance of the first artificial neural network can be confirmed through the learning result through.

S1102 단계에서, 서버(200)는 서버(200) 내 제2 인공 신경망을 통해 학습을 수행하여, 제2 인공 신경망을 통한 학습 결과를 획득할 수 있으며, 제2 인공 신경망을 통한 학습 결과를 통해 제2 인공 신경망의 성능을 확인할 수 있다.In step S1102, the server 200 may perform learning through a second artificial neural network in the server 200 to obtain a learning result through the second artificial neural network. 2 You can check the performance of the artificial neural network.

S1103 단계에서, 서버(200)는 제2 인공 신경망을 통한 학습 결과와 제1 인공 신경망을 통한 학습 결과에 대한 성능을 비교하여, 제2 인공 신경망을 통한 학습 결과가 제1 인공 신경망을 통한 학습 결과 보다 제3 기준치 이상으로 성능이 향상되었는지 여부를 확인할 수 있다. 여기서, 제3 기준치는 실시예에 따라 상이하게 설정될 수 있다.In step S1103, the server 200 compares the learning result through the second artificial neural network and the performance of the learning result through the first artificial neural network, and the learning result through the second artificial neural network is a learning result through the first artificial neural network. It can be checked whether or not the performance is improved by more than the third reference value. Here, the third reference value may be set differently according to embodiments.

예를 들어, 제1 인공 신경망을 통한 학습 결과를 통해 확인된 제1 인공 신경망의 성능이 80이고, 제2 인공 신경망을 통한 학습 결과를 통해 확인된 제2 인공 신경망의 성능이 95이고, 제3 기준치가 10인 경우, 서버(200)는 제2 인공 신경망을 통한 학습 결과가 제3 기준치 이상으로 성능이 향상된 것으로 확인할 수 있다.For example, the performance of the first artificial neural network confirmed through the learning result through the first artificial neural network is 80, the performance of the second artificial neural network confirmed through the learning result through the second artificial neural network is 95, and the third When the reference value is 10, the server 200 may confirm that the learning result through the second artificial neural network has improved performance beyond the third reference value.

S1103 단계에서 제2 인공 신경망을 통한 학습 결과가 제3 기준치 이상으로 성능이 향상된 것으로 확인되면, S1104 단계에서, 장치(100)는 제2 인공 신경망을 통해 제1 인공 신경망의 딥러닝 모델을 갱신할 수 있다. 이후, S1101 단계로 되돌아가, 장치(100)는 딥러닝 모델이 갱신된 제1 인공 신경망을 통해 학습을 다시 수행하여, 제1 인공 신경망의 성능을 다시 확인할 수 있다.In step S1103, if the learning result through the second artificial neural network is confirmed to have improved performance beyond the third reference value, in step S1104, the device 100 updates the deep learning model of the first artificial neural network through the second artificial neural network. I can. Thereafter, returning to step S1101, the device 100 may re-confirm the performance of the first artificial neural network by performing learning again through the first artificial neural network in which the deep learning model has been updated.

S1103 단계에서 제2 인공 신경망을 통한 학습 결과가 제3 기준치 이상으로 성능이 향상되지 않은 것으로 확인되면, S1105 단계에서, 서버(200)는 제2 인공 신경망에 대한 추가 학습을 수행할 수 있다. 이후, S1102 단계로 되돌아가, 서버(200)는 추가 학습된 제2 인공 신경망을 통해 학습을 다시 수행하여, 제2 인공 신경망의 성능을 다시 확인할 수 있다.If it is determined in step S1103 that the learning result through the second artificial neural network has not improved more than the third reference value, in step S1105, the server 200 may perform additional learning on the second artificial neural network. Thereafter, returning to step S1102, the server 200 may perform learning again through the additionally learned second artificial neural network, so that the performance of the second artificial neural network may be confirmed again.

도 12는 일실시예에 따른 최종 분류 결과를 설정하는 과정을 설명하기 위한 순서도이다.12 is a flowchart illustrating a process of setting a final classification result according to an embodiment.

도 12를 참조하면, 먼저 S1201 단계에서, 장치(100)는 2D 데이터와 3D 데이터의 합집합 영역을 분리하여, 2D 데이터 및 3D 데이터를 병합한 제1 데이터를 추출할 수 있다.Referring to FIG. 12, first, in step S1201, the apparatus 100 may extract first data obtained by merging 2D data and 3D data by separating a union region of 2D data and 3D data.

S1202 단계에서, 장치(100)는 제1 데이터에 기초하여, 콘크리트 표면에 대한 제1 분류 결과를 생성할 수 있다. 이때, 장치(100)는 제1 데이터 및 제1 분류 결과를 서버(200)로 전송할 수 있다.In step S1202, the device 100 may generate a first classification result for the concrete surface based on the first data. In this case, the device 100 may transmit the first data and the first classification result to the server 200.

S1203 단계에서, 서버(200)는 제1 데이터를 분석하여 정상 영역과 손상 영역으로 구분하고, 제1 데이터에서 손상 영역을 삭제한 제2 데이터를 추출할 수 있다.In step S1203, the server 200 may analyze the first data, divide it into a normal region and a damaged region, and extract second data obtained by deleting the damaged region from the first data.

S1204 단계에서, 서버(200)는 제2 데이터에 기초하여, 콘크리트 표면에 대한 제2 분류 결과를 생성할 수 있다. In step S1204, the server 200 may generate a second classification result for the concrete surface based on the second data.

S1205 단계에서, 서버(200)는 S1202 단계에서 생성된 제1 분류 결과와 S1204 단계에서 생성된 제2 분류 결과를 비교하여 동일한지 여부를 확인할 수 있다.In step S1205, the server 200 may compare the first classification result generated in step S1202 with the second classification result generated in step S1204 to determine whether they are the same.

S1205 단계에서 제1 분류 결과 및 제2 분류 결과가 동일한 것으로 확인되면, S1206 단계에서, 서버(200)는 제1 분류 결과 및 제2 분류 결과 중 어느 하나를 최종 분류 결과로 설정할 수 있다. 즉, 제1 분류 결과와 제2 분류 결과가 동일하기 때문에, 제1 분류 결과 및 제2 분류 결과 중 어느 하나를 최종 분류 결과로 설정할 수 있다.If it is determined in step S1205 that the first classification result and the second classification result are the same, in step S1206, the server 200 may set any one of the first classification result and the second classification result as the final classification result. That is, since the first classification result and the second classification result are the same, one of the first classification result and the second classification result can be set as the final classification result.

S1205 단계에서 제1 분류 결과 및 제2 분류 결과가 상이한 것으로 확인되면, S1207 단계에서, 서버(200)는 제1 분류 결과를 이용하여 제3 데이터를 획득하고, S1208 단계에서, 서버(200)는 제2 분류 결과를 이용하여 제4 데이터를 획득할 수 있다.If it is confirmed that the first classification result and the second classification result are different in step S1205, in step S1207, the server 200 acquires third data using the first classification result, and in step S1208, the server 200 The fourth data may be obtained by using the second classification result.

구체적으로, 서버(200)의 데이터베이스(250)에는 콘크리트 표면의 분류 별로 대표 이미지가 저장되어 있으며, 예를 들어, CSP 1, CSP 2, CSP 3 등의 분류 별로 대표 이미지가 각각 저장되어 있다.Specifically, in the database 250 of the server 200, representative images are stored for each classification of the concrete surface, and representative images are stored for each classification, such as CSP 1, CSP 2, and CSP 3, respectively.

서버(200)는 제1 분류 결과를 통해 콘크리트 표면이 제1 분류로 분류된 것이 확인되면, 제1 분류의 대표 이미지로 등록되어 있는 데이터를 제3 데이터로 획득할 수 있다. 예를 들어, 제1 분류 결과를 통해 콘크리트 표면이 CSP 2로 분류되어 있는 경우, CSP 2의 대표 이미지를 제3 데이터로 획득할 수 있다.When it is confirmed through the first classification result that the concrete surface is classified as the first classification, the server 200 may obtain data registered as the representative image of the first classification as third data. For example, when the concrete surface is classified as CSP 2 through the first classification result, a representative image of CSP 2 may be obtained as third data.

또한, 서버(200)는 제2 분류 결과를 통해 콘크리트 표면이 제2 분류로 분류된 것이 확인되면, 제2 분류의 대표 이미지로 등록되어 있는 데이터를 제4 데이터로 획득할 수 있다. 예를 들어, 제2 분류 결과를 통해 콘크리트 표면이 CSP 3으로 분류되어 있는 경우, CSP 3의 대표 이미지를 제4 데이터로 획득할 수 있다.In addition, when it is confirmed through the second classification result that the concrete surface is classified as the second classification, the server 200 may acquire data registered as the representative image of the second classification as fourth data. For example, when the concrete surface is classified as CSP 3 through the second classification result, a representative image of CSP 3 may be obtained as fourth data.

S1209 단계에서, 서버(200)는 S1201 단계에서 추출된 제1 데이터와 S1207 단계에서 획득된 제3 데이터를 비교하여 제1 일치도를 분석할 수 있다. 이때, 서버(200)는 제1 데이터와 제3 데이터 간에 얼마나 일치하는지 여부에 대한 제1 일치도를 이미지 비교 분석을 통해 산출할 수 있다.In step S1209, the server 200 may analyze the first degree of consistency by comparing the first data extracted in step S1201 with the third data acquired in step S1207. In this case, the server 200 may calculate a first degree of correspondence with respect to how much the first data and the third data are matched through image comparison analysis.

S1210 단계에서, 서버(200)는 S1203 단계에서 추출된 제2 데이터와 S1208 단계에서 획득된 제4 데이터를 비교하여 제2 일치도를 분석할 수 있다. 이때, 서버(200)는 제2 데이터와 제4 데이터 간에 얼마나 일치하는지 여부에 대한 제2 일치도를 이미지 비교 분석을 통해 산출할 수 있다.In step S1210, the server 200 may analyze the second degree of match by comparing the second data extracted in step S1203 with the fourth data acquired in step S1208. In this case, the server 200 may calculate a second degree of correspondence with respect to how much the second data and the fourth data are matched through image comparison analysis.

S1211 단계에서, 서버(200)는 S1209 단계에서 분석된 제1 일치도와 S1210 단계에서 분석된 제2 일치도를 비교하여, 제1 일치도가 제2 일치도 보다 큰지 여부를 확인할 수 있다.In step S1211, the server 200 may check whether the first degree of agreement is greater than the second degree of agreement by comparing the first degree of agreement analyzed in operation S1209 with the second degree of agreement analyzed in operation S1210.

S1211 단계에서 제1 일치도가 제2 일치도 보다 큰 것으로 확인되면, S1212 단계에서, 서버(200)는 제1 분류 결과를 최종 분류 결과로 설정할 수 있다. 즉, 제1 데이터 및 제3 데이터 간의 일치도가 제2 데이터 및 제4 데이터 간의 일치도 보다 더 크기 때문에, 제1 데이터를 통해 생성된 제1 분류 결과를 최종 분류 결과로 설정할 수 있다.If it is determined in step S1211 that the first degree of agreement is greater than the second degree of agreement, in step S1212, the server 200 may set the first classification result as the final classification result. That is, since the degree of agreement between the first data and the third data is greater than the degree of agreement between the second data and the fourth data, the first classification result generated through the first data may be set as the final classification result.

S1211 단계에서 제2 일치도가 제1 일치도 보다 큰 것으로 확인되면, S1213 단계에서, 서버(200)는 제2 분류 결과를 최종 분류 결과로 설정할 수 있다. 즉, 제2 데이터 및 제4 데이터 간의 일치도가 제1 데이터 및 제3 데이터 간의 일치도 보다 더 크기 때문에, 제2 데이터를 통해 생성된 제2 분류 결과를 최종 분류 결과로 설정할 수 있다.If it is determined in step S1211 that the second degree of agreement is greater than the first degree of agreement, in step S1213, the server 200 may set the second classification result as the final classification result. That is, since the degree of agreement between the second data and the fourth data is greater than the degree of agreement between the first data and the third data, the second classification result generated through the second data may be set as the final classification result.

도 13은 일실시예에 따른 균열 인식을 위해 압력 감지 데이터를 획득하는 과정을 설명하기 위한 도면이다.13 is a diagram for describing a process of acquiring pressure sensing data for crack recognition according to an exemplary embodiment.

일실시예에 따르면, 균열 인식 수단(140)은 장치(100)의 하단에 설치되어, 복수의 압력 센서를 포함할 수 있다. 여기서, 각각의 압력 센서는 다양한 센서로 구현될 수 있다.According to an embodiment, the crack recognition means 140 may be installed at the lower end of the device 100 and may include a plurality of pressure sensors. Here, each pressure sensor may be implemented with various sensors.

균열 인식 수단(140)에 포함되어 있는 복수의 압력 센서는 구역 별로 배치되어, 각각의 구역에서 콘크리트 표면에 가해지는 압력을 인식할 수 있다. 이때, 균열 인식 수단(140)의 상부에는 콘크리트가 놓여지고, 콘크리트 상단에 압력을 가하는 장치가 추가로 구비될 수 있다.A plurality of pressure sensors included in the crack recognition means 140 are arranged for each zone, so that the pressure applied to the concrete surface in each zone can be recognized. At this time, concrete is placed on the upper part of the crack recognition means 140, and a device for applying pressure to the upper part of the concrete may be additionally provided.

도 13에 도시된 바와 같이, 제1 센서의 좌측 상단에는 제2 센서가 맞닿아 배치되어 있고, 제1 센서의 우측 상단에는 제3 센서가 맞닿아 배치되어 있고, 제1 센서의 좌측에는 제4 센서가 맞닿아 배치되어 있고, 제1 센서의 우측에는 제5 센서가 맞닿아 배치되어 있고, 제1 센서의 좌측 하단에는 제6 센서가 배치되어 있고, 제1 센서의 우측 하단에는 제7 센서가 배치되어 있다.As shown in FIG. 13, a second sensor is disposed in contact with the upper left of the first sensor, a third sensor is disposed in contact with the upper right of the first sensor, and a fourth sensor is disposed on the left side of the first sensor. The sensor is placed in abutment, the fifth sensor is placed in abutment on the right side of the first sensor, the sixth sensor is placed on the lower left of the first sensor, and the seventh sensor is placed on the lower right of the first sensor. It is placed.

제1 센서는 제1 센서가 배치된 제1 구역에 가해지는 압력을 감지하고, 제2 센서는 제2 센서가 배치된 제2 구역에 가해지는 압력을 감지하고, 제3 센서는 제3 센서가 배치된 제3 구역에 가해지는 압력을 감지하고, 제4 센서는 제4 센서가 배치된 제4 구역에 가해지는 압력을 감지하고, 제5 센서는 제5 센서가 배치된 제5 구역에 가해지는 압력을 감지하고, 제6 센서는 제6 센서가 배치된 제6 구역에 가해지는 압력을 감지하고, 제7 센서는 제7 센서가 배치된 제7 구역에 가해지는 압력을 감지할 수 있다. 각각의 센서에서 감지된 압력 값은 장치(100)의 제1 프로세서(150)로 전송될 수 있으며, 장치(100)는 각각의 센서에서 수신된 압력 값을 조합하여, 콘크리트의 정상 영역과 손상 영역을 구분할 수 있다.The first sensor detects the pressure applied to the first area where the first sensor is disposed, the second sensor senses the pressure applied to the second area where the second sensor is disposed, and the third sensor detects the pressure applied to the second area where the second sensor is disposed. The pressure applied to the disposed third area is sensed, the fourth sensor senses the pressure applied to the fourth area in which the fourth sensor is disposed, and the fifth sensor is applied to the fifth area in which the fifth sensor is disposed. The pressure is sensed, the sixth sensor may sense a pressure applied to the sixth region in which the sixth sensor is disposed, and the seventh sensor may sense the pressure applied to the seventh region in which the seventh sensor is disposed. The pressure value sensed by each sensor may be transmitted to the first processor 150 of the device 100, and the device 100 combines the pressure values received from each sensor, Can be distinguished.

구체적으로, 장치(100)는 압력 값이 일정하게 분포된 구역을 정상 영역으로 구분하고, 압력 값이 일정하지 않게 분포된 구역을 손상 영역으로 구분할 수 있다.Specifically, the apparatus 100 may classify a region in which the pressure value is uniformly distributed as a normal region, and a region in which the pressure value is not uniformly distributed as a damage region.

균열 인식 수단(140)에 포함되어 있는 복수의 압력 센서는 각각의 구역에서 압력을 감지하고, 감지된 압력값이 미리 설정된 압력 기준값 보다 큰 것으로 확인되면, 압력 감지 데이터를 장치(100)의 제1 프로세서(150)로 전송할 수 있다. 여기서, 압력 기준값은 실시예에 따라 상이하게 설정될 수 있다. 압력 감지 데이터에는 균열 인식 수단(140) 상에서 센서가 위치하는 좌표값이 포함되어 있으며, 장치(100)는 좌표값을 이용하여 압력 감지 데이터를 전송한 센서의 위치를 확인할 수 있다. 압력 감지 데이터에는 기준치 이상의 압력이 감지된 것을 알려주는 정보만 포함되어 있고 정확한 압력값은 포함되지 않을 수 있다.A plurality of pressure sensors included in the crack recognition means 140 detect pressure in each area, and when it is determined that the detected pressure value is greater than a preset pressure reference value, the pressure sensing data is transmitted to the first of the device 100. It can be transmitted to the processor 150. Here, the pressure reference value may be set differently according to embodiments. The pressure sensing data includes a coordinate value at which the sensor is located on the crack recognition means 140, and the device 100 can check the position of the sensor that has transmitted the pressure sensing data by using the coordinate value. The pressure detection data only includes information indicating that a pressure above the reference value is detected, and may not include an accurate pressure value.

즉, 균열 인식 수단(140)에 포함된 복수의 압력 센서 각각은 콘크리트 표면에 가해진 압력의 크기를 구역별로 감지할 수 있으며, 복수의 압력 센서 중 적어도 하나에서 압력 기준값 보다 큰 압력을 감지한 경우, 장치(100)는 압력 기준값 보다 큰 압력이 감지된 구역에 위치하는 센서의 좌표값에 대한 압력 감지 데이터를 획득할 수 있다.That is, each of the plurality of pressure sensors included in the crack recognition means 140 can detect the magnitude of the pressure applied to the concrete surface for each area, and when at least one of the plurality of pressure sensors detects a pressure greater than the pressure reference value, The apparatus 100 may acquire pressure sensing data for a coordinate value of a sensor located in a region in which a pressure greater than the pressure reference value is sensed.

복수의 압력 센서 각각은 압력 기준값 보다 높은 압력값이 측정되면, 압력 감지 데이터를 장치(100)의 제1 프로세서(150)로 전송할 수 있으며, 장치(100)는 압력 감지 데이터가 수신된 센서의 좌표값과 대응하는 위치에 있는 구역을 정상 영역으로 구분할 수 있다.Each of the plurality of pressure sensors may transmit pressure sensing data to the first processor 150 of the device 100 when a pressure value higher than the pressure reference value is measured, and the device 100 may transmit the pressure sensing data to the coordinates of the sensor from which the pressure sensing data is received. The area at the location corresponding to the value can be divided into a normal area.

예를 들어, 장치(100)는 제1 센서 및 제2 센서 각각에서 감지된 압력값을 획득한 상태에서, 제1 센서로부터 압력 감지 데이터를 획득하였으나, 제2 센서로부터 압력 감지 데이터를 획득하지 않은 경우, 제1 센서가 배치된 제1 구역을 정상 영역으로 구분하고, 제2 센서가 배치된 제2 구역을 손상 영역으로 구분할 수 있다.For example, the device 100 obtained pressure sensing data from the first sensor while acquiring the pressure values sensed by each of the first sensor and the second sensor, but did not acquire the pressure sensing data from the second sensor. In this case, the first area in which the first sensor is disposed may be divided into a normal area, and the second area in which the second sensor is disposed may be divided into a damaged area.

즉, 장치(100)는 압력 감지 데이터를 통해 센서의 좌표값을 확인하고, 확인된 좌표값에 대응하는 위치에 있는 구역을 확인하여, 해당 구역을 정상 영역으로 구분할 수 있다.That is, the device 100 may identify the coordinate value of the sensor through the pressure sensing data, identify a region at a location corresponding to the determined coordinate value, and divide the region into a normal region.

일실시예에 따르면, 제1 센서는 미리 정해진 압력 기준값 보다 큰 압력을 감지한 경우, 압력 감지 데이터를 장치(100)의 제1 프로세서(150)로 전송할 수 있는데, 제1 센서가 압력 기준값 보다 큰 압력을 감지하더라도, 제1 센서와 맞닿아 있는 주변의 센서 중 적어도 하나에서 압력 기준값 보다 큰 압력을 감지하지 않은 경우, 제1 센서는 제1 센서의 좌표값에 대한 압력 감지 데이터를 장치(100)로 전송하지 않을 수 있다. 즉, 장치(100)는 제1 센서와 맞닿아 있는 주변의 센서 중 적어도 하나에서 압력 기준값 보다 큰 압력을 감지하지 않은 경우, 제1 센서로부터 압력 감지 데이터가 획득되지 않도록 제어할 수 있다.According to an embodiment, when the first sensor detects a pressure greater than a predetermined pressure reference value, the first sensor may transmit pressure detection data to the first processor 150 of the device 100, wherein the first sensor is greater than the pressure reference value. Even if the pressure is sensed, if at least one of the surrounding sensors in contact with the first sensor does not detect a pressure greater than the pressure reference value, the first sensor transmits pressure sensing data on the coordinate value of the first sensor to the device 100. May not be transferred to. That is, when at least one of the surrounding sensors in contact with the first sensor does not detect a pressure greater than the pressure reference value, the device 100 may control the pressure detection data not to be obtained from the first sensor.

예를 들어, 도 13의 (a)에 도시된 바와 같이, 제1 센서 뿐만 아니라, 제3 센서, 제4 센서, 제5 센서, 제6 센서, 제7 센서는 압력 기준값 보다 큰 압력을 감지하였으나, 제2 센서는 압력 기준값 보다 큰 압력을 감지하지 못한 경우, 제1 센서와 맞닿아 있는 주변의 센서 중 제2 센서가 압력 기준값 보다 큰 압력을 감지하지 못하였으므로, 장치(100)는 제1 센서로부터 압력 감지 데이터를 획득하지 않을 수 있다.For example, as shown in (a) of FIG. 13, not only the first sensor, but also the third sensor, the fourth sensor, the fifth sensor, the sixth sensor, and the seventh sensor sensed a pressure greater than the pressure reference value. , When the second sensor does not detect a pressure greater than the pressure reference value, the second sensor among the surrounding sensors in contact with the first sensor did not detect a pressure greater than the pressure reference value, so that the device 100 is the first sensor. Pressure sensing data may not be obtained from

한편, 제1 센서는 압력 기준값 보다 큰 압력을 감지한 상태에서, 제1 센서와 맞닿아 있는 주변의 센서 전체에서도 압력 기준값 보다 큰 압력을 감지한 경우, 제1 센서는 제1 센서의 좌표값에 대한 압력 감지 데이터를 장치(100)의 제1 프로세서(150)로 전송할 수 있다. 즉, 장치(100)는 제1 센서와 맞닿아 있는 주변의 센서 전체에서 압력 기준값 보다 큰 압력을 감지한 경우, 제1 센서로부터 압력 감지 데이터를 획득할 수 있다.On the other hand, when the first sensor detects a pressure greater than the pressure reference value, and detects a pressure greater than the pressure reference value even in all of the surrounding sensors in contact with the first sensor, the first sensor corresponds to the coordinate value of the first sensor. The pressure sensing data for the device 100 may be transmitted to the first processor 150 of the device 100. That is, when the device 100 detects a pressure greater than the pressure reference value in all of the surrounding sensors in contact with the first sensor, the device 100 may obtain pressure detection data from the first sensor.

예를 들어, 도 13의 (b)에 도시된 바와 같이, 제1 센서 뿐만 아니라, 제1 센서를 둘러쌓고 있는 제2 센서, 제3 센서, 제4 센서, 제5 센서, 제6 센서, 제7 센서 전체에서 압력 기준값 보다 큰 압력을 감지한 경우, 제1 센서와 맞닿아 있는 주변의 센서 전체에서 압력 기준값 보다 큰 압력을 감지하였으므로, 장치(100)는 제1 센서로부터 압력 감지 데이터를 획득할 수 있다.For example, as shown in (b) of FIG. 13, not only the first sensor, but also the second sensor, the third sensor, the fourth sensor, the fifth sensor, the sixth sensor, and the third sensor surrounding the first sensor. 7 When a pressure greater than the pressure reference value is sensed in the entire sensor, since a pressure greater than the pressure reference value is sensed in all surrounding sensors in contact with the first sensor, the device 100 may obtain pressure sensing data from the first sensor. I can.

도 14는 일실시예에 따른 인공 신경망을 설명하기 위한 도면이다.14 is a diagram illustrating an artificial neural network according to an embodiment.

일실시예에 따른 인공 신경망(1400)은 제1 인공 신경망 및 제2 인공 신경망 중 어느 하나일 수 있다. 제1 인공 신경망인 경우, 제1 데이터의 인코딩에 의해 생성된 제1 입력 신호를 입력으로 하여, 콘크리트 표면이 CSP의 어느 단계로 분류되는지에 대한 정보를 출력으로 할 수 있다. 제2 인공 신경망인 경우, 제2 데이터의 인코딩에 의해 생성된 제2 입력 신호를 입력으로 하여, 콘크리트 표면이 CSP의 어느 단계로 분류되는지에 대한 정보를 출력으로 할 수 있다.The artificial neural network 1400 according to an embodiment may be any one of a first artificial neural network and a second artificial neural network. In the case of the first artificial neural network, a first input signal generated by encoding of the first data may be input, and information on which stage of the CSP is classified into the concrete surface may be output. In the case of the second artificial neural network, a second input signal generated by encoding of the second data may be input, and information on which stage of the CSP is classified into the concrete surface may be output.

일실시예에 따른 인코딩은 이미지의 픽셀 별 색 정보를 수치화된 데이터 시트 형태로 저장하는 방식으로 이뤄질 수 있는데, 색 정보는 하나의 픽셀이 가지고 있는 RGB 색상, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다.The encoding according to an embodiment may be performed by storing color information for each pixel of an image in the form of a numerical data sheet, and the color information includes RGB color, brightness information, saturation information, and depth information of one pixel. Can, but is not limited to this.

일실시예에 따르면, 인공 신경망(1400)은 특징 추출 신경망(1410)과 분류 신경망(1420)으로 구성되어 있으며, 특징 추출 신경망(1410)은 이미지에서 콘크리트 영역과 배경 영역을 분리하는 작업을 수행할 수 있으며, 분류 신경망(1420)은 이미지 내에서 콘크리트 표면이 CSP의 어느 단계로 분류되는지 여부를 파악하는 작업을 수행하도록 할 수 있다.According to an embodiment, the artificial neural network 1400 is composed of a feature extraction neural network 1410 and a classification neural network 1420, and the feature extraction neural network 1410 performs a task of separating a concrete region and a background region from an image. In addition, the classification neural network 1420 may perform a task of determining which stage of the CSP the concrete surface is classified within the image.

특징 추출 신경망(1410)이 콘크리트 영역과 배경 영역을 구분하는 방법은 이미지를 인코딩한 입력 신호의 데이터 시트로부터 색 정보의 각 값들의 변화가 한 픽셀을 포함하는 8개의 픽셀 중 6개 이상에서 30% 이상의 변화가 생긴 것으로 감지되는 픽셀들의 묶음을 콘크리트 영역과 배경 영역의 경계로 삼을 수 있으나, 이에 국한하지 않는다.The method of distinguishing the concrete area and the background area by the feature extraction neural network 1410 is that the change of each value of color information from the data sheet of the input signal encoding the image is 30% in 6 or more of 8 pixels including one pixel. A bundle of pixels detected as having the above change may be used as a boundary between the concrete area and the background area, but is not limited thereto.

특징 추출 신경망(1410)은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The feature extraction neural network 1410 proceeds by sequentially stacking the convolutional layer and the pooling layer on the input signal. The convolution layer includes convolution operations, convolution filters, and activation functions. The calculation of the convolution filter is adjusted according to the size of the matrix of the target input, but generally a 9X9 matrix is used. The activation function generally uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The pooling layer is a layer that reduces the size of an input matrix, and uses a method of extracting a representative value by grouping pixels in a specific area. In general, an average value or a maximum value is often used for the operation of the pooling layer, but is not limited thereto. This operation is performed using a square matrix, usually a 9X9 matrix. The convolutional layer and the pooling layer are alternately iterated until the corresponding input is small enough while maintaining the difference.

분류 신경망(1420)은 특징 추출 신경망(1410)을 통해 배경으로부터 구분된 콘크리트 영역의 표면을 확인하고, 미리 정의된 CSP의 단계별 표면 상태와 유사한지 여부를 확인하여, 콘크리트 영역의 표면이 CSP의 어느 단계로 분류되는지 여부를 파악할 수 있다. CSP의 단계별 표면 상태와 비교하기 위해, 메모리(160) 또는 데이터베이스(250)에 저장된 정보들을 활용할 수 있다.The classification neural network 1420 checks the surface of the concrete region separated from the background through the feature extraction neural network 1410, and checks whether the surface state of the concrete region is similar to the stepwise surface state of the predefined CSP. It is possible to determine whether or not it is classified into stages. Information stored in the memory 160 or the database 250 may be used to compare the surface state of the CSP in stages.

분류 신경망(1420)은 히든 레이어와 출력 레이어를 가지고 있으며, 5층 이하의 히든 레이어로 구성되어, 총 50개 이하의 히든 레이어 노드를 포함하고, 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다.The classification neural network 1420 has a hidden layer and an output layer, is composed of 5 or less hidden layers, and includes a total of 50 or less hidden layer nodes, and the activation function of the hidden layer is a ReLU function and a sigmoid function. And tanh function, but are not limited thereto.

분류 신경망(1420)는 총 1개의 출력층 노드만 포함할 수 있다.The classification neural network 1420 may include only one output layer node in total.

분류 신경망(1420)의 출력은 콘크리트 표면이 CSP의 어느 단계로 분류되는지에 대한 출력값으로, CSP의 어느 단계에 해당하는지를 지시할 수 있다. 예를 들어, 출력값이 1인 경, 콘크리트 표면이 CSP 1에 해당하는 것을 지시하고, 출력값이 2인 경우, 콘크리트 표면이 CSP 2에 해당하는 것을 지시할 수 있다.The output of the classification neural network 1420 is an output value indicating which stage of the CSP is classified as the concrete surface, and may indicate which stage of the CSP corresponds to. For example, when the output value is 1, it is indicated that the concrete surface corresponds to CSP 1, and when the output value is 2, it is possible to indicate that the concrete surface corresponds to CSP 2.

일실시예에 따르면, 인공 신경망(1400)은 사용자가 인공 신경망(1400)에 따른 출력의 문제점 발견 시 사용자에 의해 입력된 수정 정답에 의해 생성되는 제1 학습 신호를 전달받아 학습할 수 있다. 인공 신경망(1400)에 따른 출력의 문제점은 콘크리트 표면에 대해 CSP의 다른 단계로 분류한 출력값을 출력한 경우를 의미할 수 있다.According to an embodiment, the artificial neural network 1400 may receive and learn a first learning signal generated by a correct answer input by the user when a user finds a problem with an output according to the artificial neural network 1400. The problem of output according to the artificial neural network 1400 may refer to a case in which output values classified into different stages of CSP are output to the concrete surface.

일실시예에 따른 제1 학습 신호는 정답과 출력값의 오차를 바탕으로 만들어지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 인공 신경망(1400)은 제1 학습 신호에 의해 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다. 이하 도 15를 참조하여 인공 신경망(1400)의 학습 내용이 후술된다.The first learning signal according to an embodiment is generated based on an error between a correct answer and an output value, and in some cases, an SGD using a delta, a batch method, or a method following a backpropagation algorithm may be used. The artificial neural network 1400 performs learning by modifying an existing weight by using the first learning signal, and may use momentum in some cases. The cost function can be used to calculate the error, and the cross entropy function can be used as the cost function. Hereinafter, the learning contents of the artificial neural network 1400 will be described later with reference to FIG. 15.

도 15는 일실시예에 따른 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.15 is a diagram illustrating a method of learning an artificial neural network according to an embodiment.

일실시예에 따르면, 학습 장치는 인공 신경망(1400)을 학습시킬 수 있다. 학습 장치는 장치(100) 및 서버(200)와 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니다.According to an embodiment, the learning device may train the artificial neural network 1400. The learning device may be a separate subject different from the device 100 and the server 200, but is not limited thereto.

일실시예에 따르면, 인공 신경망(1400)은 트레이닝 샘플들이 입력되는 입력 레이어와 트레이닝 출력들을 출력하는 출력 레이어를 포함하고, 트레이닝 출력들과 제1 레이블들 사이의 차이에 기초하여 학습될 수 있다. 여기서, 제1 레이블들은 CSP의 단계별로 등록되어 있는 대표 이미지에 기초하여 정의될 수 있다. 인공 신경망(1400)은 복수의 노드들의 그룹으로 연결되어 있고, 연결된 노드들 사이의 가중치들과 노드들을 활성화시키는 활성화 함수에 의해 정의된다. According to an embodiment, the artificial neural network 1400 includes an input layer to which training samples are input and an output layer to output training outputs, and may be trained based on a difference between the training outputs and the first labels. Here, the first labels may be defined based on the representative image registered in each step of the CSP. The artificial neural network 1400 is connected by a group of a plurality of nodes, and is defined by weights between the connected nodes and an activation function that activates the nodes.

학습 장치는 GD(Gradient Decent) 기법 또는 SGD(Stochastic Gradient Descent) 기법을 이용하여 인공 신경망(1400)을 학습시킬 수 있다. 학습 장치는 인공 신경망(1400)의 출력들 및 레이블들 의해 설계된 손실 함수를 이용할 수 있다.The learning device may train the artificial neural network 1400 using a gradient decent (GD) technique or a stochastic gradient descent (SGD) technique. The learning device may use a loss function designed by labels and outputs of the artificial neural network 1400.

학습 장치는 미리 정의된 손실 함수(loss function)을 이용하여 트레이닝 에러를 계산할 수 있다. 손실 함수는 레이블, 출력 및 파라미터를 입력 변수로 미리 정의될 수 있고, 여기서 파라미터는 인공 신경망(1400) 내 가중치들에 의해 설정될 수 있다. 예를 들어, 손실 함수는 MSE(Mean Square Error) 형태, 엔트로피(entropy) 형태 등으로 설계될 수 있는데, 손실 함수가 설계되는 실시예에는 다양한 기법 또는 방식이 채용될 수 있다.The learning device may calculate a training error using a predefined loss function. The loss function may be predefined with a label, an output, and a parameter as input variables, where the parameter may be set by weights in the artificial neural network 1400. For example, the loss function may be designed in a Mean Square Error (MSE) form, an entropy form, or the like, and various techniques or methods may be employed in an embodiment in which the loss function is designed.

학습 장치는 역전파(backpropagation) 기법을 이용하여 트레이닝 에러에 영향을 주는 가중치들을 찾아낼 수 있다. 여기서, 가중치들은 인공 신경망(1400) 내 노드들 사이의 관계들이다. 학습 장치는 역전파 기법을 통해 찾아낸 가중치들을 최적화시키기 위해 레이블들 및 출력들을 이용한 SGD 기법을 이용할 수 있다. 예를 들어, 학습 장치는 레이블들, 출력들 및 가중치들에 기초하여 정의된 손실 함수의 가중치들을 SGD 기법을 이용하여 갱신할 수 있다.The learning device may find weights that affect the training error using a backpropagation technique. Here, the weights are relationships between nodes in the artificial neural network 1400. The learning apparatus can use the SGD technique using labels and outputs to optimize the weights found through the backpropagation technique. For example, the learning apparatus may update weights of a loss function defined based on labels, outputs, and weights using the SGD technique.

일실시예에 따르면, 학습 장치는 메모리(160) 또는 데이터베이스(250)로부터 레이블드 트레이닝 CSP 단계별 대표 이미지들(1501)을 획득할 수 있다. 학습 장치는 CSP 단계별 대표 이미지들(1501)에 각각 미리 레이블링된 정보를 획득할 수 있는데, CSP 단계별 대표 이미지들(1501)은 미리 분류된 CSP 단계에 따라 레이블링될 수 있다.According to an embodiment, the learning apparatus may obtain representative images 1501 of each labeled training CSP step from the memory 160 or the database 250. The learning apparatus may obtain pre-labeled information on each of the representative images 1501 for each CSP step, and the representative images 1501 for each CSP step may be labeled according to a pre-classified CSP step.

일실시예에 따르면, 학습 장치는 1000개의 레이블드 트레이닝 CSP 단계별 대표 이미지들(1501)을 획득할 수 있으며, 레이블드 트레이닝 CSP 단계별 대표 이미지들(1501)에 기초하여 제1 트레이닝 CSP 단계별 벡터들(1502)을 생성할 수 있다. 제1 트레이닝 CSP 단계별 벡터들(1502)을 추출하는데는 다양한 방식이 채용될 수 있다.According to an embodiment, the learning apparatus may acquire 1000 labeled training CSP step-by-step representative images 1501, and based on the labeled training CSP step-by-step representative images 1501, first training CSP step-by-step vectors ( 1502) can be created. Various methods may be employed to extract the vectors 1502 for each step of the first training CSP.

일실시예에 따르면, 학습 장치는 제1 트레이닝 CSP 단계별 벡터들(1502)을 인공 신경망(1400)에 적용하여 제1 트레이닝 출력들(1503)을 획득할 수 있다. 학습 장치는 제1 트레이닝 출력들(1503)과 제1 레이블들(1504)에 기초하여 인공 신경망(1400)을 학습시킬 수 있다. 학습 장치는 제1 트레이닝 출력들(1503)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 인공 신경망(1400) 내 노드들의 연결 관계를 최적화하여 인공 신경망(1400)을 학습시킬 수 있다.According to an embodiment, the learning apparatus may obtain first training outputs 1503 by applying the first training CSP step vectors 1502 to the artificial neural network 1400. The learning apparatus may train the artificial neural network 1400 based on the first training outputs 1503 and the first labels 1504. The learning apparatus may train the artificial neural network 1400 by calculating training errors corresponding to the first training outputs 1503 and optimizing the connection relationship between nodes in the artificial neural network 1400 in order to minimize the training errors. .

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices, methods, and components described in the embodiments are, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. Further, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to operate as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or, to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited drawings, a person of ordinary skill in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order from the described method, and/or components such as systems, structures, devices, circuits, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and claims and equivalents fall within the scope of the following claims.

Claims (3)

시스템에 의해 수행되는, 머신비전과 3D 프로파일을 통해 콘크리트 표면을 분석하는 방법에 있어서,
라이다를 통해 콘크리트 표면에 대한 3D 데이터를 획득하고, 카메라를 통해 상기 콘크리트 표면에 대한 2D 데이터를 획득하는 단계;
상기 2D 데이터와 상기 3D 데이터의 합집합 영역을 분리하여, 상기 2D 데이터 및 상기 3D 데이터를 병합한 제1 데이터를 추출하는 단계;
상기 제1 데이터를 인코딩 하여 제1 입력 신호를 생성하는 단계;
상기 제1 입력 신호를 장치 내 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망의 입력의 결과에 기초하여, 제1 출력 신호를 획득하는 단계;
상기 제1 출력 신호에 기초하여, 상기 콘크리트 표면에 대한 제1 분류 결과를 생성하는 단계;
상기 제1 데이터 및 상기 제1 분류 결과를 서버로 전송하는 단계;
상기 서버로 전송된 제1 데이터를 분석하여 상기 콘크리트 표면에 발생한 균열을 검출하는 단계;
상기 콘크리트 표면에 발생한 균열을 영역별로 확인하여, 제1 기준치 미만으로 균열이 검출된 정상 영역과 상기 제1 기준치 이상으로 균열이 검출된 손상 영역을 구분하는 단계;
상기 제1 데이터에서 상기 손상 영역을 삭제한 제2 데이터를 추출하는 단계;
상기 제2 데이터를 인코딩 하여 제2 입력 신호를 생성하는 단계;
상기 제2 입력 신호를 상기 서버 내 제2 인공 신경망에 입력하고, 상기 제2 인공 신경망의 입력의 결과에 기초하여, 제2 출력 신호를 획득하는 단계;
상기 제2 출력 신호에 기초하여, 상기 콘크리트 표면에 대한 제2 분류 결과를 생성하는 단계; 및
상기 제1 분류 결과 및 상기 제2 분류 결과가 동일한 경우, 상기 제1 분류 결과 및 상기 제2 분류 결과 중 어느 하나를 상기 콘크리트 표면에 대한 최종 분류 결과로 설정하는 단계를 포함하는,
머신비전 및 3D 프로파일을 통한 콘크리트 표면 분석 방법.
In the method of analyzing the concrete surface through the machine vision and 3D profile performed by the system,
Obtaining 3D data on the concrete surface through a lidar and obtaining 2D data on the concrete surface through a camera;
Separating the union region of the 2D data and the 3D data, and extracting first data obtained by merging the 2D data and the 3D data;
Encoding the first data to generate a first input signal;
Inputting the first input signal to a first artificial neural network in a device, and obtaining a first output signal based on a result of the input of the first artificial neural network;
Generating a first classification result for the concrete surface based on the first output signal;
Transmitting the first data and the first classification result to a server;
Analyzing the first data transmitted to the server to detect cracks occurring on the concrete surface;
Identifying a crack generated on the concrete surface by region, and dividing a normal region in which a crack is detected below a first reference value and a damaged region in which a crack is detected above the first reference value;
Extracting second data from which the damaged area is deleted from the first data;
Encoding the second data to generate a second input signal;
Inputting the second input signal to a second artificial neural network in the server, and obtaining a second output signal based on a result of the input of the second artificial neural network;
Generating a second classification result for the concrete surface based on the second output signal; And
If the first classification result and the second classification result are the same, comprising the step of setting any one of the first classification result and the second classification result as a final classification result for the concrete surface,
Concrete surface analysis method through machine vision and 3D profile.
삭제delete 제1항에 있어서,
상기 최종 분류 결과에 따라 상기 제2 데이터에 대한 영상처리 및 패턴인식을 수행하여 상기 콘크리트 표면을 분석하는 단계;
상기 최종 분류 결과에 대한 작업자의 판단 결과를 획득하는 단계;
상기 판단 결과가 제2 기준치 이상으로 수집되면, 상기 수집된 판단 결과들을 상기 서버와 연결된 클라우드에 전송하는 단계;
상기 판단 결과들을 통해 상기 제2 인공 신경망에 대한 추가 학습이 수행되도록 처리하는 단계; 및
상기 제2 인공 신경망을 통한 학습 결과와 상기 제1 인공 신경망을 통한 학습 결과에 대한 성능을 비교하여, 상기 제2 인공 신경망을 통한 학습 결과가 제3 기준치 이상으로 성능이 향상된 경우, 상기 제2 인공 신경망을 통해 상기 제1 인공 신경망의 딥러닝 모델을 갱신하는 단계를 더 포함하는,
머신비전 및 3D 프로파일을 통한 콘크리트 표면 분석 방법.
The method of claim 1,
Analyzing the concrete surface by performing image processing and pattern recognition on the second data according to the final classification result;
Obtaining a result of the operator's judgment on the final classification result;
If the determination result is collected above a second reference value, transmitting the collected determination results to a cloud connected to the server;
Processing the second artificial neural network to perform additional learning based on the determination results; And
When the learning result through the second artificial neural network is compared with the performance of the learning result through the first artificial neural network, and the learning result through the second artificial neural network is improved by more than a third reference value, the second artificial neural network Further comprising the step of updating the deep learning model of the first artificial neural network through a neural network,
Concrete surface analysis method through machine vision and 3D profile.
KR1020210011104A 2021-01-26 2021-01-26 Method, device and system for analyzing concrete surface through machine vision and 3d profile KR102252845B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210011104A KR102252845B1 (en) 2021-01-26 2021-01-26 Method, device and system for analyzing concrete surface through machine vision and 3d profile

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210011104A KR102252845B1 (en) 2021-01-26 2021-01-26 Method, device and system for analyzing concrete surface through machine vision and 3d profile

Publications (1)

Publication Number Publication Date
KR102252845B1 true KR102252845B1 (en) 2021-05-27

Family

ID=76135419

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210011104A KR102252845B1 (en) 2021-01-26 2021-01-26 Method, device and system for analyzing concrete surface through machine vision and 3d profile

Country Status (1)

Country Link
KR (1) KR102252845B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102452100B1 (en) * 2021-05-24 2022-10-12 라이트하우스(주) Method, device and system for providing learning service base on brain wave and blinking eyes
KR102521825B1 (en) * 2022-08-08 2023-04-14 주식회사 한국 종합엔지니어링 Automatic determination system for determinating abnormal area of structure damage based on point cloud
KR20240028111A (en) 2022-08-24 2024-03-05 최승주 Machine vision systems for automated surface quality measurement

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190059639A (en) * 2017-11-23 2019-05-31 울산과학기술원 Apparatus and method for measureing a crack in a concrete surface
KR20190066789A (en) * 2017-12-06 2019-06-14 서울시립대학교 산학협력단 image-based concrete crack assessment system using deep learning
KR20200029860A (en) * 2018-09-11 2020-03-19 고려대학교 산학협력단 Method and apparatus for measuring crack depth of structure using thermo-graphical image
KR20200052630A (en) * 2018-11-07 2020-05-15 투아이시스(주) System for detecting stereo of roadbed crack using line scan camera and method therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190059639A (en) * 2017-11-23 2019-05-31 울산과학기술원 Apparatus and method for measureing a crack in a concrete surface
KR20190066789A (en) * 2017-12-06 2019-06-14 서울시립대학교 산학협력단 image-based concrete crack assessment system using deep learning
KR20200029860A (en) * 2018-09-11 2020-03-19 고려대학교 산학협력단 Method and apparatus for measuring crack depth of structure using thermo-graphical image
KR20200052630A (en) * 2018-11-07 2020-05-15 투아이시스(주) System for detecting stereo of roadbed crack using line scan camera and method therefor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102452100B1 (en) * 2021-05-24 2022-10-12 라이트하우스(주) Method, device and system for providing learning service base on brain wave and blinking eyes
KR102521825B1 (en) * 2022-08-08 2023-04-14 주식회사 한국 종합엔지니어링 Automatic determination system for determinating abnormal area of structure damage based on point cloud
KR20240028111A (en) 2022-08-24 2024-03-05 최승주 Machine vision systems for automated surface quality measurement

Similar Documents

Publication Publication Date Title
KR102252845B1 (en) Method, device and system for analyzing concrete surface through machine vision and 3d profile
CN110032962B (en) Object detection method, device, network equipment and storage medium
CN109902602B (en) Method for identifying foreign matter material of airport runway based on antagonistic neural network data enhancement
JP2019035626A (en) Recognition method of tire image and recognition device of tire image
CN111402227B (en) Bridge crack detection method
KR102333520B1 (en) Method, device and system for detecting object on road
CN111178206A (en) Building embedded part detection method and system based on improved YOLO
KR102299586B1 (en) Method, device and system for deriving building construction method based on artificial intelligence using big data of video taken with drone
WO2022188327A1 (en) Method and apparatus for training positioning image acquisition model
KR102440385B1 (en) Method and apparatus of recognizing motion pattern base on combination of multi-model
CN112446870A (en) Pipeline damage detection method, device, equipment and storage medium
KR102287891B1 (en) Method, device and system for analyzing quality of aggregate based on artificial intelligence using fusion technology between lidar and camera
CN110909657A (en) Method for identifying apparent tunnel disease image
KR102559586B1 (en) Structural appearance inspection system and method using artificial intelligence
KR102299295B1 (en) Method, device and system for calculating maintenance estimate for building based on artificial intelligence using big data of video taken with drone
CN112183301A (en) Building floor intelligent identification method and device
CN110472640B (en) Target detection model prediction frame processing method and device
Ali et al. Wall crack detection using transfer learning-based CNN models
CN114612659A (en) Power equipment segmentation method and system based on fusion mode contrast learning
CN111583417B (en) Method and device for constructing indoor VR scene based on image semantics and scene geometry joint constraint, electronic equipment and medium
KR102260556B1 (en) Deep learning-based parking slot detection method and apparatus integrating global and local information
WO2021186640A1 (en) Deterioration detection device, deterioration detection system, deterioration detection method, and program
CN117173568A (en) Target detection model training method and target detection method
Guan et al. Multi-scale asphalt pavement deformation detection and measurement based on machine learning of full field-of-view digital surface data
KR102465284B1 (en) Method, device and system for detecting structure crack based on mobile terminal

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant