KR102252845B1 - Method, device and system for analyzing concrete surface through machine vision and 3d profile - Google Patents
Method, device and system for analyzing concrete surface through machine vision and 3d profile Download PDFInfo
- Publication number
- KR102252845B1 KR102252845B1 KR1020210011104A KR20210011104A KR102252845B1 KR 102252845 B1 KR102252845 B1 KR 102252845B1 KR 1020210011104 A KR1020210011104 A KR 1020210011104A KR 20210011104 A KR20210011104 A KR 20210011104A KR 102252845 B1 KR102252845 B1 KR 102252845B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- concrete surface
- neural network
- artificial neural
- classification result
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8806—Specially adapted optical and illumination features
-
- G06K9/20—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8806—Specially adapted optical and illumination features
- G01N2021/8809—Adjustment for highlighting flaws
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8806—Specially adapted optical and illumination features
- G01N2021/8812—Diffuse illumination, e.g. "sky"
- G01N2021/8816—Diffuse illumination, e.g. "sky" by using multiple sources, e.g. LEDs
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
- G01N2021/8887—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
아래 실시예들은 콘크리트 표면을 분석하는 기술에 관한 것이다. The following examples relate to a technique for analyzing a concrete surface.
손상된 콘크리트 구조물은 손상 정보에 따라 적절한 보수 및 보강을 실시하여 본래의 기능을 회복시켜야 하며, 콘크리트 구조물의 본래의 성능을 높이기 위해 예방적인 유지보수 측면에서 보수 및 보강이 필요하다.Damaged concrete structures must be repaired and reinforced appropriately according to the damage information to restore their original functions, and repairs and reinforcements are required in terms of preventive maintenance to enhance the original performance of the concrete structure.
이에 따라, 콘크리트 구조물의 보수, 보강 공법 및 재료에 관한 연구가 꾸준히 이루어지고 있으나, 보수, 보강 공법의 전처리에 대한 기술이 축적되지 않아 많은 문제점을 내포하고 있는 실정이다.Accordingly, researches on the repair, reinforcement method, and material of concrete structures are being conducted steadily, but there are many problems as the technology for pretreatment of the repair and reinforcement method has not been accumulated.
현재까지 체계적인 기술 개발보다는 원재료, 보수 재료에 대한 기술 분석이 이루어지고 있으나, 유지보수 공사 전반에 걸쳐 시공 전처리에 대한 기술개발이 요구되고 있다.Until now, rather than systematic technology development, technical analysis of raw materials and repair materials has been conducted, but technology development for pre-construction treatment is required throughout maintenance and repair work.
콘크리트 단면 구조물의 복구를 위한 보수, 보강 공법 시에는 내구성능이 저하된 표면 콘크리트 제거 작업이 필요하며, 이 과정에서 나타나는 충격으로 인해 의도치 않게 성능이 저하되지 않은 주위의 콘크리트에도 균열 등을 유발시킴으로써, 손상을 입혀 보수 후에도 그 부위에서 재탈락이 되는 문제점을 발생시킬 수 있다.In the case of repair and reinforcement methods for repairing and reinforcing concrete cross-sectional structures, it is necessary to remove surface concrete with deteriorated durability, and by causing cracks in the surrounding concrete where performance is not unintentionally degraded due to the impact that appears during this process, It may cause damage and cause a problem of re-falling out of the area even after repair.
따라서, 콘크리트 보수 및 보강 전반에 걸친 전처리 과정에 대한 연구의 필요성이 증대되고 있으며, 전처리 과정에서 균열 유무 확인 및 품질 관리까지 수행하고자 하는 방법에 대한 요구가 증대되고 있다.Accordingly, there is an increasing need for research on the pretreatment process throughout the entire concrete repair and reinforcement process, and there is an increasing demand for a method to check the presence of cracks and even quality control in the pretreatment process.
일실시예에 따르면, 장치를 통해 2D 데이터 및 3D 데이터를 병합한 제1 데이터를 추출하여, 제1 데이터를 이용하여 콘크리트 표면에 대한 제1 분류 결과를 생성하는 방법을 제공하기 위한 것을 그 목적으로 한다.According to an embodiment, the purpose of the present invention is to provide a method of extracting first data in which 2D data and 3D data are merged through an apparatus, and generating a first classification result for a concrete surface using the first data. do.
또한, 일실시예에 따르면, 서버를 통해 제1 데이터에서 손상 영역을 삭제한 제2 데이터를 추출하여, 제2 데이터를 이용하여 콘크리트 표면에 대한 제2 분류 결과를 생성하는 방법을 제공하기 위한 것을 그 목적으로 한다.In addition, according to an embodiment, providing a method for generating a second classification result for a concrete surface by using the second data by extracting second data from which the damaged area is deleted from the first data through a server. It is for that purpose.
또한, 일실시예에 따르면, 제1 분류 결과 및 제2 분류 결과를 이용하여, 콘크리트 표면에 대한 최종 분류 결과를 설정하는 방법을 제공하기 위한 것을 그 목적으로 한다.In addition, according to an embodiment, it is an object of the present invention to provide a method of setting a final classification result for a concrete surface by using the first classification result and the second classification result.
본 발명의 목적은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood from the following description.
일실시예에 따르면, 시스템에 의해 수행되는, 머신비전과 3D 프로파일을 통해 콘크리트 표면을 분석하는 방법에 있어서, 라이다를 통해 콘크리트 표면에 대한 3D 데이터를 획득하고, 카메라를 통해 상기 콘크리트 표면에 대한 2D 데이터를 획득하는 단계; 상기 2D 데이터와 상기 3D 데이터의 합집합 영역을 분리하여, 상기 2D 데이터 및 상기 3D 데이터를 병합한 제1 데이터를 추출하는 단계; 상기 제1 데이터를 인코딩 하여 제1 입력 신호를 생성하는 단계; 상기 제1 입력 신호를 장치 내 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망의 입력의 결과에 기초하여, 제1 출력 신호를 획득하는 단계; 및 상기 제1 출력 신호에 기초하여, 상기 콘크리트 표면에 대한 제1 분류 결과를 생성하는 단계를 포함하는, 머신비전 및 3D 프로파일을 통한 콘크리트 표면 분석 방법이 제공된다.According to an embodiment, in a method of analyzing a concrete surface through a machine vision and a 3D profile performed by a system, 3D data on the concrete surface is obtained through a lidar, and the concrete surface is obtained through a camera. Obtaining 2D data; Separating the union region of the 2D data and the 3D data, and extracting first data obtained by merging the 2D data and the 3D data; Encoding the first data to generate a first input signal; Inputting the first input signal to a first artificial neural network in a device, and obtaining a first output signal based on a result of the input of the first artificial neural network; And generating a first classification result for the concrete surface based on the first output signal. A method for analyzing a concrete surface through machine vision and a 3D profile is provided.
상기 머신비전 및 3D 프로파일을 통한 콘크리트 표면 분석 방법은, 상기 제1 데이터 및 상기 제1 분류 결과를 서버로 전송하는 단계; 상기 서버로 전송된 제1 데이터를 분석하여 상기 콘크리트 표면에 발생한 균열을 검출하는 단계; 상기 콘크리트 표면에 발생한 균열을 영역별로 확인하여, 제1 기준치 미만으로 균열이 검출된 정상 영역과 상기 제1 기준치 이상으로 균열이 검출된 손상 영역을 구분하는 단계; 상기 제1 데이터에서 상기 손상 영역을 삭제한 제2 데이터를 추출하는 단계; 상기 제2 데이터를 인코딩 하여 제2 입력 신호를 생성하는 단계; 상기 제2 입력 신호를 상기 서버 내 제2 인공 신경망에 입력하고, 상기 제2 인공 신경망의 입력의 결과에 기초하여, 제2 출력 신호를 획득하는 단계; 상기 제2 출력 신호에 기초하여, 상기 콘크리트 표면에 대한 제2 분류 결과를 생성하는 단계; 및 상기 제1 분류 결과 및 상기 제2 분류 결과가 동일한 경우, 상기 제1 분류 결과 및 상기 제2 분류 결과 중 어느 하나를 상기 콘크리트 표면에 대한 최종 분류 결과로 설정하는 단계를 더 포함할 수 있다.The method for analyzing a concrete surface through the machine vision and 3D profile includes: transmitting the first data and the first classification result to a server; Analyzing the first data transmitted to the server to detect cracks occurring on the concrete surface; Identifying a crack generated on the concrete surface by region, and dividing a normal region in which a crack is detected below a first reference value and a damaged region in which a crack is detected above the first reference value; Extracting second data from which the damaged area is deleted from the first data; Encoding the second data to generate a second input signal; Inputting the second input signal to a second artificial neural network in the server, and obtaining a second output signal based on a result of the input of the second artificial neural network; Generating a second classification result for the concrete surface based on the second output signal; And when the first classification result and the second classification result are the same, setting one of the first classification result and the second classification result as a final classification result for the concrete surface.
상기 머신비전 및 3D 프로파일을 통한 콘크리트 표면 분석 방법은, 상기 최종 분류 결과에 따라 상기 제2 데이터에 대한 영상처리 및 패턴인식을 수행하여 상기 콘크리트 표면을 분석하는 단계; 상기 최종 분류 결과에 대한 작업자의 판단 결과를 획득하는 단계; 상기 판단 결과가 제2 기준치 이상으로 수집되면, 상기 수집된 판단 결과들을 상기 서버와 연결된 클라우드에 전송하는 단계; 상기 판단 결과들을 통해 상기 제2 인공 신경망에 대한 추가 학습이 수행되도록 처리하는 단계; 및 상기 제2 인공 신경망을 통한 학습 결과와 상기 제1 인공 신경망을 통한 학습 결과에 대한 성능을 비교하여, 상기 제2 인공 신경망을 통한 학습 결과가 제3 기준치 이상으로 성능이 향상된 경우, 상기 제2 인공 신경망을 통해 상기 제1 인공 신경망의 딥러닝 모델을 갱신하는 단계를 더 포함할 수 있다.The method of analyzing the concrete surface through the machine vision and the 3D profile includes: analyzing the concrete surface by performing image processing and pattern recognition on the second data according to the final classification result; Obtaining a result of the operator's judgment on the final classification result; If the determination result is collected above a second reference value, transmitting the collected determination results to a cloud connected to the server; Processing the second artificial neural network to perform additional learning based on the determination results; And comparing the performance of the learning result through the second artificial neural network with the learning result through the first artificial neural network, and when the learning result through the second artificial neural network is improved by more than a third reference value, the second It may further include updating the deep learning model of the first artificial neural network through an artificial neural network.
상기 머신비전 및 3D 프로파일을 통한 콘크리트 표면 분석 방법은, 상기 제1 분류 결과 및 상기 제2 분류 결과가 상이한 경우, 상기 제1 분류의 대표 이미지로 등록되어 있는 제3 데이터와 상기 제2 분류의 대표 이미지로 등록되어 있는 제4 데이터를 획득하는 단계; 상기 제1 데이터와 상기 제3 데이터를 비교하여 제1 일치도를 분석하고, 상기 제2 데이터와 상기 제4 데이터를 비교하여 제2 일치도를 분석하는 단계; 상기 제1 일치도가 상기 제2 일치도 보다 큰 것으로 확인되면, 상기 제1 분류 결과를 상기 콘크리트 표면에 대한 최종 분류 결과로 설정하는 단계; 및 상기 제2 일치도가 상기 제1 일치도 보다 큰 것으로 확인되면, 상기 제2 분류 결과를 상기 콘크리트 표면에 대한 최종 분류 결과로 설정하는 단계를 더 포함할 수 있다.The concrete surface analysis method through the machine vision and the 3D profile, when the first classification result and the second classification result are different, the third data registered as the representative image of the first classification and the representative of the second classification Obtaining fourth data registered as an image; Analyzing a first degree of agreement by comparing the first data and the third data, and analyzing a second degree of agreement by comparing the second data and the fourth data; Setting the first classification result as a final classification result for the concrete surface when it is determined that the first degree of agreement is greater than the second degree of agreement; And setting the second classification result as a final classification result for the concrete surface when it is determined that the second degree of agreement is greater than the first degree of agreement.
상기 정상 영역과 상기 손상 영역을 구분하는 단계는, 상기 콘크리트 표면에 가해진 압력의 크기를 구역별로 감지하는 균열 인식 수단에서 미리 설정된 압력 기준값 보다 큰 압력을 감지한 경우, 상기 압력 기준값 보다 큰 압력이 감지된 구역에 위치하는 센서의 좌표값에 대한 압력 감지 데이터를 획득하는 단계; 및 상기 좌표값과 대응하는 위치에 있는 구역을 상기 정상 영역으로 구분하는 단계를 포함하며, 상기 압력 감지 데이터를 획득하는 단계는, 상기 균열 인식 수단에 포함된 복수의 센서 중 어느 하나인 제1 센서에서 상기 압력 기준값 보다 큰 압력을 감지하고 상기 제1 센서와 맞닿아 있는 주변의 센서 전체에서 상기 압력 기준값 보다 큰 압력을 감지한 경우, 상기 제1 센서의 좌표값에 대한 압력 감지 데이터를 상기 제1 센서로부터 획득하는 단계; 및 상기 제1 센서에서 상기 압력 기준값 보다 큰 압력을 감지하더라도, 상기 제1 센서와 맞닿아 있는 주변의 센서 중 적어도 하나에서 상기 압력 기준값 보다 큰 압력을 감지하지 않은 경우, 상기 제1 센서의 좌표값에 대한 압력 감지 데이터가 획득되지 않도록 제어하는 단계를 포함할 수 있다.The step of dividing the normal region and the damaged region may include detecting a pressure greater than a preset pressure reference value by a crack recognition means for detecting the magnitude of the pressure applied to the concrete surface for each region, a pressure greater than the pressure reference value is detected. Acquiring pressure sensing data for coordinate values of sensors located in the designated area; And dividing a region at a position corresponding to the coordinate value into the normal region, wherein the obtaining of the pressure sensing data comprises: a first sensor that is any one of a plurality of sensors included in the crack recognition means In the case where a pressure greater than the pressure reference value is sensed and a pressure greater than the pressure reference value is sensed in all of the surrounding sensors in contact with the first sensor, pressure detection data for the coordinate value of the first sensor is transmitted to the first sensor. Obtaining from a sensor; And even if the first sensor detects a pressure greater than the pressure reference value, when at least one of the surrounding sensors in contact with the first sensor does not detect a pressure greater than the pressure reference value, the coordinate value of the first sensor. It may include controlling so that pressure sensing data for is not obtained.
일실시예에 따르면, 콘크리트 유지보수의 전처리를 위한 CSP(Concrete Surface Profile)의 객관화 기준을 마련하고, CSP의 분류 기준을 정립하고, 콘크리트의 표면을 분석하는데 있어 효과적으로 성능을 개선시키고, 콘크리트의 균열 유무까지 확인할 수 있는 효과가 있다.According to an embodiment, in order to prepare an objectification standard of CSP (Concrete Surface Profile) for pretreatment of concrete maintenance, establish a classification standard for CSP, and effectively improve performance in analyzing the surface of concrete, cracking of concrete It has the effect of checking the presence or absence.
한편, 실시예들에 따른 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Meanwhile, the effects according to the embodiments are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the relevant technical field from the following description.
도 1은 일실시예에 따른 콘크리트 표면을 분석하는 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 CSP(Concrete Surface Profile)의 분류 기준을 설명하기 위한 도면이다.
도 3은 일실시예에 따른 콘크리트 표면에 대한 데이터를 생성하는 과정을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 CSP 3에 해당하는 콘크리트 표면을 분석하는 과정을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 CSP 5에 해당하는 콘크리트 표면을 분석하는 과정을 설명하기 위한 도면이다.
도 6은 일실시예에 따른 CSP 7에 해당하는 콘크리트 표면을 분석하는 과정을 설명하기 위한 도면이다.
도 7은 일실시예에 따른 콘크리트 표면에 대한 데이터를 학습하는 과정을 설명하기 위한 도면이다.
도 8은 일실시예에 따른 제1 분석 결과를 생성하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 제2 분석 결과를 생성하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 제2 인공 신경망에 대한 추가 학습을 수행하는 과정을 설명하기 위한 순서도이다.
도 11은 일실시예에 따른 제1 인공 신경망의 딥러닝 모델을 갱신하는 과정을 설명하기 위한 순서도이다.
도 12는 일실시예에 따른 최종 분류 결과를 설정하는 과정을 설명하기 위한 순서도이다.
도 13은 일실시예에 따른 균열 인식을 위해 압력 감지 데이터를 획득하는 과정을 설명하기 위한 도면이다.
도 14는 일실시예에 따른 인공 신경망을 설명하기 위한 도면이다.
도 15는 일실시예에 따른 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.1 is a diagram schematically showing the configuration of a system for analyzing a concrete surface according to an embodiment.
FIG. 2 is a diagram illustrating a classification criterion for a Concrete Surface Profile (CSP) according to an embodiment.
3 is a diagram illustrating a process of generating data on a concrete surface according to an exemplary embodiment.
4 is a view for explaining a process of analyzing a concrete surface corresponding to
5 is a view for explaining a process of analyzing a concrete surface corresponding to
6 is a view for explaining a process of analyzing a concrete surface corresponding to
7 is a diagram illustrating a process of learning data on a concrete surface according to an exemplary embodiment.
8 is a flowchart illustrating a process of generating a first analysis result according to an exemplary embodiment.
9 is a flowchart illustrating a process of generating a second analysis result according to an exemplary embodiment.
10 is a flowchart illustrating a process of performing additional learning on a second artificial neural network according to an embodiment.
11 is a flowchart illustrating a process of updating a deep learning model of a first artificial neural network according to an embodiment.
12 is a flowchart illustrating a process of setting a final classification result according to an embodiment.
13 is a diagram for describing a process of acquiring pressure sensing data for crack recognition according to an exemplary embodiment.
14 is a diagram illustrating an artificial neural network according to an embodiment.
15 is a diagram illustrating a method of learning an artificial neural network according to an embodiment.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It is to be understood that all changes, equivalents, or substitutes to the embodiments are included in the scope of the rights.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for the purpose of illustration only, and may be changed and implemented in various forms. Accordingly, the embodiments are not limited to a specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, these terms should be interpreted only for the purpose of distinguishing one component from other components. For example, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being "connected" to another component, it is to be understood that it may be directly connected or connected to the other component, but other components may exist in the middle.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for illustrative purposes only and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof does not preclude in advance.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in the present application. Does not.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of the reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that a detailed description of a related known technology may unnecessarily obscure the subject matter of the embodiment, a detailed description thereof will be omitted.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.The embodiments may be implemented in various types of products such as a personal computer, a laptop computer, a tablet computer, a smart phone, a television, a smart home appliance, an intelligent vehicle, a kiosk, and a wearable device.
도 1은 일실시예에 따른 콘크리트 표면을 분석하는 시스템의 구성을 개략적으로 나타낸 도면이다.1 is a diagram schematically showing the configuration of a system for analyzing a concrete surface according to an embodiment.
도 1을 참조하면, 일실시예에 따른 시스템은 통신망을 통해 서로 통신 가능한 장치(100) 및 서버(200)를 포함할 수 있다.Referring to FIG. 1, a system according to an embodiment may include a
먼저, 통신망은 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크로 구성될 수 있으며, 서버와 서버 간의 통신과 서버와 단말 간의 통신이 수행되도록 다양한 형태로 구현될 수 있다.First, the communication network may be composed of wireless networks such as wireless LANs, CDMA, Bluetooth, and satellite communication, and may be implemented in various forms so that communication between a server and a server and communication between a server and a terminal are performed.
장치(100)는 통신 기능을 갖춘 연산 장치로 구현될 수 있으며, 예를 들면, 휴대전화기, 데스크톱 PC, 랩탑 PC, 태블릿 PC, 스마트폰 등으로 구현될 수 있으나, 이에 제한되지는 않으며, 외부 서버와 연결될 수 있는 다양한 형태의 통신 장치로 구현될 수도 있다.The
장치(100)는 콘크리트 표면에 대한 이미지를 분석하고, 해당 이미지가 어느 분류에 속하는지를 분류하여, 콘크리트 표면에 대한 제1 분류 결과를 획득할 수 있다. 여기서, 제1 분류 결과는 CSP(Concrete Surface Profile)의 분류 기준에 따라 분류된 10 단계 중 어느 하나를 나타낼 수 있다. CSP의 분류 기준에 대한 자세한 설명은 도 2를 참조하여 후술하기로 한다.The
장치(100)는 통신부(110), 라이다부(120), 카메라부(130), 균열 인식 수단(140) 및 제1 프로세서(150)를 포함할 수 있으며, 메모리(160)를 더 포함하거나 별도로 구현된 메모리(160)와 연결될 수 있다.The
통신부(110)는 서버(200)와 무선 통신을 통해 데이터를 송수신할 수 있다.The
구체적으로, 통신부(110)는 통신망과 연동하여 장치(100)와 서버(200) 간의 송수신 신호를 패킷 데이터 형태로 제공할 수 있으며, 서버(200)로 데이터 요청을 송신하고, 이에 대한 응답으로 데이터를 수신하는 역할을 수행할 수 있다.Specifically, the
라이다부(120)는 라이다(Lidar) 센서를 통해 콘크리트 표면에 대한 3D 데이터를 생성할 수 있다. 여기서, 3D 데이터는 콘크리트 표면에 대한 3D 이미지이다.The
카메라부(130)는 카메라 촬영을 통해 콘크리트 표면에 대한 2D 데이터를 생성할 수 있다. 여기서, 2D 데이터는 콘크리트 표면에 대한 2D 이미지이다.The
균열 인식 수단(140)은 복수의 압력 센서를 포함할 수 있으며, 콘크리트에 가해지는 압력의 크기를 구역별로 감지할 수 있다. 압력 감지와 관련된 자세한 설명은 도 13을 참조하여 후술하기로 한다.The crack recognition means 140 may include a plurality of pressure sensors, and may detect the magnitude of the pressure applied to the concrete for each area. A detailed description related to pressure sensing will be described later with reference to FIG. 13.
제1 프로세서(150)는 일종의 중앙처리장치로서 제1 분류 결과를 획득하는 전체 과정을 제어할 수 있다. 제1 프로세서(150)는 장치(100)의 동작을 제어하여 제1 분류 결과를 획득하는 과정을 수행할 수 있다. 제1 분류 결과를 획득하는 과정에 대한 자세한 설명은 도 8을 참조하여 후술하기로 한다.The
메모리(160)는 제1 분류 결과를 획득하는 방법을 수행하기 위한 프로그램이 기록될 수 있다. 또한, 제1 프로세서(150)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다.A program for performing a method of obtaining a first classification result may be recorded in the
일실시예에 따르면, 제1 프로세서(150)는 프로그램을 실행하고, 장치(100)를 제어할 수 있다. 제1 프로세서(150)에 의하여 실행되는 프로그램의 코드는 메모리(160)에 저장될 수 있다. According to an embodiment, the
장치(100)는 후술할 제1 인공 신경망을 학습시키거나, 학습된 제1 인공 신경망을 이용하는데 사용될 수 있다. 메모리(160)는 학습 중인 또는 학습된 제1 인공 신경망을 포함할 수 있다. 제1 프로세서(150)는 인공지능을 포함할 수 있으며, 메모리(160)에 저장된 제1 인공 신경망의 알고리즘을 학습시키거나 실행시킬 수 있다. The
서버(200)는 콘크리트 표면에 대한 이미지를 분석하고, 해당 이미지가 어느 분류에 속하는지를 분류하여, 콘크리트 표면에 대한 제2 분류 결과를 획득할 수 있다. 여기서, 제2 분류 결과는 CSP(Concrete Surface Profile)의 분류 기준에 따라 분류된 10 단계 중 어느 하나를 나타낼 수 있다. CSP의 분류 기준에 대한 자세한 설명은 도 2를 참조하여 후술하기로 한다.The
서버(200)는 통신부(210), 데이터 버퍼(220), 로드 밸런서(230) 및 제2 프로세서(240)를 포함할 수 있으며, 데이터베이스(250)를 더 포함하거나 별도로 구현된 데이터베이스(250)와 연결될 수 있다.The
통신부(210)는 장치(100)와 유무선 통신을 통해 데이터를 송수신할 수 있다.The
구체적으로, 통신부(210)는 통신망과 연동하여 서버(200)와 장치(100) 간의 송수신 신호를 패킷 데이터 형태로 제공할 수 있으며, 장치(100)로 데이터 요청을 송신하고, 이에 대한 응답으로 데이터를 수신하는 역할을 수행할 수 있다.Specifically, the
데이터 버퍼(220)는 통신부(210)로부터 수신된 데이터를 임시로 저장하는 역할을 수행할 수 있다.The
로드 밸런서(230)는 데이터 버퍼(220)에 저장된 데이터를 부하 분산 알고리즘을 통해 분배할 수 있다.The
제2 프로세서(240)는 일종의 중앙처리장치로서 제2 분류 결과를 획득하는 전체 과정을 제어할 수 있다. 제2 프로세서(240)는 서버(200)의 동작을 제어하여 제2 분류 결과를 획득하는 과정을 수행할 수 있다. 제2 분류 결과를 획득하는 과정에 대한 자세한 설명은 도 9를 참조하여 후술하기로 한다.The
데이터베이스(250)는 제2 분류 결과를 획득하는 방법을 수행하기 위한 프로그램이 기록될 수 있다. 또한, 제2 프로세서(240)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다.In the
일실시예에 따르면, 제2 프로세서(240)는 프로그램을 실행하고, 서버(200)를 제어할 수 있다. 제2 프로세서(240)에 의하여 실행되는 프로그램의 코드는 데이터베이스(250)에 저장될 수 있다. According to an embodiment, the
서버(200)는 후술할 제2 인공 신경망을 학습시키거나, 학습된 제2 인공 신경망을 이용하는데 사용될 수 있다. 데이터베이스(250)는 학습 중인 또는 학습된 제2 인공 신경망을 포함할 수 있다. 제2 프로세서(240)는 인공지능을 포함할 수 있으며, 데이터베이스(250)에 저장된 제2 인공 신경망의 알고리즘을 학습시키거나 실행시킬 수 있다.The
도 2는 일실시예에 따른 CSP(Concrete Surface Profile)의 분류 기준을 설명하기 위한 도면이다.FIG. 2 is a diagram illustrating a classification criterion for a Concrete Surface Profile (CSP) according to an embodiment.
일실시예에 따르면, 콘크리트 구조물은 손상 정도에 따라 보수 및 보강을 실시하여야 하는데, 보수 보강을 수행할 때 콘크리트 표면을 어느 정도 그라인더로 긁고 재포장 할 수 있으며, 이러한 행위를 유지보수 전처리 단계라고 한다. 이때, 이 전처리 과정에서 얼마나 깊숙이 긁었느냐에 따라 CSP(Concrete Surface Profile)가 높은 치수 또는 낮은 치수로 산정될 수 있다.According to one embodiment, the concrete structure needs to be repaired and reinforced according to the degree of damage.When the repair and reinforcement is performed, the concrete surface can be scratched and repaved to some extent with a grinder, and this action is referred to as a maintenance pretreatment step. . At this time, the CSP (Concrete Surface Profile) can be calculated as a high dimension or a low dimension depending on how deeply the scratch is made in this pretreatment process.
CSP는 표면의 긁힘 정도를 측정하는 방법으로, 표면 상태에 따라 총 10단계로 구분되어, CSP 1부터 10까지 분류될 수 있다. CSP는 낮은 단계일수록 표면이 매우 평평한 상태이고 높은 단계일수록 표면이 매우 거친 상태일 수 있다.CSP is a method of measuring the degree of scratching on the surface, and it is divided into 10 steps according to the surface condition, and can be classified from
장치(100)의 메모리(160)와 서버(200)의 데이터베이스(250)에는 도 2에 도시된 CSP의 단계별 이미지가 저장되어 있을 수 있다.In the
구체적으로, 도 2의 (a)에 도시된 CSP 1은 Acid-etched 상태를 나타내는 대표 이미지이다. 도 2의 (b)에 도시된 CSP 2는 Grinding 상태를 나타내는 대표 이미지이다. 도 2의 (c)에 도시된 CSP 3은 Light shotblast 상태를 나타내는 대표 이미지이다. 도 2의 (d)에 도시된 CSP 4는 Light scarification 상태를 나타내는 대표 이미지이다. 도 2의 (e)에 도시된 CSP 5는 Medium shotblast 상태를 나타내는 대표 이미지이다. 도 2의 (f)에 도시된 CSP 6은 Medium scarification 상태를 나타내는 대표 이미지이다. 도 2의 (g)에 도시된 CSP 7은 Heavy abrasive blast 상태를 나타내는 대표 이미지이다. 도 2의 (h)에 도시된 CSP 8은 Scabbled 상태를 나타내는 대표 이미지이다. 도 2의 (i)에 도시된 CSP 9는 Heavy scarification-rotomilled 상태를 나타내는 대표 이미지이다. 도 2의 (j)에 도시된 CSP 10은 Handheld concrete breaker followed by abrasive blasting 상태를 나타내는 대표 이미지이다.Specifically,
장치(100)는 분석 대상 데이터와 메모리(160)에 저장되어 있는 CSP의 단계별 이미지를 비교하여, 분석 대상 데이터가 어느 단계에 해당되는지를 나타내는 제1 분석 결과를 획득할 수 있다.The
마찬가지로, 서버(200)는 분석 대상 데이터와 데이터베이스(250)에 저장되어 있는 CSP의 단계별 이미지를 비교하여, 분석 대상 데이터가 어느 단계에 해당되는지를 나타내는 제2 분석 결과를 획득할 수 있다.Likewise, the
일실시예에 따르면, 시스템은 콘크리트 표면의 검사를 자동화할 수 있으며, 데이터의 패턴을 위주로 가능성을 분석하여, 콘크리트 표면을 분석할 수 있다.According to an embodiment, the system may automate the inspection of the concrete surface, and may analyze the concrete surface by analyzing the possibility based on the pattern of the data.
시스템은 머신비전과 3D 라인타입의 레이저 프로파일링 데이터를 이용한 분류기를 포함할 수 있으며, 인공지능을 기반으로 3D 포인트 변환센서 데이터를 이용한 패턴인식 기술을 이용할 수 있으며, 3D 패턴과 실제 촬영된 이미지의 칼리브레이션을 통해 표면 검사를 수행할 수 있다.The system may include a classifier using machine vision and 3D line-type laser profiling data, and may use pattern recognition technology using 3D point conversion sensor data based on artificial intelligence. Surface inspection can be performed through calibration.
시스템은 인공지능을 기반으로 3D 변위센서 데이터를 분류할 수 있다. 이때, 3D 변위센서의 데이터로는 CSV 파일이 제공되며 2D 형식으로 표현될 수 있다. 표현된 차트는 특정 분포의 패턴을 이루고 있어, 이를 통해 표면에 대한 분류를 수행할 수 있다.The system can classify 3D displacement sensor data based on artificial intelligence. At this time, a CSV file is provided as the data of the 3D displacement sensor and can be expressed in a 2D format. Since the expressed chart forms a pattern of a specific distribution, it is possible to classify the surface through this.
시스템은 Linear Regressor 모델을 이용하여 예측 및 분류하는 기술을 센서 데이터의 분포 패턴을 분류하는데 사용할 수 있다.The system can use a technology that predicts and classifies using a Linear Regressor model to classify the distribution pattern of sensor data.
장치(100)는 laptop, amplifier, controller, laser sensor 등을 포함할 수 있다.The
장치(100)의 하단에 콘크리트가 위치하게 되면, 콘크리트 상부에 있는 라이다 및 카메라를 통해 콘크리트 표면을 촬영할 수 있다.When the concrete is positioned at the bottom of the
장치(100)는 콘크리트 표면에 대한 데이터를 획득할 수 있다.The
장치(100)는 콘크리트 표면에 대한 데이터를 분석하여, 콘크리트 표면이 어느 분류에 해당되는지를 차트 상에서 분류할 수 있다.The
도 3은 일실시예에 따른 콘크리트 표면에 대한 데이터를 생성하는 과정을 설명하기 위한 도면이다.3 is a diagram illustrating a process of generating data on a concrete surface according to an exemplary embodiment.
도 3의 (a)에 도시된 바와 같이, 장치(100)의 상부에는 라이다 센서가 설치되어 있다.As shown in (a) of FIG. 3, a lidar sensor is installed on the top of the
도 3의 (b)에 도시된 바와 같이, 라이다 센서의 하단에 분석 대상 콘크리트가 배치될 수 있다.As shown in (b) of FIG. 3, the concrete to be analyzed may be disposed under the lidar sensor.
라이다 센서에서 콘크리트 표면에 대한 데이터를 획득하면, 도 3의 (c)에 도시된 바와 같이, 라이다 센서는 측정이 종료되면 측면으로 이동하여, 콘크리트가 제거될 수 있는 공간을 제공할 수 있다.When the data on the concrete surface is acquired by the lidar sensor, as shown in FIG. 3(c), the lidar sensor may move to the side when the measurement is finished, providing a space in which concrete can be removed. .
일실시예에 따르면, 장치(100)는 라이다 센서에서 획득된 데이터를 분석하여, 콘크리트 표면이 CSP 10 단계 중 어느 단계에 해당되는지를 분석할 수 있다.According to an embodiment, the
도 4는 일실시예에 따른 CSP 3에 해당하는 콘크리트 표면을 분석하는 과정을 설명하기 위한 도면이다.4 is a view for explaining a process of analyzing a concrete surface corresponding to
도 4의 (a)에서 좌측에 도시된 바와 같이, 장치(100)는 카메라, 라이다 센서 등을 통해 콘크리트 표면을 촬영한 제1 이미지를 획득할 수 있으며, 획득된 제1 이미지는 도 4의 (a)에서 우측에 도시된 바와 같이, 장치(100)의 화면에 표시될 수 있다.As shown on the left in (a) of FIG. 4, the
도 4의 (b)에 도시된 바와 같이, 장치(100)는 제1 이미지를 기초로, 콘크리트 표면을 측정한 센서 데이터의 각 Column별 특징들을 분석하여 정리할 수 있다.As shown in (b) of FIG. 4, the
도 4의 (c)에 도시된 바와 같이, 장치(100)는 콘크리트 표면을 측정한 센서 데이터의 특정 부분만 추출하여, 이를 통해, 콘크리트 표면이 CSP 3에 해당하는 것으로 분석할 수 있다.As shown in (c) of FIG. 4, the
도 5는 일실시예에 따른 CSP 5에 해당하는 콘크리트 표면을 분석하는 과정을 설명하기 위한 도면이다.5 is a view for explaining a process of analyzing a concrete surface corresponding to
도 5의 (a)에서 좌측에 도시된 바와 같이, 장치(100)는 카메라, 라이다 센서 등을 통해 콘크리트 표면을 촬영한 제2 이미지를 획득할 수 있으며, 획득된 제2 이미지는 도 5의 (a)에서 우측에 도시된 바와 같이, 장치(100)의 화면에 표시될 수 있다.As shown on the left in (a) of FIG. 5, the
도 5의 (b)에 도시된 바와 같이, 장치(100)는 제2 이미지를 기초로, 콘크리트 표면을 측정한 센서 데이터의 각 Column별 특징들을 분석하여 정리할 수 있다.As shown in (b) of FIG. 5, the
도 5의 (c)에 도시된 바와 같이, 장치(100)는 콘크리트 표면을 측정한 센서 데이터의 특정 부분만 추출하여, 이를 통해, 콘크리트 표면이 CSP 5에 해당하는 것으로 분석할 수 있다.As shown in (c) of FIG. 5, the
도 6은 일실시예에 따른 CSP 7에 해당하는 콘크리트 표면을 분석하는 과정을 설명하기 위한 도면이다.6 is a view for explaining a process of analyzing a concrete surface corresponding to
도 6의 (a)에서 좌측에 도시된 바와 같이, 장치(100)는 카메라, 라이다 센서 등을 통해 콘크리트 표면을 촬영한 제3 이미지를 획득할 수 있으며, 획득된 제3 이미지는 도 6의 (a)에서 우측에 도시된 바와 같이, 장치(100)의 화면에 표시될 수 있다.As shown on the left in (a) of FIG. 6, the
도 6의 (b)에 도시된 바와 같이, 장치(100)는 제3 이미지를 기초로, 콘크리트 표면을 측정한 센서 데이터의 각 Column별 특징들을 분석하여 정리할 수 있다.As shown in (b) of FIG. 6, the
도 6의 (c)에 도시된 바와 같이, 장치(100)는 콘크리트 표면을 측정한 센서 데이터의 특정 부분만 추출하여, 이를 통해, 콘크리트 표면이 CSP 7에 해당하는 것으로 분석할 수 있다.As shown in (c) of FIG. 6, the
제1 이미지, 제2 이미지 및 제3 이미지 각각을 획득하기 위해 데이터를 측정하는 과정에서, 데이터를 측정하는 과정에서, 도로 시편과 센서의 거리는 일정할 수 있으며, 각각의 시편을 측정하는데 있어서 센서의 높이는 일정할 수 있다.In the process of measuring data to acquire each of the first image, the second image, and the third image, in the process of measuring the data, the distance between the road specimen and the sensor may be constant. The height can be constant.
도 4의 (b), 도 5의 (b) 및 도 6의 (b)를 참조하면, 데이터의 내부 구조를 분석한 결과, 측정값 -999.999는 다른 측정값들과는 매우 상이한 값을 가지고 있으므로, -999.999 값들을 불필요한 데이터로 판단하여, 해당 데이터가 존재하는 모든 Column을 제거한 후 분석을 진행할 수 있다.Referring to FIGS. 4B, 5B and 6B, as a result of analyzing the internal structure of the data, the measured value -999.999 has a very different value from other measured values,- By judging the values of 999.999 as unnecessary data, you can proceed with analysis after removing all columns in which the data exists.
도 7은 일실시예에 따른 콘크리트 표면에 대한 데이터를 학습하는 과정을 설명하기 위한 도면이다.7 is a diagram illustrating a process of learning data on a concrete surface according to an exemplary embodiment.
일실시예에 따르면, 시스템은 도 7에 도시된 과정을 통합하여 수행할 수 있고, 장치(100) 및 서버(200) 각각에서 도 7에 도시된 과정을 별도로 수행할 수도 있다.According to an embodiment, the system may integrate and perform the process shown in FIG. 7, and the
도 7의 (a)에 도시된 바와 같이, 시스템은 복수의 이미지를 로드하여 하나의 입력 이미지를 생성할 수 있다.As shown in (a) of FIG. 7, the system may generate one input image by loading a plurality of images.
도 7의 (b)에 도시된 바와 같이, 시스템은 입력 이미지를 통해 학습을 수행할 수 있다.As shown in (b) of FIG. 7, the system may perform learning through an input image.
도 7의 (c)에 도시된 바와 같이, 입력 값에 대한 출력 결과를 획득할 수 있다.As shown in (c) of FIG. 7, an output result for an input value may be obtained.
일실시예에 따르면, CNN(Convolutional Neural Network) 안에서 이용하는 이미지의 사이즈는 (300Ⅹ300) 픽셀이지만, 시스템은 CSV 파일 전체를 불러와서 (300Ⅹ300) 픽셀 부분의 영역만 추출하여 CNN에 적용할 수 있다. 이때, CSV 데이터에서 미리 (300Ⅹ300) 픽셀의 이미지를 생성하는 경우, 하드웨어 리소스와 메모리 공간이 많이 필요하기 때문에, CSV 파일을 일단 불러온 후에, 랜덤하게 스타트 포인트 (x, y)만 생성하여, (x ~ x+300, y ~ y+300) 만큼의 픽셀 영역만 가져와서 학습에 이용할 수 있다. 이는 매번 랜덤하게 스타트 포인트를 생성하였기 때문에, 매 학습마다 새로운 데이터를 학습하는 것과 같은 효과를 가진다.According to an embodiment, the size of an image used in a convolutional neural network (CNN) is (300×300) pixels, but the system can import the entire CSV file and extract only the area of the (300×300) pixel portion and apply it to the CNN. At this time, when generating an image of (300×300) pixels from CSV data in advance, a lot of hardware resources and memory space are required, so once the CSV file is loaded, only the start points (x, y) are randomly generated, and the ( Only the pixel area of x ~ x+300, y ~ y+300) can be imported and used for learning. This has the same effect as learning new data for each learning because the starting point is randomly generated each time.
도 7의 (d)에 도시된 바와 같이, 시스템은 학습이 완료되면, 학습 결과를 획득하여 분석할 수 있으며, 마지막 Dense Layer에서 결과값으로, CSP 3 Probability, CSP 5 Probability, CSP 7 Probability의 값이 출력되며, 3개 값 중에 가장 큰 값을 분석 대상 이미지의 라벨로 활용할 수 있다.As shown in (d) of FIG. 7, when the learning is completed, the system can acquire and analyze the learning result, and as a result value in the last Dense Layer, the values of
도 8은 일실시예에 따른 제1 분석 결과를 생성하는 과정을 설명하기 위한 순서도이다.8 is a flowchart illustrating a process of generating a first analysis result according to an exemplary embodiment.
도 8을 참조하면, 먼저 S801 단계에서, 장치(100)는 라이다를 통해 콘크리트 표면에 대한 3D 데이터를 획득할 수 있다. 여기서, 3D 데이터는 콘크리트 표면에 대한 3D 이미지이다.Referring to FIG. 8, first, in step S801, the
S802 단계에서, 장치(100)는 카메라를 통해 콘크리트 표면에 대한 2D 데이터를 획득할 수 있다. 여기서, 2D 데이터는 콘크리트 표면에 대한 2D 이미지이다.In step S802, the
S803 단계에서, 장치(100)는 2D 데이터와 3D 데이터의 합집합 영역을 분리하여, 2D 데이터 및 3D 데이터를 병합한 제1 데이터를 추출할 수 있다.In operation S803, the
구체적으로, 장치(100)는 2D 데이터와 3D 데이터를 비교하여, 서로 중복되는 합집합 영역을 파악할 수 있으며, 2D 데이터에서 합집합 영역을 분리하고 3D 데이터에서 합집합 영역을 분리하여, 분리된 합집합 영역을 병합하여 제1 데이터를 추출할 수 있다. 여기서, 제1 데이터는 4채널로 구성될 수 있으며, 3채널은 RGB 값을 나타내는 2D 데이터이고, 1채널은 3D 깊이 값을 나타내는 데이터일 수 있다.Specifically, the
장치(100)는 제1 데이터를 인코딩하여 제1 입력 신호를 생성할 수 있다.The
구체적으로, 장치(100)는 제1 데이터의 픽셀을 색 정보로 인코딩하여 제1 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다. 장치(100)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 제1 데이터를 인코딩할 수 있다.Specifically, the
장치(100)는 제1 입력 신호를 장치(100) 내 미리 학습된 제1 인공 신경망에 입력할 수 있다.The
일실시예에 따른 제1 인공 신경망은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The first artificial neural network according to an embodiment is composed of a feature extraction neural network and a classification neural network, and the feature extraction neural network sequentially stacks an input signal by a convolutional layer and a pooling layer. The convolution layer includes convolution operations, convolution filters, and activation functions. The calculation of the convolution filter is adjusted according to the size of the matrix of the target input, but generally a 9X9 matrix is used. The activation function generally uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The pooling layer is a layer that reduces the size of an input matrix, and uses a method of extracting a representative value by grouping pixels in a specific area. In general, an average value or a maximum value is often used for the operation of the pooling layer, but is not limited thereto. This operation is performed using a square matrix, usually a 9X9 matrix. The convolutional layer and the pooling layer are alternately iterated until the corresponding input is small enough while maintaining the difference.
일실시예에 따르면, 분류 신경망은 히든 레이어와 출력 레이어를 가지고 있다. 콘크리트 표면의 CSP 분류를 위한 제1 인공 신경망의 분류 신경망은 5층 이하의 히든 레이어로 구성되며, 총 50개 이하의 히든 레이어 노드를 포함할 수 있다. 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 분류 신경망의 출력 레이어 노드는 총 1개이며, 콘크리트 표면의 분류에 대한 출력값을 출력 레이어 노드에 출력할 수 있다. 제1 인공 신경망에 대한 자세한 설명은 도 14를 참조하여 후술한다.According to an embodiment, the classification neural network has a hidden layer and an output layer. The classification neural network of the first artificial neural network for CSP classification of the concrete surface is composed of 5 or less hidden layers, and may include a total of 50 or less hidden layer nodes. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. There is a total of 1 output layer node of the classification neural network, and the output value for the classification of the concrete surface can be output to the output layer node. A detailed description of the first artificial neural network will be described later with reference to FIG. 14.
장치(100)는 제1 인공 신경망의 입력의 결과에 기초하여, 제1 출력 신호를 획득할 수 있다.The
S804 단계에서, 장치(100)는 제1 출력 신호에 기초하여, 콘크리트 표면에 대한 제1 분류 결과를 생성할 수 있다. 여기서, 제1 분류 결과는 콘크리트 표면이 CSP의 어느 단계로 분류되는지에 대한 정보를 포함할 수 있다.In step S804, the
예를 들어, 장치(100)는 제1 출력 신호의 출력값을 확인한 결과, 출력값이 1인 경우, 콘크리트 표면이 CSP 1에 해당하는 것으로 제1 분류 결과를 생성하고, 출력값이 2인 경우, 콘크리트 표면이 CSP 2에 해당하는 것으로 제1 분류 결과를 생성할 수 있다.For example, as a result of checking the output value of the first output signal, when the output value is 1, the
도 9는 일실시예에 따른 제2 분석 결과를 생성하는 과정을 설명하기 위한 순서도이다.9 is a flowchart illustrating a process of generating a second analysis result according to an exemplary embodiment.
도 9를 참조하면, 먼저 S901 단계에서, 장치(100)는 제1 데이터의 분석을 통해 제1 분류 결과가 생성되면, 제1 데이터 및 제1 분류 결과를 서버(200)로 전송할 수 있다.Referring to FIG. 9, first in step S901, when a first classification result is generated through analysis of the first data, the
S902 단계에서, 서버(200)는 장치(100)로부터 수신된 제1 데이터를 분석하여 콘크리트 표면에 발생한 균열을 검출할 수 있다. 균열 검출 시에는 이미지 분석을 통해 일정 크기 이상으로 확인된 부분만 콘크리트 표면에 발생한 균열로 검출할 수 있다.In step S902, the
S903 단계에서, 서버(200)는 콘크리트 표면에 발생한 균열을 영역별로 확인하여, 정상 영역과 손상 영역을 구분할 수 있다.In step S903, the
구체적으로, 서버(200)는 제1 데이터를 제1 영역, 제2 영역 등의 복수의 영역으로 구분하여, 각각의 영역 별로 균열이 몇 개씩 검출되었는지 확인할 수 있으며, 제1 기준치 미만으로 균열이 검출된 영역을 정상 영역으로 구분하고, 제1 기준치 이상으로 균열이 검출된 영역을 손상 영역으로 구분할 수 있다. 이때, 제1 기준치는 실시예에 따라 상이하게 설정될 수 있다.Specifically, the
S904 단계에서, 서버(200)는 제1 데이터에서 손상 영역을 삭제한 제2 데이터를 추출할 수 있다.In step S904, the
예를 들어, 제1 데이터에 있는 이미지가 제1 영역, 제2 영역 및 제3 영역으로 구성되어 있는데, 제1 영역은 손상 영역으로 구분되고, 제2 영역 및 제3 영역은 정상 영역으로 구분된 경우, 서버(200)는 제2 영역 및 제3 영역만 포함된 이미지를 제2 데이터로 추출할 수 있다.For example, the image in the first data is composed of a first area, a second area, and a third area. The first area is divided into a damaged area, and the second area and the third area are divided into normal areas. In this case, the
서버(200)는 제2 데이터를 인코딩하여 제2 입력 신호를 생성할 수 있다.The
구체적으로, 서버(200)는 제2 데이터의 픽셀을 색 정보로 인코딩하여 제2 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다. 서버(200)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 제2 데이터를 인코딩할 수 있다.Specifically, the
서버(200)는 제2 입력 신호를 서버(200) 내 미리 학습된 제2 인공 신경망에 입력할 수 있다.The
일실시예에 따른 제2 인공 신경망은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The second artificial neural network according to an embodiment is composed of a feature extraction neural network and a classification neural network, and the feature extraction neural network sequentially stacks an input signal with a convolutional layer and a pooling layer. The convolution layer includes convolution operations, convolution filters, and activation functions. The calculation of the convolution filter is adjusted according to the size of the matrix of the target input, but generally a 9X9 matrix is used. The activation function generally uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The pooling layer is a layer that reduces the size of an input matrix, and uses a method of extracting a representative value by grouping pixels in a specific area. In general, an average value or a maximum value is often used for the operation of the pooling layer, but is not limited thereto. This operation is performed using a square matrix, usually a 9X9 matrix. The convolutional layer and the pooling layer are alternately iterated until the corresponding input is small enough while maintaining the difference.
일실시예에 따르면, 분류 신경망은 히든 레이어와 출력 레이어를 가지고 있다. 콘크리트 표면의 CSP 분류를 위한 제2 인공 신경망의 분류 신경망은 5층 이하의 히든 레이어로 구성되며, 총 50개 이하의 히든 레이어 노드를 포함할 수 있다. 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 분류 신경망의 출력 레이어 노드는 총 1개이며, 콘크리트 표면의 분류에 대한 출력값을 출력 레이어 노드에 출력할 수 있다. 제2 인공 신경망에 대한 자세한 설명은 도 14를 참조하여 후술한다.According to an embodiment, the classification neural network has a hidden layer and an output layer. The classification neural network of the second artificial neural network for CSP classification of the concrete surface is composed of 5 or less hidden layers, and may include a total of 50 or less hidden layer nodes. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. There is a total of 1 output layer node of the classification neural network, and the output value for the classification of the concrete surface can be output to the output layer node. A detailed description of the second artificial neural network will be described later with reference to FIG. 14.
서버(200)는 제2 인공 신경망의 입력의 결과에 기초하여, 제2 출력 신호를 획득할 수 있다.The
S905 단계에서, 서버(200)는 제2 출력 신호에 기초하여, 콘크리트 표면에 대한 제2 분류 결과를 생성할 수 있다. 여기서, 제2 분류 결과는 콘크리트 표면이 CSP의 어느 단계로 분류되는지에 대한 정보를 포함할 수 있다.In step S905, the
예를 들어, 서버(200)는 제2 출력 신호의 출력값을 확인한 결과, 출력값이 1인 경우, 콘크리트 표면이 CSP 1에 해당하는 것으로 제2 분류 결과를 생성하고, 출력값이 2인 경우, 콘크리트 표면이 CSP 2에 해당하는 것으로 제2 분류 결과를 생성할 수 있다.For example, the
서버(200)는 제1 분류 결과 및 제2 분류 결과를 기초로, 콘크리트 표면에 대한 최종 분류 결과를 설정할 수 있다.The
예를 들어, 제1 분류 결과 및 제2 분류 결과가 동일한 경우, 서버(200)는 제1 분류 결과 및 제2 분류 결과 중 어느 하나를 콘크리트 표면에 대한 최종 분류 결과로 설정할 수 있다. 최종 분류 결과를 설정하는 내용과 관련된 자세한 설명은 도 12를 참조하여 후술하기로 한다.For example, when the first classification result and the second classification result are the same, the
도 10은 일실시예에 따른 제2 인공 신경망에 대한 추가 학습을 수행하는 과정을 설명하기 위한 순서도이다.10 is a flowchart illustrating a process of performing additional learning on a second artificial neural network according to an embodiment.
도 10을 참조하면, 먼저 S1001 단계에서, 서버(200)는 제1 분류 결과 및 제2 분류 결과를 기초로 설정된 최종 분류 결과를 확인할 수 있다.Referring to FIG. 10, first in step S1001, the
S1002 단계에서, 서버(200)는 최종 분류 결과에 따라 제2 데이터에 대한 영상처리 및 패턴인식을 수행하여, 콘크리트 표면을 분석할 수 있다.In step S1002, the
예를 들어, 서버(200)의 데이터베이스(250)에는 CSP 단계 별로 해당 단계를 위해 최적화된 영상처리 및 패턴인식에 대한 알고리즘이 각각 저장되어 있는데, 최종 분류 결과에 따라 콘크리트 표면이 CSP 1로 분류되면, 서버(200)는 CSP 1 전용 알고리즘을 이용하여, 제2 데이터에 대한 영상처리 및 패턴인식을 수행할 수 있으며, 최종 분류 결과에 따라 콘크리트 표면이 CSP 2로 분류되면, 서버(200)는 CSP 2 전용 알고리즘을 이용하여, 제2 데이터에 대한 영상처리 및 패턴인식을 수행할 수 있다. 즉, 최종 분류 결과를 통해 확인된 CSP 단계에 따라 상이한 방식으로 제2 데이터에 대한 영상처리 및 패턴인식이 수행될 수 있다.For example, in the
S1003 단계에서, 서버(200)는 최종 분류 결과에 대한 작업자의 판단 결과를 획득할 수 있다.In step S1003, the
구체적으로, 서버(200)는 작업자 단말로 최종 분류 결과를 전송할 수 있으며, 작업자 단말로부터 최종 분류 결과에 대한 판단 결과를 수신하여 획득할 수 있다. 이때, 작업자의 판단 결과는 성공 또는 실패 중 어느 하나를 나타내는 정보를 포함할 수 있다.Specifically, the
S1004 단계에서, 서버(200)는 작업자 단말로부터 획득된 판단 결과가 제2 기준치 이상으로 수집되었는지 여부를 확인할 수 있다. 여기서, 제2 기준치는 실시예에 따라 상이하게 설정될 수 있다.In step S1004, the
S1004 단계에서 판단 결과가 제2 기준치 이상으로 수집되지 않은 것이 확인되면, S1003 단계로 되돌아가, 서버(200)는 작업자의 판단 결과를 다시 획득할 수 있다.If it is confirmed in step S1004 that the determination result is not collected above the second reference value, the process returns to step S1003, and the
S1004 단계에서 판단 결과가 제2 기준치 이상으로 수집된 것이 확인되면, S1005 단계에서, 서버(200)는 판단 결과들을 서버(200)와 연결된 클라우드에 전송할 수 있다. 이때, 서버(200)는 클라우드 서버로 구현될 수 있다.When it is confirmed in step S1004 that the determination result is collected above the second reference value, in step S1005, the
S1006 단계에서, 서버(200)는 판단 결과들을 통해 서버(200) 내 제2 인공 신경망에 대한 추가 학습이 수행되도록 처리할 수 있다. 이때, 서버(200)는 판단 결과가 성공인 데이터와 실패인 데이터를 구분하여, 제2 인공 신경망이 최적화되도록 추가 학습을 수행할 수 있다.In step S1006, the
도 11은 일실시예에 따른 제1 인공 신경망의 딥러닝 모델을 갱신하는 과정을 설명하기 위한 순서도이다.11 is a flowchart illustrating a process of updating a deep learning model of a first artificial neural network according to an embodiment.
도 11을 참조하면, 먼저 S1101 단계에서, 장치(100)는 장치(100) 내 제1 인공 신경망을 통해 학습을 수행하여, 제1 인공 신경망을 통한 학습 결과를 획득할 수 있으며, 제1 인공 신경망을 통한 학습 결과를 통해 제1 인공 신경망의 성능을 확인할 수 있다.Referring to FIG. 11, first, in step S1101, the
S1102 단계에서, 서버(200)는 서버(200) 내 제2 인공 신경망을 통해 학습을 수행하여, 제2 인공 신경망을 통한 학습 결과를 획득할 수 있으며, 제2 인공 신경망을 통한 학습 결과를 통해 제2 인공 신경망의 성능을 확인할 수 있다.In step S1102, the
S1103 단계에서, 서버(200)는 제2 인공 신경망을 통한 학습 결과와 제1 인공 신경망을 통한 학습 결과에 대한 성능을 비교하여, 제2 인공 신경망을 통한 학습 결과가 제1 인공 신경망을 통한 학습 결과 보다 제3 기준치 이상으로 성능이 향상되었는지 여부를 확인할 수 있다. 여기서, 제3 기준치는 실시예에 따라 상이하게 설정될 수 있다.In step S1103, the
예를 들어, 제1 인공 신경망을 통한 학습 결과를 통해 확인된 제1 인공 신경망의 성능이 80이고, 제2 인공 신경망을 통한 학습 결과를 통해 확인된 제2 인공 신경망의 성능이 95이고, 제3 기준치가 10인 경우, 서버(200)는 제2 인공 신경망을 통한 학습 결과가 제3 기준치 이상으로 성능이 향상된 것으로 확인할 수 있다.For example, the performance of the first artificial neural network confirmed through the learning result through the first artificial neural network is 80, the performance of the second artificial neural network confirmed through the learning result through the second artificial neural network is 95, and the third When the reference value is 10, the
S1103 단계에서 제2 인공 신경망을 통한 학습 결과가 제3 기준치 이상으로 성능이 향상된 것으로 확인되면, S1104 단계에서, 장치(100)는 제2 인공 신경망을 통해 제1 인공 신경망의 딥러닝 모델을 갱신할 수 있다. 이후, S1101 단계로 되돌아가, 장치(100)는 딥러닝 모델이 갱신된 제1 인공 신경망을 통해 학습을 다시 수행하여, 제1 인공 신경망의 성능을 다시 확인할 수 있다.In step S1103, if the learning result through the second artificial neural network is confirmed to have improved performance beyond the third reference value, in step S1104, the
S1103 단계에서 제2 인공 신경망을 통한 학습 결과가 제3 기준치 이상으로 성능이 향상되지 않은 것으로 확인되면, S1105 단계에서, 서버(200)는 제2 인공 신경망에 대한 추가 학습을 수행할 수 있다. 이후, S1102 단계로 되돌아가, 서버(200)는 추가 학습된 제2 인공 신경망을 통해 학습을 다시 수행하여, 제2 인공 신경망의 성능을 다시 확인할 수 있다.If it is determined in step S1103 that the learning result through the second artificial neural network has not improved more than the third reference value, in step S1105, the
도 12는 일실시예에 따른 최종 분류 결과를 설정하는 과정을 설명하기 위한 순서도이다.12 is a flowchart illustrating a process of setting a final classification result according to an embodiment.
도 12를 참조하면, 먼저 S1201 단계에서, 장치(100)는 2D 데이터와 3D 데이터의 합집합 영역을 분리하여, 2D 데이터 및 3D 데이터를 병합한 제1 데이터를 추출할 수 있다.Referring to FIG. 12, first, in step S1201, the
S1202 단계에서, 장치(100)는 제1 데이터에 기초하여, 콘크리트 표면에 대한 제1 분류 결과를 생성할 수 있다. 이때, 장치(100)는 제1 데이터 및 제1 분류 결과를 서버(200)로 전송할 수 있다.In step S1202, the
S1203 단계에서, 서버(200)는 제1 데이터를 분석하여 정상 영역과 손상 영역으로 구분하고, 제1 데이터에서 손상 영역을 삭제한 제2 데이터를 추출할 수 있다.In step S1203, the
S1204 단계에서, 서버(200)는 제2 데이터에 기초하여, 콘크리트 표면에 대한 제2 분류 결과를 생성할 수 있다. In step S1204, the
S1205 단계에서, 서버(200)는 S1202 단계에서 생성된 제1 분류 결과와 S1204 단계에서 생성된 제2 분류 결과를 비교하여 동일한지 여부를 확인할 수 있다.In step S1205, the
S1205 단계에서 제1 분류 결과 및 제2 분류 결과가 동일한 것으로 확인되면, S1206 단계에서, 서버(200)는 제1 분류 결과 및 제2 분류 결과 중 어느 하나를 최종 분류 결과로 설정할 수 있다. 즉, 제1 분류 결과와 제2 분류 결과가 동일하기 때문에, 제1 분류 결과 및 제2 분류 결과 중 어느 하나를 최종 분류 결과로 설정할 수 있다.If it is determined in step S1205 that the first classification result and the second classification result are the same, in step S1206, the
S1205 단계에서 제1 분류 결과 및 제2 분류 결과가 상이한 것으로 확인되면, S1207 단계에서, 서버(200)는 제1 분류 결과를 이용하여 제3 데이터를 획득하고, S1208 단계에서, 서버(200)는 제2 분류 결과를 이용하여 제4 데이터를 획득할 수 있다.If it is confirmed that the first classification result and the second classification result are different in step S1205, in step S1207, the
구체적으로, 서버(200)의 데이터베이스(250)에는 콘크리트 표면의 분류 별로 대표 이미지가 저장되어 있으며, 예를 들어, CSP 1, CSP 2, CSP 3 등의 분류 별로 대표 이미지가 각각 저장되어 있다.Specifically, in the
서버(200)는 제1 분류 결과를 통해 콘크리트 표면이 제1 분류로 분류된 것이 확인되면, 제1 분류의 대표 이미지로 등록되어 있는 데이터를 제3 데이터로 획득할 수 있다. 예를 들어, 제1 분류 결과를 통해 콘크리트 표면이 CSP 2로 분류되어 있는 경우, CSP 2의 대표 이미지를 제3 데이터로 획득할 수 있다.When it is confirmed through the first classification result that the concrete surface is classified as the first classification, the
또한, 서버(200)는 제2 분류 결과를 통해 콘크리트 표면이 제2 분류로 분류된 것이 확인되면, 제2 분류의 대표 이미지로 등록되어 있는 데이터를 제4 데이터로 획득할 수 있다. 예를 들어, 제2 분류 결과를 통해 콘크리트 표면이 CSP 3으로 분류되어 있는 경우, CSP 3의 대표 이미지를 제4 데이터로 획득할 수 있다.In addition, when it is confirmed through the second classification result that the concrete surface is classified as the second classification, the
S1209 단계에서, 서버(200)는 S1201 단계에서 추출된 제1 데이터와 S1207 단계에서 획득된 제3 데이터를 비교하여 제1 일치도를 분석할 수 있다. 이때, 서버(200)는 제1 데이터와 제3 데이터 간에 얼마나 일치하는지 여부에 대한 제1 일치도를 이미지 비교 분석을 통해 산출할 수 있다.In step S1209, the
S1210 단계에서, 서버(200)는 S1203 단계에서 추출된 제2 데이터와 S1208 단계에서 획득된 제4 데이터를 비교하여 제2 일치도를 분석할 수 있다. 이때, 서버(200)는 제2 데이터와 제4 데이터 간에 얼마나 일치하는지 여부에 대한 제2 일치도를 이미지 비교 분석을 통해 산출할 수 있다.In step S1210, the
S1211 단계에서, 서버(200)는 S1209 단계에서 분석된 제1 일치도와 S1210 단계에서 분석된 제2 일치도를 비교하여, 제1 일치도가 제2 일치도 보다 큰지 여부를 확인할 수 있다.In step S1211, the
S1211 단계에서 제1 일치도가 제2 일치도 보다 큰 것으로 확인되면, S1212 단계에서, 서버(200)는 제1 분류 결과를 최종 분류 결과로 설정할 수 있다. 즉, 제1 데이터 및 제3 데이터 간의 일치도가 제2 데이터 및 제4 데이터 간의 일치도 보다 더 크기 때문에, 제1 데이터를 통해 생성된 제1 분류 결과를 최종 분류 결과로 설정할 수 있다.If it is determined in step S1211 that the first degree of agreement is greater than the second degree of agreement, in step S1212, the
S1211 단계에서 제2 일치도가 제1 일치도 보다 큰 것으로 확인되면, S1213 단계에서, 서버(200)는 제2 분류 결과를 최종 분류 결과로 설정할 수 있다. 즉, 제2 데이터 및 제4 데이터 간의 일치도가 제1 데이터 및 제3 데이터 간의 일치도 보다 더 크기 때문에, 제2 데이터를 통해 생성된 제2 분류 결과를 최종 분류 결과로 설정할 수 있다.If it is determined in step S1211 that the second degree of agreement is greater than the first degree of agreement, in step S1213, the
도 13은 일실시예에 따른 균열 인식을 위해 압력 감지 데이터를 획득하는 과정을 설명하기 위한 도면이다.13 is a diagram for describing a process of acquiring pressure sensing data for crack recognition according to an exemplary embodiment.
일실시예에 따르면, 균열 인식 수단(140)은 장치(100)의 하단에 설치되어, 복수의 압력 센서를 포함할 수 있다. 여기서, 각각의 압력 센서는 다양한 센서로 구현될 수 있다.According to an embodiment, the crack recognition means 140 may be installed at the lower end of the
균열 인식 수단(140)에 포함되어 있는 복수의 압력 센서는 구역 별로 배치되어, 각각의 구역에서 콘크리트 표면에 가해지는 압력을 인식할 수 있다. 이때, 균열 인식 수단(140)의 상부에는 콘크리트가 놓여지고, 콘크리트 상단에 압력을 가하는 장치가 추가로 구비될 수 있다.A plurality of pressure sensors included in the crack recognition means 140 are arranged for each zone, so that the pressure applied to the concrete surface in each zone can be recognized. At this time, concrete is placed on the upper part of the crack recognition means 140, and a device for applying pressure to the upper part of the concrete may be additionally provided.
도 13에 도시된 바와 같이, 제1 센서의 좌측 상단에는 제2 센서가 맞닿아 배치되어 있고, 제1 센서의 우측 상단에는 제3 센서가 맞닿아 배치되어 있고, 제1 센서의 좌측에는 제4 센서가 맞닿아 배치되어 있고, 제1 센서의 우측에는 제5 센서가 맞닿아 배치되어 있고, 제1 센서의 좌측 하단에는 제6 센서가 배치되어 있고, 제1 센서의 우측 하단에는 제7 센서가 배치되어 있다.As shown in FIG. 13, a second sensor is disposed in contact with the upper left of the first sensor, a third sensor is disposed in contact with the upper right of the first sensor, and a fourth sensor is disposed on the left side of the first sensor. The sensor is placed in abutment, the fifth sensor is placed in abutment on the right side of the first sensor, the sixth sensor is placed on the lower left of the first sensor, and the seventh sensor is placed on the lower right of the first sensor. It is placed.
제1 센서는 제1 센서가 배치된 제1 구역에 가해지는 압력을 감지하고, 제2 센서는 제2 센서가 배치된 제2 구역에 가해지는 압력을 감지하고, 제3 센서는 제3 센서가 배치된 제3 구역에 가해지는 압력을 감지하고, 제4 센서는 제4 센서가 배치된 제4 구역에 가해지는 압력을 감지하고, 제5 센서는 제5 센서가 배치된 제5 구역에 가해지는 압력을 감지하고, 제6 센서는 제6 센서가 배치된 제6 구역에 가해지는 압력을 감지하고, 제7 센서는 제7 센서가 배치된 제7 구역에 가해지는 압력을 감지할 수 있다. 각각의 센서에서 감지된 압력 값은 장치(100)의 제1 프로세서(150)로 전송될 수 있으며, 장치(100)는 각각의 센서에서 수신된 압력 값을 조합하여, 콘크리트의 정상 영역과 손상 영역을 구분할 수 있다.The first sensor detects the pressure applied to the first area where the first sensor is disposed, the second sensor senses the pressure applied to the second area where the second sensor is disposed, and the third sensor detects the pressure applied to the second area where the second sensor is disposed. The pressure applied to the disposed third area is sensed, the fourth sensor senses the pressure applied to the fourth area in which the fourth sensor is disposed, and the fifth sensor is applied to the fifth area in which the fifth sensor is disposed. The pressure is sensed, the sixth sensor may sense a pressure applied to the sixth region in which the sixth sensor is disposed, and the seventh sensor may sense the pressure applied to the seventh region in which the seventh sensor is disposed. The pressure value sensed by each sensor may be transmitted to the
구체적으로, 장치(100)는 압력 값이 일정하게 분포된 구역을 정상 영역으로 구분하고, 압력 값이 일정하지 않게 분포된 구역을 손상 영역으로 구분할 수 있다.Specifically, the
균열 인식 수단(140)에 포함되어 있는 복수의 압력 센서는 각각의 구역에서 압력을 감지하고, 감지된 압력값이 미리 설정된 압력 기준값 보다 큰 것으로 확인되면, 압력 감지 데이터를 장치(100)의 제1 프로세서(150)로 전송할 수 있다. 여기서, 압력 기준값은 실시예에 따라 상이하게 설정될 수 있다. 압력 감지 데이터에는 균열 인식 수단(140) 상에서 센서가 위치하는 좌표값이 포함되어 있으며, 장치(100)는 좌표값을 이용하여 압력 감지 데이터를 전송한 센서의 위치를 확인할 수 있다. 압력 감지 데이터에는 기준치 이상의 압력이 감지된 것을 알려주는 정보만 포함되어 있고 정확한 압력값은 포함되지 않을 수 있다.A plurality of pressure sensors included in the crack recognition means 140 detect pressure in each area, and when it is determined that the detected pressure value is greater than a preset pressure reference value, the pressure sensing data is transmitted to the first of the
즉, 균열 인식 수단(140)에 포함된 복수의 압력 센서 각각은 콘크리트 표면에 가해진 압력의 크기를 구역별로 감지할 수 있으며, 복수의 압력 센서 중 적어도 하나에서 압력 기준값 보다 큰 압력을 감지한 경우, 장치(100)는 압력 기준값 보다 큰 압력이 감지된 구역에 위치하는 센서의 좌표값에 대한 압력 감지 데이터를 획득할 수 있다.That is, each of the plurality of pressure sensors included in the crack recognition means 140 can detect the magnitude of the pressure applied to the concrete surface for each area, and when at least one of the plurality of pressure sensors detects a pressure greater than the pressure reference value, The
복수의 압력 센서 각각은 압력 기준값 보다 높은 압력값이 측정되면, 압력 감지 데이터를 장치(100)의 제1 프로세서(150)로 전송할 수 있으며, 장치(100)는 압력 감지 데이터가 수신된 센서의 좌표값과 대응하는 위치에 있는 구역을 정상 영역으로 구분할 수 있다.Each of the plurality of pressure sensors may transmit pressure sensing data to the
예를 들어, 장치(100)는 제1 센서 및 제2 센서 각각에서 감지된 압력값을 획득한 상태에서, 제1 센서로부터 압력 감지 데이터를 획득하였으나, 제2 센서로부터 압력 감지 데이터를 획득하지 않은 경우, 제1 센서가 배치된 제1 구역을 정상 영역으로 구분하고, 제2 센서가 배치된 제2 구역을 손상 영역으로 구분할 수 있다.For example, the
즉, 장치(100)는 압력 감지 데이터를 통해 센서의 좌표값을 확인하고, 확인된 좌표값에 대응하는 위치에 있는 구역을 확인하여, 해당 구역을 정상 영역으로 구분할 수 있다.That is, the
일실시예에 따르면, 제1 센서는 미리 정해진 압력 기준값 보다 큰 압력을 감지한 경우, 압력 감지 데이터를 장치(100)의 제1 프로세서(150)로 전송할 수 있는데, 제1 센서가 압력 기준값 보다 큰 압력을 감지하더라도, 제1 센서와 맞닿아 있는 주변의 센서 중 적어도 하나에서 압력 기준값 보다 큰 압력을 감지하지 않은 경우, 제1 센서는 제1 센서의 좌표값에 대한 압력 감지 데이터를 장치(100)로 전송하지 않을 수 있다. 즉, 장치(100)는 제1 센서와 맞닿아 있는 주변의 센서 중 적어도 하나에서 압력 기준값 보다 큰 압력을 감지하지 않은 경우, 제1 센서로부터 압력 감지 데이터가 획득되지 않도록 제어할 수 있다.According to an embodiment, when the first sensor detects a pressure greater than a predetermined pressure reference value, the first sensor may transmit pressure detection data to the
예를 들어, 도 13의 (a)에 도시된 바와 같이, 제1 센서 뿐만 아니라, 제3 센서, 제4 센서, 제5 센서, 제6 센서, 제7 센서는 압력 기준값 보다 큰 압력을 감지하였으나, 제2 센서는 압력 기준값 보다 큰 압력을 감지하지 못한 경우, 제1 센서와 맞닿아 있는 주변의 센서 중 제2 센서가 압력 기준값 보다 큰 압력을 감지하지 못하였으므로, 장치(100)는 제1 센서로부터 압력 감지 데이터를 획득하지 않을 수 있다.For example, as shown in (a) of FIG. 13, not only the first sensor, but also the third sensor, the fourth sensor, the fifth sensor, the sixth sensor, and the seventh sensor sensed a pressure greater than the pressure reference value. , When the second sensor does not detect a pressure greater than the pressure reference value, the second sensor among the surrounding sensors in contact with the first sensor did not detect a pressure greater than the pressure reference value, so that the
한편, 제1 센서는 압력 기준값 보다 큰 압력을 감지한 상태에서, 제1 센서와 맞닿아 있는 주변의 센서 전체에서도 압력 기준값 보다 큰 압력을 감지한 경우, 제1 센서는 제1 센서의 좌표값에 대한 압력 감지 데이터를 장치(100)의 제1 프로세서(150)로 전송할 수 있다. 즉, 장치(100)는 제1 센서와 맞닿아 있는 주변의 센서 전체에서 압력 기준값 보다 큰 압력을 감지한 경우, 제1 센서로부터 압력 감지 데이터를 획득할 수 있다.On the other hand, when the first sensor detects a pressure greater than the pressure reference value, and detects a pressure greater than the pressure reference value even in all of the surrounding sensors in contact with the first sensor, the first sensor corresponds to the coordinate value of the first sensor. The pressure sensing data for the
예를 들어, 도 13의 (b)에 도시된 바와 같이, 제1 센서 뿐만 아니라, 제1 센서를 둘러쌓고 있는 제2 센서, 제3 센서, 제4 센서, 제5 센서, 제6 센서, 제7 센서 전체에서 압력 기준값 보다 큰 압력을 감지한 경우, 제1 센서와 맞닿아 있는 주변의 센서 전체에서 압력 기준값 보다 큰 압력을 감지하였으므로, 장치(100)는 제1 센서로부터 압력 감지 데이터를 획득할 수 있다.For example, as shown in (b) of FIG. 13, not only the first sensor, but also the second sensor, the third sensor, the fourth sensor, the fifth sensor, the sixth sensor, and the third sensor surrounding the first sensor. 7 When a pressure greater than the pressure reference value is sensed in the entire sensor, since a pressure greater than the pressure reference value is sensed in all surrounding sensors in contact with the first sensor, the
도 14는 일실시예에 따른 인공 신경망을 설명하기 위한 도면이다.14 is a diagram illustrating an artificial neural network according to an embodiment.
일실시예에 따른 인공 신경망(1400)은 제1 인공 신경망 및 제2 인공 신경망 중 어느 하나일 수 있다. 제1 인공 신경망인 경우, 제1 데이터의 인코딩에 의해 생성된 제1 입력 신호를 입력으로 하여, 콘크리트 표면이 CSP의 어느 단계로 분류되는지에 대한 정보를 출력으로 할 수 있다. 제2 인공 신경망인 경우, 제2 데이터의 인코딩에 의해 생성된 제2 입력 신호를 입력으로 하여, 콘크리트 표면이 CSP의 어느 단계로 분류되는지에 대한 정보를 출력으로 할 수 있다.The artificial
일실시예에 따른 인코딩은 이미지의 픽셀 별 색 정보를 수치화된 데이터 시트 형태로 저장하는 방식으로 이뤄질 수 있는데, 색 정보는 하나의 픽셀이 가지고 있는 RGB 색상, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다.The encoding according to an embodiment may be performed by storing color information for each pixel of an image in the form of a numerical data sheet, and the color information includes RGB color, brightness information, saturation information, and depth information of one pixel. Can, but is not limited to this.
일실시예에 따르면, 인공 신경망(1400)은 특징 추출 신경망(1410)과 분류 신경망(1420)으로 구성되어 있으며, 특징 추출 신경망(1410)은 이미지에서 콘크리트 영역과 배경 영역을 분리하는 작업을 수행할 수 있으며, 분류 신경망(1420)은 이미지 내에서 콘크리트 표면이 CSP의 어느 단계로 분류되는지 여부를 파악하는 작업을 수행하도록 할 수 있다.According to an embodiment, the artificial
특징 추출 신경망(1410)이 콘크리트 영역과 배경 영역을 구분하는 방법은 이미지를 인코딩한 입력 신호의 데이터 시트로부터 색 정보의 각 값들의 변화가 한 픽셀을 포함하는 8개의 픽셀 중 6개 이상에서 30% 이상의 변화가 생긴 것으로 감지되는 픽셀들의 묶음을 콘크리트 영역과 배경 영역의 경계로 삼을 수 있으나, 이에 국한하지 않는다.The method of distinguishing the concrete area and the background area by the feature extraction neural network 1410 is that the change of each value of color information from the data sheet of the input signal encoding the image is 30% in 6 or more of 8 pixels including one pixel. A bundle of pixels detected as having the above change may be used as a boundary between the concrete area and the background area, but is not limited thereto.
특징 추출 신경망(1410)은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The feature extraction neural network 1410 proceeds by sequentially stacking the convolutional layer and the pooling layer on the input signal. The convolution layer includes convolution operations, convolution filters, and activation functions. The calculation of the convolution filter is adjusted according to the size of the matrix of the target input, but generally a 9X9 matrix is used. The activation function generally uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. The pooling layer is a layer that reduces the size of an input matrix, and uses a method of extracting a representative value by grouping pixels in a specific area. In general, an average value or a maximum value is often used for the operation of the pooling layer, but is not limited thereto. This operation is performed using a square matrix, usually a 9X9 matrix. The convolutional layer and the pooling layer are alternately iterated until the corresponding input is small enough while maintaining the difference.
분류 신경망(1420)은 특징 추출 신경망(1410)을 통해 배경으로부터 구분된 콘크리트 영역의 표면을 확인하고, 미리 정의된 CSP의 단계별 표면 상태와 유사한지 여부를 확인하여, 콘크리트 영역의 표면이 CSP의 어느 단계로 분류되는지 여부를 파악할 수 있다. CSP의 단계별 표면 상태와 비교하기 위해, 메모리(160) 또는 데이터베이스(250)에 저장된 정보들을 활용할 수 있다.The classification neural network 1420 checks the surface of the concrete region separated from the background through the feature extraction neural network 1410, and checks whether the surface state of the concrete region is similar to the stepwise surface state of the predefined CSP. It is possible to determine whether or not it is classified into stages. Information stored in the
분류 신경망(1420)은 히든 레이어와 출력 레이어를 가지고 있으며, 5층 이하의 히든 레이어로 구성되어, 총 50개 이하의 히든 레이어 노드를 포함하고, 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다.The classification neural network 1420 has a hidden layer and an output layer, is composed of 5 or less hidden layers, and includes a total of 50 or less hidden layer nodes, and the activation function of the hidden layer is a ReLU function and a sigmoid function. And tanh function, but are not limited thereto.
분류 신경망(1420)는 총 1개의 출력층 노드만 포함할 수 있다.The classification neural network 1420 may include only one output layer node in total.
분류 신경망(1420)의 출력은 콘크리트 표면이 CSP의 어느 단계로 분류되는지에 대한 출력값으로, CSP의 어느 단계에 해당하는지를 지시할 수 있다. 예를 들어, 출력값이 1인 경, 콘크리트 표면이 CSP 1에 해당하는 것을 지시하고, 출력값이 2인 경우, 콘크리트 표면이 CSP 2에 해당하는 것을 지시할 수 있다.The output of the classification neural network 1420 is an output value indicating which stage of the CSP is classified as the concrete surface, and may indicate which stage of the CSP corresponds to. For example, when the output value is 1, it is indicated that the concrete surface corresponds to
일실시예에 따르면, 인공 신경망(1400)은 사용자가 인공 신경망(1400)에 따른 출력의 문제점 발견 시 사용자에 의해 입력된 수정 정답에 의해 생성되는 제1 학습 신호를 전달받아 학습할 수 있다. 인공 신경망(1400)에 따른 출력의 문제점은 콘크리트 표면에 대해 CSP의 다른 단계로 분류한 출력값을 출력한 경우를 의미할 수 있다.According to an embodiment, the artificial
일실시예에 따른 제1 학습 신호는 정답과 출력값의 오차를 바탕으로 만들어지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 인공 신경망(1400)은 제1 학습 신호에 의해 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다. 이하 도 15를 참조하여 인공 신경망(1400)의 학습 내용이 후술된다.The first learning signal according to an embodiment is generated based on an error between a correct answer and an output value, and in some cases, an SGD using a delta, a batch method, or a method following a backpropagation algorithm may be used. The artificial
도 15는 일실시예에 따른 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.15 is a diagram illustrating a method of learning an artificial neural network according to an embodiment.
일실시예에 따르면, 학습 장치는 인공 신경망(1400)을 학습시킬 수 있다. 학습 장치는 장치(100) 및 서버(200)와 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니다.According to an embodiment, the learning device may train the artificial
일실시예에 따르면, 인공 신경망(1400)은 트레이닝 샘플들이 입력되는 입력 레이어와 트레이닝 출력들을 출력하는 출력 레이어를 포함하고, 트레이닝 출력들과 제1 레이블들 사이의 차이에 기초하여 학습될 수 있다. 여기서, 제1 레이블들은 CSP의 단계별로 등록되어 있는 대표 이미지에 기초하여 정의될 수 있다. 인공 신경망(1400)은 복수의 노드들의 그룹으로 연결되어 있고, 연결된 노드들 사이의 가중치들과 노드들을 활성화시키는 활성화 함수에 의해 정의된다. According to an embodiment, the artificial
학습 장치는 GD(Gradient Decent) 기법 또는 SGD(Stochastic Gradient Descent) 기법을 이용하여 인공 신경망(1400)을 학습시킬 수 있다. 학습 장치는 인공 신경망(1400)의 출력들 및 레이블들 의해 설계된 손실 함수를 이용할 수 있다.The learning device may train the artificial
학습 장치는 미리 정의된 손실 함수(loss function)을 이용하여 트레이닝 에러를 계산할 수 있다. 손실 함수는 레이블, 출력 및 파라미터를 입력 변수로 미리 정의될 수 있고, 여기서 파라미터는 인공 신경망(1400) 내 가중치들에 의해 설정될 수 있다. 예를 들어, 손실 함수는 MSE(Mean Square Error) 형태, 엔트로피(entropy) 형태 등으로 설계될 수 있는데, 손실 함수가 설계되는 실시예에는 다양한 기법 또는 방식이 채용될 수 있다.The learning device may calculate a training error using a predefined loss function. The loss function may be predefined with a label, an output, and a parameter as input variables, where the parameter may be set by weights in the artificial
학습 장치는 역전파(backpropagation) 기법을 이용하여 트레이닝 에러에 영향을 주는 가중치들을 찾아낼 수 있다. 여기서, 가중치들은 인공 신경망(1400) 내 노드들 사이의 관계들이다. 학습 장치는 역전파 기법을 통해 찾아낸 가중치들을 최적화시키기 위해 레이블들 및 출력들을 이용한 SGD 기법을 이용할 수 있다. 예를 들어, 학습 장치는 레이블들, 출력들 및 가중치들에 기초하여 정의된 손실 함수의 가중치들을 SGD 기법을 이용하여 갱신할 수 있다.The learning device may find weights that affect the training error using a backpropagation technique. Here, the weights are relationships between nodes in the artificial
일실시예에 따르면, 학습 장치는 메모리(160) 또는 데이터베이스(250)로부터 레이블드 트레이닝 CSP 단계별 대표 이미지들(1501)을 획득할 수 있다. 학습 장치는 CSP 단계별 대표 이미지들(1501)에 각각 미리 레이블링된 정보를 획득할 수 있는데, CSP 단계별 대표 이미지들(1501)은 미리 분류된 CSP 단계에 따라 레이블링될 수 있다.According to an embodiment, the learning apparatus may obtain
일실시예에 따르면, 학습 장치는 1000개의 레이블드 트레이닝 CSP 단계별 대표 이미지들(1501)을 획득할 수 있으며, 레이블드 트레이닝 CSP 단계별 대표 이미지들(1501)에 기초하여 제1 트레이닝 CSP 단계별 벡터들(1502)을 생성할 수 있다. 제1 트레이닝 CSP 단계별 벡터들(1502)을 추출하는데는 다양한 방식이 채용될 수 있다.According to an embodiment, the learning apparatus may acquire 1000 labeled training CSP step-by-
일실시예에 따르면, 학습 장치는 제1 트레이닝 CSP 단계별 벡터들(1502)을 인공 신경망(1400)에 적용하여 제1 트레이닝 출력들(1503)을 획득할 수 있다. 학습 장치는 제1 트레이닝 출력들(1503)과 제1 레이블들(1504)에 기초하여 인공 신경망(1400)을 학습시킬 수 있다. 학습 장치는 제1 트레이닝 출력들(1503)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 인공 신경망(1400) 내 노드들의 연결 관계를 최적화하여 인공 신경망(1400)을 학습시킬 수 있다.According to an embodiment, the learning apparatus may obtain
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices, methods, and components described in the embodiments are, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. Further, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to operate as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or, to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited drawings, a person of ordinary skill in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order from the described method, and/or components such as systems, structures, devices, circuits, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and claims and equivalents fall within the scope of the following claims.
Claims (3)
라이다를 통해 콘크리트 표면에 대한 3D 데이터를 획득하고, 카메라를 통해 상기 콘크리트 표면에 대한 2D 데이터를 획득하는 단계;
상기 2D 데이터와 상기 3D 데이터의 합집합 영역을 분리하여, 상기 2D 데이터 및 상기 3D 데이터를 병합한 제1 데이터를 추출하는 단계;
상기 제1 데이터를 인코딩 하여 제1 입력 신호를 생성하는 단계;
상기 제1 입력 신호를 장치 내 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망의 입력의 결과에 기초하여, 제1 출력 신호를 획득하는 단계;
상기 제1 출력 신호에 기초하여, 상기 콘크리트 표면에 대한 제1 분류 결과를 생성하는 단계;
상기 제1 데이터 및 상기 제1 분류 결과를 서버로 전송하는 단계;
상기 서버로 전송된 제1 데이터를 분석하여 상기 콘크리트 표면에 발생한 균열을 검출하는 단계;
상기 콘크리트 표면에 발생한 균열을 영역별로 확인하여, 제1 기준치 미만으로 균열이 검출된 정상 영역과 상기 제1 기준치 이상으로 균열이 검출된 손상 영역을 구분하는 단계;
상기 제1 데이터에서 상기 손상 영역을 삭제한 제2 데이터를 추출하는 단계;
상기 제2 데이터를 인코딩 하여 제2 입력 신호를 생성하는 단계;
상기 제2 입력 신호를 상기 서버 내 제2 인공 신경망에 입력하고, 상기 제2 인공 신경망의 입력의 결과에 기초하여, 제2 출력 신호를 획득하는 단계;
상기 제2 출력 신호에 기초하여, 상기 콘크리트 표면에 대한 제2 분류 결과를 생성하는 단계; 및
상기 제1 분류 결과 및 상기 제2 분류 결과가 동일한 경우, 상기 제1 분류 결과 및 상기 제2 분류 결과 중 어느 하나를 상기 콘크리트 표면에 대한 최종 분류 결과로 설정하는 단계를 포함하는,
머신비전 및 3D 프로파일을 통한 콘크리트 표면 분석 방법.In the method of analyzing the concrete surface through the machine vision and 3D profile performed by the system,
Obtaining 3D data on the concrete surface through a lidar and obtaining 2D data on the concrete surface through a camera;
Separating the union region of the 2D data and the 3D data, and extracting first data obtained by merging the 2D data and the 3D data;
Encoding the first data to generate a first input signal;
Inputting the first input signal to a first artificial neural network in a device, and obtaining a first output signal based on a result of the input of the first artificial neural network;
Generating a first classification result for the concrete surface based on the first output signal;
Transmitting the first data and the first classification result to a server;
Analyzing the first data transmitted to the server to detect cracks occurring on the concrete surface;
Identifying a crack generated on the concrete surface by region, and dividing a normal region in which a crack is detected below a first reference value and a damaged region in which a crack is detected above the first reference value;
Extracting second data from which the damaged area is deleted from the first data;
Encoding the second data to generate a second input signal;
Inputting the second input signal to a second artificial neural network in the server, and obtaining a second output signal based on a result of the input of the second artificial neural network;
Generating a second classification result for the concrete surface based on the second output signal; And
If the first classification result and the second classification result are the same, comprising the step of setting any one of the first classification result and the second classification result as a final classification result for the concrete surface,
Concrete surface analysis method through machine vision and 3D profile.
상기 최종 분류 결과에 따라 상기 제2 데이터에 대한 영상처리 및 패턴인식을 수행하여 상기 콘크리트 표면을 분석하는 단계;
상기 최종 분류 결과에 대한 작업자의 판단 결과를 획득하는 단계;
상기 판단 결과가 제2 기준치 이상으로 수집되면, 상기 수집된 판단 결과들을 상기 서버와 연결된 클라우드에 전송하는 단계;
상기 판단 결과들을 통해 상기 제2 인공 신경망에 대한 추가 학습이 수행되도록 처리하는 단계; 및
상기 제2 인공 신경망을 통한 학습 결과와 상기 제1 인공 신경망을 통한 학습 결과에 대한 성능을 비교하여, 상기 제2 인공 신경망을 통한 학습 결과가 제3 기준치 이상으로 성능이 향상된 경우, 상기 제2 인공 신경망을 통해 상기 제1 인공 신경망의 딥러닝 모델을 갱신하는 단계를 더 포함하는,
머신비전 및 3D 프로파일을 통한 콘크리트 표면 분석 방법.The method of claim 1,
Analyzing the concrete surface by performing image processing and pattern recognition on the second data according to the final classification result;
Obtaining a result of the operator's judgment on the final classification result;
If the determination result is collected above a second reference value, transmitting the collected determination results to a cloud connected to the server;
Processing the second artificial neural network to perform additional learning based on the determination results; And
When the learning result through the second artificial neural network is compared with the performance of the learning result through the first artificial neural network, and the learning result through the second artificial neural network is improved by more than a third reference value, the second artificial neural network Further comprising the step of updating the deep learning model of the first artificial neural network through a neural network,
Concrete surface analysis method through machine vision and 3D profile.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210011104A KR102252845B1 (en) | 2021-01-26 | 2021-01-26 | Method, device and system for analyzing concrete surface through machine vision and 3d profile |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210011104A KR102252845B1 (en) | 2021-01-26 | 2021-01-26 | Method, device and system for analyzing concrete surface through machine vision and 3d profile |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102252845B1 true KR102252845B1 (en) | 2021-05-27 |
Family
ID=76135419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210011104A KR102252845B1 (en) | 2021-01-26 | 2021-01-26 | Method, device and system for analyzing concrete surface through machine vision and 3d profile |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102252845B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102452100B1 (en) * | 2021-05-24 | 2022-10-12 | 라이트하우스(주) | Method, device and system for providing learning service base on brain wave and blinking eyes |
KR102521825B1 (en) * | 2022-08-08 | 2023-04-14 | 주식회사 한국 종합엔지니어링 | Automatic determination system for determinating abnormal area of structure damage based on point cloud |
KR20240028111A (en) | 2022-08-24 | 2024-03-05 | 최승주 | Machine vision systems for automated surface quality measurement |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190059639A (en) * | 2017-11-23 | 2019-05-31 | 울산과학기술원 | Apparatus and method for measureing a crack in a concrete surface |
KR20190066789A (en) * | 2017-12-06 | 2019-06-14 | 서울시립대학교 산학협력단 | image-based concrete crack assessment system using deep learning |
KR20200029860A (en) * | 2018-09-11 | 2020-03-19 | 고려대학교 산학협력단 | Method and apparatus for measuring crack depth of structure using thermo-graphical image |
KR20200052630A (en) * | 2018-11-07 | 2020-05-15 | 투아이시스(주) | System for detecting stereo of roadbed crack using line scan camera and method therefor |
-
2021
- 2021-01-26 KR KR1020210011104A patent/KR102252845B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190059639A (en) * | 2017-11-23 | 2019-05-31 | 울산과학기술원 | Apparatus and method for measureing a crack in a concrete surface |
KR20190066789A (en) * | 2017-12-06 | 2019-06-14 | 서울시립대학교 산학협력단 | image-based concrete crack assessment system using deep learning |
KR20200029860A (en) * | 2018-09-11 | 2020-03-19 | 고려대학교 산학협력단 | Method and apparatus for measuring crack depth of structure using thermo-graphical image |
KR20200052630A (en) * | 2018-11-07 | 2020-05-15 | 투아이시스(주) | System for detecting stereo of roadbed crack using line scan camera and method therefor |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102452100B1 (en) * | 2021-05-24 | 2022-10-12 | 라이트하우스(주) | Method, device and system for providing learning service base on brain wave and blinking eyes |
KR102521825B1 (en) * | 2022-08-08 | 2023-04-14 | 주식회사 한국 종합엔지니어링 | Automatic determination system for determinating abnormal area of structure damage based on point cloud |
KR20240028111A (en) | 2022-08-24 | 2024-03-05 | 최승주 | Machine vision systems for automated surface quality measurement |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102252845B1 (en) | Method, device and system for analyzing concrete surface through machine vision and 3d profile | |
CN110032962B (en) | Object detection method, device, network equipment and storage medium | |
CN109902602B (en) | Method for identifying foreign matter material of airport runway based on antagonistic neural network data enhancement | |
JP2019035626A (en) | Recognition method of tire image and recognition device of tire image | |
CN111402227B (en) | Bridge crack detection method | |
KR102333520B1 (en) | Method, device and system for detecting object on road | |
CN111178206A (en) | Building embedded part detection method and system based on improved YOLO | |
KR102299586B1 (en) | Method, device and system for deriving building construction method based on artificial intelligence using big data of video taken with drone | |
WO2022188327A1 (en) | Method and apparatus for training positioning image acquisition model | |
KR102440385B1 (en) | Method and apparatus of recognizing motion pattern base on combination of multi-model | |
CN112446870A (en) | Pipeline damage detection method, device, equipment and storage medium | |
KR102287891B1 (en) | Method, device and system for analyzing quality of aggregate based on artificial intelligence using fusion technology between lidar and camera | |
CN110909657A (en) | Method for identifying apparent tunnel disease image | |
KR102559586B1 (en) | Structural appearance inspection system and method using artificial intelligence | |
KR102299295B1 (en) | Method, device and system for calculating maintenance estimate for building based on artificial intelligence using big data of video taken with drone | |
CN112183301A (en) | Building floor intelligent identification method and device | |
CN110472640B (en) | Target detection model prediction frame processing method and device | |
Ali et al. | Wall crack detection using transfer learning-based CNN models | |
CN114612659A (en) | Power equipment segmentation method and system based on fusion mode contrast learning | |
CN111583417B (en) | Method and device for constructing indoor VR scene based on image semantics and scene geometry joint constraint, electronic equipment and medium | |
KR102260556B1 (en) | Deep learning-based parking slot detection method and apparatus integrating global and local information | |
WO2021186640A1 (en) | Deterioration detection device, deterioration detection system, deterioration detection method, and program | |
CN117173568A (en) | Target detection model training method and target detection method | |
Guan et al. | Multi-scale asphalt pavement deformation detection and measurement based on machine learning of full field-of-view digital surface data | |
KR102465284B1 (en) | Method, device and system for detecting structure crack based on mobile terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |