KR20220170122A - System for monitoring of structural and method ithereof - Google Patents

System for monitoring of structural and method ithereof Download PDF

Info

Publication number
KR20220170122A
KR20220170122A KR1020210080763A KR20210080763A KR20220170122A KR 20220170122 A KR20220170122 A KR 20220170122A KR 1020210080763 A KR1020210080763 A KR 1020210080763A KR 20210080763 A KR20210080763 A KR 20210080763A KR 20220170122 A KR20220170122 A KR 20220170122A
Authority
KR
South Korea
Prior art keywords
image
coordinates
learning
structural health
data
Prior art date
Application number
KR1020210080763A
Other languages
Korean (ko)
Other versions
KR102563346B1 (en
Inventor
허종완
모스베 칼룹
주영훈
Original Assignee
인천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인천대학교 산학협력단 filed Critical 인천대학교 산학협력단
Priority to KR1020210080763A priority Critical patent/KR102563346B1/en
Publication of KR20220170122A publication Critical patent/KR20220170122A/en
Application granted granted Critical
Publication of KR102563346B1 publication Critical patent/KR102563346B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/16Measuring arrangements characterised by the use of optical techniques for measuring the deformation in a solid, e.g. optical strain gauge
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

The present invention is intended to provide a structural health monitoring system and a monitoring method using the same. The present invention is configured to evaluate structural health according to external force using an imaging device that takes images so as to measure the structural health without installing a device that measures a displacement of the structure separately. Thus, the present invention can monitor structures in real time and predict structural health. The structural health monitoring method includes steps of: extracting a series of effective frames for predicting the health of the structure from an image of the structure for monitoring the health; estimating an optical flow for the series of effective frames; and determining the health of structures represented in the series of effective frames based on the optical flow.

Description

구조물 건전성 모니터링 시스템 및 이를 이용한 모니터링 방법{SYSTEM FOR MONITORING OF STRUCTURAL AND METHOD ITHEREOF}Structure integrity monitoring system and monitoring method using the same {SYSTEM FOR MONITORING OF STRUCTURAL AND METHOD ITHEREOF}

본 발명은 구조물 건전성 모니터링 시스템 및 이를 이용한 모니터링 방법에 관한 것으로, 보다 자세하게는 구조물의 건전성(Structural Health)을 실시간으로 모니터링할 수 있는 구조물 건전성 모니터링 시스템 및 이를 이용한 모니터링 방법에 관한 것이다. The present invention relates to a structural health monitoring system and a monitoring method using the same, and more particularly, to a structural health monitoring system capable of monitoring structural health in real time and a monitoring method using the same.

이하에서 기술되는 내용은 본 발명의 실시 예와 관련되는 배경 정보를 제공할 목적으로 기재된 것일 뿐이고, 기술되는 내용들이 당연하게 종래기술을 구성하는 것은 아니다. The contents described below are only described for the purpose of providing background information related to an embodiment of the present invention, and the contents described do not naturally constitute prior art.

건설된 대형 구조물과 시설물들은 설계 및 시공 과정에서의 결함 또는 설계 당시에 고려하지 못하였던 각종 요인으로 인하여 구조 손상이 발생되며, 이러한 구조물들의 사용 기간이 경과함에 따라 점차 노후화됨으로써 그 안전성이 크게 위협을 받고 있다. 예를 들면, 심각한 정도의 구조 손상이 발생한 구조물의 경우, 설계 당시에 계획되었던 설계 사용 연한에 크게 못 미칠 정도로 사용 연한의 단축을 초래하는 경우도 빈번히 발생하고 있다. 이에 따라 건축 구조물의 장기적인 안전성 및 작동성을 확보하기 위한 노력이 절실히 요구되고 있다. 특히, 건물, 교량, 댐 등과 같은 대형 구조물은 각종 운영 하중, 외부 물체에 의한 충격, 지진, 풍하중, 파랑 하중, 부식 등에 지속적으로 노출되어 있기 때문에 이들로부터 구조물의 안전을 확보하는 문제는 경제, 사회적으로 지대한 관심의 현안이 되고 있다. 이러한 대형 구조물들의 정확한 안전 진단을 위해서는 적절한 실험 계측을 통한 구조물 변위의 모니터링, 구조물 손상을 역학적으로 분석하는 기술 및 구조물 손상을 모델화하는 해석 기술을 통한 진단 기술이 요구된다.Large structures and facilities constructed are subject to structural damage due to defects in the design and construction process or various factors not considered at the time of design. there is. For example, in the case of a structure in which a serious degree of structural damage occurs, it frequently occurs that the service life is shortened to a degree that is far short of the designed service life planned at the time of design. Accordingly, efforts to secure long-term safety and operability of building structures are urgently required. In particular, since large structures such as buildings, bridges, and dams are continuously exposed to various operational loads, impacts by external objects, earthquakes, wind loads, wave loads, and corrosion, the problem of securing the safety of structures from them is an economic and social problem. has become a subject of great interest. In order to accurately diagnose the safety of these large structures, diagnosis techniques are required through monitoring of displacement through appropriate experimental measurements, techniques for mechanically analyzing structural damage, and analysis techniques for modeling structural damage.

구조 건전성 모니터링(SHM: structural health monitoring)은 비파괴 검사를 이용하여 구조물의 구조적 손상을 모니터링하는 방법으로 토목 공학 분야에서 많은 관심을 받고 있다. 예를 들어, 구조물이 자연적 또는 인위적인 해저드(hazard)의해 여기(excited)되었을 때, 구조물의 강성과 댐핑과 같은 속성들은 변하게 된다. 이를, 센서를 통해 관측된 구조물의 변화들은 SHM 시스템에 전달되고, SHM 시스템은 사전에 대처할 수 있도록 손상 정도와 위치 등을 특정하여 실시간으로 제공한다.Structural health monitoring (SHM) is a method of monitoring structural damage of a structure using non-destructive testing and has received much attention in the field of civil engineering. For example, when a structure is excited by a natural or man-made hazard, properties such as stiffness and damping of the structure change. Changes in the structure observed through the sensor are transmitted to the SHM system, and the SHM system specifies and provides the degree of damage and location in real time so as to cope with it in advance.

그러나, 개시된 구조 건전성 모니터링은 주로 센서를 기반으로 하며, 센서에 기 저장된 기준 레벨과 비교하기 위해 측정 구조물에 센서가 직접 접촉해야 한다는 한계가 있다. 더불어, 구조물이 대형화 될수록 설치하는 센서의 개수가 증가해야 구조 건전성 평가가 이루어질 수 있다. 이에 따라 보다 정확한 구조 건전성 평가를 위해서는 센서 설치 비용이 증가한다는 한계가 있다. However, the disclosed structure integrity monitoring is mainly based on sensors, and has a limitation in that the sensor must directly contact the measurement structure in order to compare with a reference level previously stored in the sensor. In addition, as the size of the structure increases, the number of sensors to be installed must increase so that structural integrity can be evaluated. Accordingly, in order to more accurately evaluate structural integrity, there is a limitation in that the sensor installation cost increases.

이에 따라 대형화된 구조물의 건전성을 평가할 수 있으며, 직접 설치를 최소화하여 구조물의 건전성을 모니터링할 수 있는 기술이 필요한 실정이다. Accordingly, a technology capable of evaluating the soundness of a large-sized structure and minimizing direct installation to monitor the soundness of the structure is required.

전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.The foregoing background art is technical information that the inventor possessed for derivation of the present invention or acquired during the derivation process of the present invention, and cannot necessarily be said to be known art disclosed to the general public prior to filing the present invention.

본 발명의 일 과제는, 건전성을 모니터링하기 위한 장치를 구조물에 직접 설치하지 않고도 구조물의 건전성을 모니터링할 수 있도록 한다. One object of the present invention is to make it possible to monitor the soundness of a structure without directly installing a device for monitoring the soundness on the structure.

또한, 본 발명의 일 과제는 인공지능을 이용하여 구조물의 건전성을 평가할 수 있도록 하는데 있다. In addition, one object of the present invention is to evaluate the soundness of a structure using artificial intelligence.

또한, 본 발명의 일 과제는 외부 하중에 의해 구조물에 손상이 발생했는지를 판단하기 위해 구조 해석을 할 필요가 없으며 설치 및 유지 보수 비용을 최소화할 수 있도록 하는데 있다. In addition, one object of the present invention is to eliminate the need for structural analysis to determine whether damage to a structure has occurred due to an external load, and to minimize installation and maintenance costs.

본 발명의 목적은 이상에서 언급한 과제에 한정되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시 예에 의해보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 청구범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 알 수 있을 것이다.The object of the present invention is not limited to the above-mentioned tasks, and other objects and advantages of the present invention not mentioned above can be understood by the following description and will be more clearly understood by the embodiments of the present invention. It will also be seen that the objects and advantages of the present invention may be realized by means of the instrumentalities and combinations indicated in the claims.

본 발명의 실시 예에 따른 구조물의 건전성을 모니터링하는 방법은, 건전성(Structural Health)을 모니터링하기 위한 구조물을 촬영한 영상으로부터 상기 구조물의 건전성을 예측하기 위한 일련의 유효 프레임을 추출하고, 상기 일련의 유효 프레임에 대한 광학 흐름(Optical flow)을 추정한 후, 상기 광학 흐름에 기반하여 상기 일련의 유효 프레임에 나타난 구조물의 건전성을 결정하기 위한 코드를 저장하는 과정으로 이루어질 수 있다. A method for monitoring the health of a structure according to an embodiment of the present invention extracts a series of effective frames for predicting the health of a structure from an image of a structure for monitoring structural health, and extracts a series of effective frames for predicting the health of the structure. After estimating the optical flow for valid frames, a process of storing a code for determining the integrity of structures represented in the series of valid frames based on the optical flow may be performed.

구체적으로, 유효 프레임을 추출할 때, 상기 구조물을 촬영한 3차원 이미지를 2차원 이미지로 보정할 수 있다.Specifically, when extracting an effective frame, a 3D image obtained by capturing the structure may be corrected into a 2D image.

이미지 보정 시, 상기 3차원 이미지에서 임의의 좌표를 선택하고, 상기 임의의 좌표를 기준으로 상기 2 차원 이미지에 투영되는 투영 좌표를 생성하는 과정으로 보정할 수 있다. When correcting an image, correction may be performed by selecting an arbitrary coordinate in the 3D image and generating projection coordinates projected onto the 2D image based on the arbitrary coordinate.

투영 좌표를 생성 이후에, 상기 2차원 이미지의 스케일, 호모그래피 행렬을 이용한 변환 행렬 및 상기 2차원 이미지의 픽셀을 이용하여 추출한 이미지 좌표를 순차적으로 곱하여 실제 좌표를 추출할 수 있다. After generating the projected coordinates, the actual coordinates may be extracted by sequentially multiplying the scale of the 2D image, the conversion matrix using the homography matrix, and the image coordinates extracted using the pixels of the 2D image.

건전성 결정 시 실제 좌표를 가우시안 필터(Gaussian Kernel)에 적용하며, When determining soundness, the real coordinates are applied to a Gaussian Kernel,

상기 가우시안 필터(Gaussian Kernel)는,

Figure pat00001
(여기서, w와 h는 이미지의 너비와 높이이며,
Figure pat00002
는 실수 x를 입력값(input)으로 취하고 x보다 작거나 같은 가장 큰 정수를 출력값(output)으로 제공하는 플로어 함수(floor function)인)로 정의할 수 있다. The Gaussian filter (Gaussian Kernel),
Figure pat00001
(Where w and h are the width and height of the image,
Figure pat00002
can be defined as a floor function that takes as input a real number x and provides as output the largest integer less than or equal to x.

투영 좌표를 가우시안 필터에 적용할 때, 상기 구조물의 건전성(d)은

Figure pat00003
로 계산될 수 있다(여기서, Xi와 Xo는 이미지 픽셀의 현재 위치 좌표 및 원본 위치좌표이고, *은 요소 별 곱셈 연산자인).When applying the projection coordinates to the Gaussian filter, the soundness (d) of the structure is
Figure pat00003
(where X i and X o are the current position coordinates and original position coordinates of image pixels, and * is an element-by-element multiplication operator).

유효 프레임 추출 시, 2차원 이미지에서 특징점(feature detection)을 기반으로 하는 투영 좌표를 추출하고, 구조물 건전성 결정 시, 기 저장된 기준 좌표와 상기 투영 좌표를 비교하여 상기 투영 좌표의 이동을 판단하는 과정을 통해 이루어질 수 있다. When extracting an effective frame, extracting projected coordinates based on feature detection from a 2D image, and determining movement of the projected coordinates by comparing the projected coordinates with previously stored reference coordinates when determining structural integrity can be done through

더불어, 유효 프레임 추출 시, 2차원 이미지의 포커스 후방에 위치한 이미지는 가중치를 낮추고, 상기 2차원 이미지의 포커스 전방에 위치한 이미지는 가중치를 높일 수 있다. In addition, when extracting an effective frame, a weight of an image positioned behind a focus of a 2D image may be lowered, and a weight of an image positioned in front of a focus of the 2D image may be increased.

광학 흐름을 추정할 때, 상기 유효 프레임의 흔들림을 보정하고, 흔들임이 보정된 상기 유효 프레임들을 미리 훈련된 광학 흐름 추정 예측 모델에 입력하는 과정으로 수행될 수 있다. When estimating the optical flow, shaking of the effective frames may be corrected, and the shake-corrected valid frames may be input into a pre-trained optical flow estimation prediction model.

광학 흐름 추정 예측 모델에 입력하는 과정에서 상기 구조물의 건전성을 추출하기 위해 서로 다른 유효 프레임을 적층하고 9개의 합성곱(Convolution layer)이 있는 네트워크(Generic Network)를 통과하고, 네트워크 통과는 광학 흐름 추정 예측 모델 중 플로우 넷-S(FlowNet-S), 플로우 넷-C(FlowNet-C) 및 FlowNet2 중 적어도 어느 하나를 이용하여 수행될 수 있다. In order to extract the soundness of the structure in the process of inputting it to the optical flow estimation prediction model, different effective frames are stacked and passed through a network with 9 convolution layers (Generic Network), and the network passes through optical flow estimation. It may be performed using at least one of FlowNet-S, FlowNet-C, and FlowNet2 among prediction models.

한편, 본 발명의 실시 예에 따른 구조물의 건전성을 모니터링하는 시스템은, 적어도 하나의 프로세서 및 상기 프로세서와 동작 가능하게 연결되고, 상기 프로세서에서 수행되는 적어도 하나의 코드를 저장하는 메모리를 포함하고, 상기 메모리는 상기 프로세서를 통해 실행될 때, 상기 프로세서로 하여금, 건정성(Structural Health)을 모니터링하기 위한 구조물을 촬영한 동영상으로부터 상기 구조물의 건전성을 예측하기 위한 일련의 유효 프레임을 추출하고, 상기 일련의 유효 프레임에 대한 광학 흐름(Optical flow)을 추정한 후, 상기 광학 흐름에 기반하여 상기 일련의 유효 프레임에 나타난 구조물의 건전성을 결정하기 위한 코드를 저장할 수 있다. Meanwhile, a system for monitoring the health of a structure according to an embodiment of the present invention includes at least one processor and a memory operatively connected to the processor and storing at least one code executed by the processor. When the memory is executed through the processor, it causes the processor to extract a series of effective frames for predicting the health of the structure from a moving picture of the structure for monitoring the structural health, and the series of effective frames for predicting the structural health. After estimating the optical flow for a frame, a code for determining the integrity of structures represented in the series of valid frames based on the optical flow may be stored.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features and advantages other than those described above will become apparent from the following drawings, claims and detailed description of the invention.

본 발명에 의하면, 변위가 발생할 수 있는 구조물을 촬영하고, 촬영한 구조물의 이미지를 학습 데이터로 생성한 뒤, 생성된 학습 데이터를 학습하고, 구조물을 촬영한 이미지를 구조물 변위 예측 모델에 입력하여 구조물의 건정성을 모니터링할 수 있도록 한다. According to the present invention, a structure in which displacement may occur is photographed, an image of the photographed structure is generated as learning data, the generated learning data is learned, and the image of the structure is input to a structure displacement prediction model. to monitor the health of

즉, 구조물 변위를 측정하는 장치를 구조물에 별도로 설치하지 않고도 구조물의 건전성을 추정할 수 있게 되어 구조물 건전성 평가를 위한 설치 비용을 효과적으로 절감할 수 있다. That is, since it is possible to estimate the soundness of a structure without separately installing a device for measuring the displacement of the structure, it is possible to effectively reduce installation costs for structural soundness evaluation.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 실시 예에 따른 구조물 변위 모니터링 시스템의 환경을 도시한 도면이다.
도 2는 본 발명의 실시 예에 따른 서버 구성을 도시한 도면이다.
도 3은 본 발명의 실시 예에 따른 구조물 변위 모니터링 시스템을 이용하여 구조물 변위 모니터링 과정을 도시한 도면이다.
도 4는 본 발명의 실시 예에 따라 구조물을 모니터링하는 예를 도시한 도면이다.
도 5 및 도 6은 본 발명의 실시 예에 따라 구조물을 촬영한 이미지 프레임을 통해 구조물 변위를 확인하는 예를 도시한 도면이다.
도 7은 본 발명의 실시 예에 따른 광학 흐름의 예를 도시한 도면이다.
도 8은 본 발명의 실시 예에 따라 구조물의 거동을 계산하는 과정을 도시한 도면이다.
도 9는 본 발명의 실시 예에 따라 구조물의 건전성 측정 및 평가하는 과정을 개략적으로 도시한 도면이다.
1 is a diagram illustrating an environment of a structure displacement monitoring system according to an embodiment of the present invention.
2 is a diagram illustrating a server configuration according to an embodiment of the present invention.
3 is a diagram illustrating a structure displacement monitoring process using a structure displacement monitoring system according to an embodiment of the present invention.
4 is a diagram illustrating an example of monitoring a structure according to an embodiment of the present invention.
5 and 6 are diagrams illustrating an example of checking a structure displacement through an image frame in which a structure is photographed according to an embodiment of the present invention.
7 is a diagram illustrating an example of an optical flow according to an embodiment of the present invention.
8 is a diagram illustrating a process of calculating the behavior of a structure according to an embodiment of the present invention.
9 is a diagram schematically illustrating a process of measuring and evaluating the soundness of a structure according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 여기에서 설명하는 실시 예들에 한정되지 않는다. 이하 실시 예에서는 본 발명을 명확하게 설명하기 위해서 설명과 직접적인 관계가 없는 부분을 생략하지만, 본 발명의 사상이 적용된 장치 또는 시스템을 구현함에 있어서, 이와 같이 생략된 구성이 불필요함을 의미하는 것은 아니다. 아울러, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조번호를 사용한다.Hereinafter, the present invention will be described in more detail with reference to the drawings. The invention may be embodied in many different forms and is not limited to the embodiments set forth herein. In the following embodiments, parts not directly related to the description are omitted in order to clearly describe the present invention, but this does not mean that the omitted configuration is unnecessary in implementing a device or system to which the spirit of the present invention is applied. . In addition, the same reference numbers are used for the same or similar elements throughout the specification.

이하의 설명에서 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 되며, 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 또한, 이하의 설명에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. In the following description, terms such as first and second may be used to describe various components, but the components should not be limited by the above terms, and the terms refer to one component from another. Used only for distinguishing purposes. Also, in the following description, singular expressions include plural expressions unless the context clearly indicates otherwise.

이하의 설명에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In the following description, terms such as "comprise" or "having" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other It should be understood that it does not preclude the possibility of addition or existence of features, numbers, steps, operations, components, parts, or combinations thereof.

도 1은 본 발명의 실시 예에 따른 구조물 변위 모니터링 시스템의 환경을 도시한 도면이다. 1 is a diagram illustrating an environment of a structure displacement monitoring system according to an embodiment of the present invention.

도 1을 참고하면, 본 발명의 실시 예에 따른 구조물 변위를 모니터링하는 시스템은 교량, 대형 건물 등의 구조물을 촬영하고, 촬영한 영상이나 이미지를 기초로 구조물의 변위를 측정하여 구조물의 변위가 발생한 경우 구조물을 관리하는 관리자나 촬영장치 등의 장치와 통신 연결된 단말로 변위를 알려 구조물의 상태를 확인할 수 있도록 한다.Referring to FIG. 1 , a system for monitoring structure displacement according to an embodiment of the present invention photographs a structure such as a bridge or a large building, and measures the displacement of the structure based on the captured video or image so that the displacement of the structure occurs. In this case, the displacement is notified to a manager who manages the structure or a terminal connected to a device such as a photographing device so that the state of the structure can be checked.

이를 위해 구조물 변위 모니터링 시스템(10)은, 촬영장치(100), 서버(200), 단말(equipment)(300)이 네트워크(400)를 통해 통신 연결되어 있다. To this end, in the structure displacement monitoring system 10, the photographing device 100, the server 200, and the terminal (equipment) 300 are communicatively connected through the network 400.

구체적으로, 촬영장치(100)는 카메라, CCTV 등과 같이 교량, 대형 건물 등의 구조물을 실시간으로 촬영할 수 있는 장치 중 하나일 수 있으며, 본 발명의 실시 예에서는 CCTV인 예를 들어 설명하기로 한다. Specifically, the photographing device 100 may be one of devices capable of photographing structures such as bridges and large buildings in real time, such as cameras and CCTVs. In an embodiment of the present invention, a CCTV will be described as an example.

이러한 촬영장치(100)는 구조물과 소정의 거리를 두고 설치될 수 있으며, 적어도 두 대 이상의 촬영장치(100)가 구조물을 중심으로 구조물을 다르게 촬영할 수 있는 위치에 설치되어 다양한 변위 변화를 확인할 수 있도록 한다. The photographing device 100 may be installed at a predetermined distance from the structure, and at least two or more photographing devices 100 may be installed at a location where the structure may be photographed differently with respect to the structure so that various displacement changes may be confirmed. do.

촬영장치(100)는 촬영 모드에서 정지영상 또는 동영상 등의 화상 프레임을 획득한다. 획득한 화상 프레임은 촬영장치(100)에 포함된 메모리(미도시)에 저장되거나 서버(200)로 전송되어 서버(200)의 메모리(240)에 저장될 수 있다. The photographing apparatus 100 obtains an image frame such as a still image or a moving image in a photographing mode. The acquired image frame may be stored in a memory (not shown) included in the photographing device 100 or may be transmitted to the server 200 and stored in the memory 240 of the server 200 .

서버(200)는 본 발명의 실시 예에서 설명되는 구조물의 변위를 모니터링하기 위한 각종 서비스를 제공한다. 구체적으로 서버(200)는 촬영장치(100)가 촬영한 구조물 영상이나 이미지에서 구조물의 위치가 변화하였는지를 판단할 수 있는 유효한 이미지 프레임을 인공지능을 이용하여 추출할 수 있다. 또한, 서버(200)는 추출된 유효 프레임을 기초로 구조물의 변위 정도(거동 변화)를 계산할 수 있으며, 계산된 결과를 단말(300)로 전송할 수도 있다. 이하 인공지능에 관하여는 후술하기로 한다. The server 200 provides various services for monitoring the displacement of the structure described in the embodiment of the present invention. In detail, the server 200 may extract an effective image frame capable of determining whether the position of a structure has changed in a structure image or image captured by the photographing device 100 using artificial intelligence. In addition, the server 200 may calculate the degree of displacement (behavior change) of the structure based on the extracted effective frame, and may transmit the calculated result to the terminal 300 . Artificial intelligence will be described below.

단말(300)은 촬영장치(100)에서 촬영한 구조물 영상에 기반하여 구조물 건전성 결과를 확인할 수 있는 장치이다. 예를 들어, 단말(300)은 휴대단말, 노트북, 태블릿 PC 등과 같은 장치 중 하나일 수 있으며, 단말(300)의 종류는 한정되지 않는다. 단말(300)을 통해 구조물 건전성 결과를 확인할 수 있게 되므로 구조물 관리자는 보다 빠르고 쉽게 구조물 건전성 결과에 대응하는 관리가 이루어질 수 있다. The terminal 300 is a device capable of confirming a structure integrity result based on a structure image captured by the photographing device 100 . For example, the terminal 300 may be one of devices such as a mobile terminal, a laptop computer, a tablet PC, and the like, and the type of terminal 300 is not limited. Since the structure integrity result can be checked through the terminal 300, the structure manager can perform management corresponding to the structure integrity result more quickly and easily.

이러한 단말(100)은 네트워크(400)를 통해 서버(200)로 데이터를 전송하고 수신할 수 있다. 구체적으로 단말(100)과 서버(200)는 네트워크(400)를 통해 모바일 브로드밴드(Enhanced Mobile Broadband, eMBB), URLLC(Ultra-reliable and low latency communications) 및 mMTC(Massive Machine-type communications) 중에서 적어도 하나의 서비스를 이용하여 데이터를 통신할 수 있도록 구성될 수 있다. The terminal 100 may transmit and receive data to and from the server 200 through the network 400 . Specifically, the terminal 100 and the server 200 use at least one of Enhanced Mobile Broadband (eMBB), Ultra-reliable and low latency communications (URLC), and Massive Machine-type communications (mMTC) through the network 400. It can be configured to communicate data using the service of.

여기서, eMBB(Enhanced Mobile Broadband)는 모바일 브로드밴드 서비스로, 이를 통해 멀티미디어 콘텐츠, 무선데이터 액세스 등이 제공된다. 또한, 폭발적으로 증가하고 있는 모바일 트래픽을 수용하기 위한 핫스팟 (hot spot)과 광대역 커버리지 등 보다 향상된 모바일 서비스가 eMBB를 통해 제공될 수 있다. 핫스팟을 통해 사용자 이동성이 작고 밀도가 높은 지역으로 대용량 트래픽이 수용될 수 있다. 광대역 커버리지를 통해 넓고 안정적인 무선 환경과 사용자 이동성이 보장될 수 있다.Here, eMBB (Enhanced Mobile Broadband) is a mobile broadband service, through which multimedia contents, wireless data access, etc. are provided. In addition, more advanced mobile services such as hot spots and broadband coverage to accommodate explosively increasing mobile traffic can be provided through eMBB. Hotspots allow high-capacity traffic to be accommodated in areas with low user mobility and high density. Wide and stable wireless environment and user mobility can be guaranteed through broadband coverage.

URLLC(Ultra-reliable and low latency communications) 서비스는 데이터 송수신의 신뢰성과 전송 지연 측면에서 기존 LTE 보다 훨씬 엄격한 요구사항을 정의하고 있으며, 산업 현장의 생산 프로세스 자동화, 원격 진료, 원격 수술, 운송, 안전 등을 위한 5G 서비스가 여기에 해당한다.The URLLC (Ultra-reliable and low latency communications) service defines much stricter requirements than the existing LTE in terms of reliability and transmission delay of data transmission and reception, and is used in industrial field production process automation, remote medical treatment, remote surgery, transportation, safety, etc. 5G service for

mMTC(Massive Machine-type communications)는 비교적 작은 양의 데이터 전송이 요구되는 전송지연에 민감하지 않은 서비스이다. 센서 등과 같이 일반 휴대폰 보다 훨씬 더 많은 수의 단말기들이 동시에 무선액세스 네트워크에 mMTC에 의해 접속할 수 있다. 이 경우, 단말기의 통신모듈 가격은 저렴해야 하고, 배터리 교체나 재충전 없이 수년 동안 동작할 수 있도록 향상된 전력 효율 및 전력 절감 기술이 요구된다.Massive machine-type communications (mMTC) is a service that is not sensitive to transmission delays that require transmission of relatively small amounts of data. A much larger number of terminals than general mobile phones, such as sensors, can be simultaneously connected to the wireless access network by mMTC. In this case, the price of the communication module of the terminal should be low, and improved power efficiency and power saving technology are required so that the terminal can operate for several years without battery replacement or recharging.

네트워크(400)는 유선 및 무선 네트워크, 예를 들어 LAN(local area network), WAN(wide area network), 인터넷(internet), 인트라넷(intranet) 및 엑스트라넷(extranet), 그리고 모바일 네트워크, 예를 들어 셀룰러, 3G, LTE, 5G, WiFi 네트워크, 애드혹 네트워크 및 이들의 조합을 비롯한 임의의 적절한 통신 네트워크 일 수 있다.Network 400 includes wired and wireless networks, such as local area networks (LANs), wide area networks (WANs), the Internet, intranets, and extranets, and mobile networks, such as It may be any suitable communication network including cellular, 3G, LTE, 5G, WiFi networks, ad hoc networks, and combinations thereof.

네트워크(400)는 허브, 브리지, 라우터, 스위치 및 게이트웨이와 같은 네트워크 요소들의 연결을 포함할 수 있다. 네트워크(400)는 인터넷과 같은 공용 네트워크 및 안전한 기업 사설 네트워크와 같은 사설 네트워크를 비롯한 하나 이상의 연결된 네트워크들, 예컨대 다중 네트워크 환경을 포함할 수 있다. 네트워크(400)에의 액세스는 하나 이상의 유선 또는 무선 액세스 네트워크들을 통해 제공될 수 있다. Network 400 may include connections of network elements such as hubs, bridges, routers, switches, and gateways. Network 400 may include one or more connected networks, such as a multiple network environment, including a public network such as the Internet and a private network such as a secure enterprise private network. Access to network 400 may be provided through one or more wired or wireless access networks.

한편, 본 발명의 실시 예에 따른 구조물 변위 모니터링 시스템(10)을 이용하여 구조물 변위 여부를 추출할 때, 인공지능(artificial intelligence, AI)을 이용하여 구조물 변위 변화를 추출할 수 있다. Meanwhile, when extracting whether or not the structure is displaced using the structure displacement monitoring system 10 according to an embodiment of the present invention, a change in structure displacement may be extracted using artificial intelligence (AI).

이를 위해, 서버(200)는 인공 지능 모델과 관련하여 각종 인공 지능 모델을 생성하고, 이를 학습시키며, 이를 평가하고, 이를 완성하고, 그리고 사용자의 개인 데이터를 이용하여 이를 업데이트 하는 과정에서 로컬 영역과 서버(200)에 저장된 각종 인고지능 알고리즘과 관련된 프로그램을 이용할 수도 있다. To this end, the server 200 creates various artificial intelligence models in relation to the artificial intelligence model, trains them, evaluates them, completes them, and updates them using the user's personal data, in the process of updating them using the local area and Programs related to various cognitive intelligence algorithms stored in the server 200 may be used.

또한, 서버(200)는 각종 인공 지능 모델의 훈련에 필요한 학습 데이터를 수집하고, 수집된 데이터를 이용하여 인공지능 모델을 훈련시키는 역할을 할 수 있다. 서버(200)를 통해 훈련된 각종 인공 지능 모델이 평가를 통해 완성되면 단말(300)이 완성된 인공지능 모델을 이용하거나, 인공지능 모델 자체가 주체가 되어 구조물이 거동한 변위를 추출하는 과정이 수행될 수 있다. In addition, the server 200 may serve to collect learning data required for training of various artificial intelligence models and to train the artificial intelligence models using the collected data. When various artificial intelligence models trained through the server 200 are completed through evaluation, the terminal 300 uses the completed artificial intelligence model, or the artificial intelligence model itself becomes a subject and extracts the displacement of the structure. can be performed

예를 들어 인공지능(AI)은 인간의 지능으로 할 수 있는 사고, 학습, 자기계발 등을 컴퓨터가 할 수 있도록 하는 방법을 연구하는 컴퓨터 공학 및 정보기술의 한 분야로, 컴퓨터가 인간의 지능적인 행동을 모방할 수 있도록 하는 것을 의미한다. For example, artificial intelligence (AI) is a field of computer science and information technology that studies ways to enable computers to do thinking, learning, and self-development that human intelligence can do. This means that behavior can be imitated.

또한, 인공지능은 그 자체로 존재하는 것이 아니라, 컴퓨터 과학의 다른 분야와 직간접으로 많은 관련을 맺고 있다. 특히 현대에는 정보기술의 여러 분야에서 인공지능적 요소를 도입하여, 그 분야의 문제 풀이에 활용하려는 시도가 매우 활발하게 이루어지고 있다.Also, artificial intelligence does not exist by itself, but is directly or indirectly related to other fields of computer science. In particular, in modern times, attempts to introduce artificial intelligence elements in various fields of information technology and use them to solve problems in those fields are being actively made.

머신 러닝(machine learning)은 인공지능의 한 분야로, 컴퓨터에 명시적인 프로그램 없이 배울 수 있는 능력을 부여하는 연구 분야이다.Machine learning is a branch of artificial intelligence, a field of study that gives computers the ability to learn without being explicitly programmed.

구체적으로 머신 러닝은, 경험적 데이터를 기반으로 학습을 하고 예측을 수행하고 스스로의 성능을 향상시키는 시스템과 이를 위한 알고리즘을 연구하고 구축하는 기술이라 할 수 있다. 머신 러닝의 알고리즘들은 엄격하게 정해진 정적인 프로그램 명령들을 수행하는 것이라기보다, 입력 데이터를 기반으로 예측이나 결정을 이끌어내기 위해 특정한 모델을 구축하는 방식을 취한다.Specifically, machine learning can be said to be a technology that studies and builds a system that learns based on empirical data, makes predictions, and improves its own performance, as well as algorithms for it. Machine learning algorithms build specific models to make predictions or decisions based on input data, rather than executing rigidly defined, static program instructions.

용어 '머신 러닝'은 용어 '기계 학습'과 혼용되어 사용될 수 있다.The term 'machine learning' may be used interchangeably with the term 'machine learning'.

기계 학습에서 데이터를 어떻게 분류할 것인가를 놓고, 많은 기계 학습 알고리즘이 개발되었다. 의사결정나무(Decision Tree)나 베이지안 망(Bayesian network), 서포트벡터머신(SVM: support vector machine), 그리고 인공 신경망(ANN: Artificial Neural Network) 등이 대표적이다.In machine learning, many machine learning algorithms have been developed regarding how to classify data. Representative examples include decision trees, Bayesian networks, support vector machines (SVMs), and artificial neural networks (ANNs).

의사결정나무는 의사결정규칙(Decision Rule)을 나무구조로 도표화하여 분류와 예측을 수행하는 분석방법이다.A decision tree is an analysis method that performs classification and prediction by charting decision rules in a tree structure.

베이지안 망은 다수의 변수들 사이의 확률적 관계(조건부독립성: conditional independence)를 그래프 구조로 표현하는 모델이다. 베이지안 망은 비지도 학습(unsupervised learning)을 통한 데이터마이닝(data mining)에 적합하다. A Bayesian network is a model that expresses a stochastic relationship (conditional independence) among multiple variables in a graph structure. Bayesian networks are suitable for data mining through unsupervised learning.

서포트벡터머신은 패턴인식과 자료분석을 위한 지도 학습(supervised learning)의 모델이며, 주로 분류와 회귀분석을 위해 사용한다.A support vector machine is a supervised learning model for pattern recognition and data analysis, and is mainly used for classification and regression analysis.

인공신경망은 생물학적 뉴런의 동작원리와 뉴런간의 연결 관계를 모델링한 것으로 노드(node) 또는 처리 요소(processing element)라고 하는 다수의 뉴런들이 레이어(layer) 구조의 형태로 연결된 정보처리 시스템이다.An artificial neural network is an information processing system in which a plurality of neurons called nodes or processing elements are connected in the form of a layer structure by modeling the operating principle of biological neurons and the connection relationship between neurons.

인공 신경망은 기계 학습에서 사용되는 모델로써, 기계학습과 인지과학에서 생물학의 신경망(동물의 중추신경계 중 특히 뇌)에서 영감을 얻은 통계학적 학습 알고리즘이다.An artificial neural network is a model used in machine learning, a statistical learning algorithm inspired by neural networks in biology (particularly the brain in the central nervous system of animals) in machine learning and cognitive science.

구체적으로 인공신경망은 시냅스(synapse)의 결합으로 네트워크를 형성한 인공 뉴런(노드)이 학습을 통해 시냅스의 결합 세기를 변화시켜, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다.Specifically, an artificial neural network may refer to an overall model that has problem-solving ability by changing synapse coupling strength through learning of artificial neurons (nodes) that form a network by synapse coupling.

용어 인공신경망은 용어 뉴럴 네트워크(Neural Network)와 혼용되어 사용될 수 있다.The term artificial neural network may be used interchangeably with the term neural network.

인공신경망은 복수의 레이어(layer)를 포함할 수 있고, 레이어들 각각은 복수의 뉴런(neuron)을 포함할 수 있다. 또한 인공신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다.An artificial neural network may include a plurality of layers, and each of the layers may include a plurality of neurons. In addition, the artificial neural network may include neurons and synapses connecting neurons.

인공 신경망은 일반적으로 다음의 세가지 인자, 즉 (1) 다른 레이어의 뉴런들 사이의 연결 패턴 (2) 연결의 가중치를 갱신하는 학습 과정 (3) 이전 레이어로부터 수신되는 입력에 대한 가중 합으로부터 출력값을 생성하는 활성화 함수에 의해 정의될 수 있다.Artificial neural networks generally use the following three factors: (1) connection patterns between neurons in different layers, (2) a learning process that updates the weights of connections, and (3) an output value from the weighted sum of the inputs received from the previous layer. It can be defined by the activation function you create.

인공 신경망은, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network), MLP(Multilayer Perceptron), CNN(Convolutional Neural Network)와 같은 방식의 네트워크 모델들을 포함할 수 있으나, 이에 한정되지 않는다.Artificial neural networks may include network models such as Deep Neural Network (DNN), Recurrent Neural Network (RNN), Bidirectional Recurrent Deep Neural Network (BRDNN), Multilayer Perceptron (MLP), and Convolutional Neural Network (CNN). , but not limited thereto.

본 명세서에서 용어 '레이어'는 용어 '계층'과 혼용되어 사용될 수 있다.In this specification, the term 'layer' may be used interchangeably with the term 'layer'.

인공신경망은 계층 수에 따라 단층 신경망(Single-Layer Neural Networks)과 다층 신경망(Multi-Layer Neural Networks)으로 구분된다.Artificial neural networks are classified into single-layer neural networks and multi-layer neural networks according to the number of layers.

일반적인 단층 신경망은, 입력층과 출력층으로 구성된다.A typical single-layer neural network consists of an input layer and an output layer.

또한 일반적인 다층 신경망은 입력층(Input Layer)과 하나 이상의 은닉층(Hidden Layer), 출력층(Output Layer)으로 구성된다.In addition, a general multilayer neural network is composed of an input layer, one or more hidden layers, and an output layer.

입력층은 외부의 자료들을 받아들이는 층으로서, 입력층의 뉴런 수는 입력되는 변수의 수와 동일하며, 은닉층은 입력층과 출력층 사이에 위치하며 입력층으로부터 신호를 받아 특성을 추출하여 출력층으로 전달한다. 출력층은 은닉층으로부터 신호를 받고, 수신한 신호에 기반한 출력 값을 출력한다. 뉴런간의 입력신호는 각각의 연결강도(가중치)와 곱해진 후 합산되며 이 합이 뉴런의 임계치보다 크면 뉴런이 활성화되어 활성화 함수를 통하여 획득한 출력값을 출력한다. The input layer is a layer that accepts external data. The number of neurons in the input layer is the same as the number of input variables. The hidden layer is located between the input layer and the output layer. do. The output layer receives a signal from the hidden layer and outputs an output value based on the received signal. The input signal between neurons is multiplied by each connection strength (weight) and then summed. If this sum is greater than the neuron's threshold, the neuron is activated and outputs the output value obtained through the activation function.

한편 입력층과 출력 층 사이에 복수의 은닉층을 포함하는 심층 신경망은, 기계 학습 기술의 한 종류인 딥 러닝을 구현하는 대표적인 인공 신경망일 수 있다.Meanwhile, a deep neural network including a plurality of hidden layers between an input layer and an output layer may be a representative artificial neural network implementing deep learning, which is a type of machine learning technology.

한편 용어 '딥 러닝'은 용어 '심층 학습'과 혼용되어 사용될 수 있다.Meanwhile, the term 'deep learning' may be used interchangeably with the term 'deep learning'.

인공 신경망은 훈련 데이터(training data)를 이용하여 학습(training)될 수 있다. 여기서 학습이란, 입력 데이터를 분류(classification)하거나 회귀분석(regression)하거나 군집화(clustering)하는 등의 목적을 달성하기 위하여, 학습 데이터를 이용하여 인공 신경망의 파라미터(parameter)를 결정하는 과정을 의미할 수 있다. 인공 신경망의 파라미터의 대표적인 예시로써, 시냅스에 부여되는 가중치(weight)나 뉴런에 적용되는 편향(bias)을 들 수 있다.The artificial neural network may be trained using training data. Here, learning may refer to a process of determining parameters of an artificial neural network using learning data in order to achieve a purpose such as classification, regression analysis, or clustering of input data. can As representative examples of parameters of an artificial neural network, a weight assigned to a synapse or a bias applied to a neuron may be cited.

훈련 데이터에 의하여 학습된 인공 신경망은, 입력 데이터를 입력 데이터가 가지는 패턴에 따라 분류하거나 군집화 할 수 있다. An artificial neural network learned from training data may classify or cluster input data according to a pattern of the input data.

한편 훈련 데이터를 이용하여 학습된 인공 신경망을, 본 명세서에서는 학습 모델(a trained model)이라 명칭 할 수 있다.Meanwhile, an artificial neural network trained using training data may be referred to as a trained model in this specification.

다음은 인공 신경망의 학습 방식에 대하여 설명한다.Next, the learning method of the artificial neural network will be described.

인공 신경망의 학습 방식은 크게, 지도 학습, 비 지도 학습, 준 지도 학습(Semi-Supervised Learning), 강화 학습(Reinforcement Learning)으로 분류될 수 있다.Learning methods of artificial neural networks can be largely classified into supervised learning, unsupervised learning, semi-supervised learning, and reinforcement learning.

지도 학습은 훈련 데이터로부터 하나의 함수를 유추해내기 위한 기계 학습의 한 방법이다. Supervised learning is a method of machine learning to infer a function from training data.

그리고 이렇게 유추되는 함수 중, 연속 적인 값을 출력하는 것을 회귀분석(Regression)이라 하고, 입력 벡터의 클래스(class)를 예측하여 출력하는 것을 분류(Classification)라고 할 수 있다.Among the inferred functions, outputting a continuous value is called regression analysis, and predicting and outputting the class of an input vector is called classification.

지도 학습에서는, 훈련 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시킨다.In supervised learning, an artificial neural network is trained under a given label for training data.

여기서 레이블이란, 훈련 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다.Here, the label may mean a correct answer (or a result value) to be inferred by the artificial neural network when training data is input to the artificial neural network.

본 명세서에서는 훈련 데이터가 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과값)을 레이블 또는 레이블링 데이터(labeling data)이라 명칭 한다.In this specification, when training data is input, an answer (or a result value) to be inferred by an artificial neural network is referred to as a label or labeling data.

또한 본 명세서에서는, 인공 신경망의 학습을 위하여 훈련 데이터에 레이블을 설정하는 것을, 훈련 데이터에 레이블링 데이터를 레이블링(labeling) 한다고 명칭 한다.Also, in this specification, setting labels on training data for learning of an artificial neural network is referred to as labeling labeling data on training data.

이 경우 훈련 데이터와 훈련 데이터에 대응하는 레이블)은 하나의 트레이닝 셋(training set)을 구성하고, 인공 신경망에는 트레이닝 셋의 형태로 입력될 수 있다.In this case, training data and labels corresponding to the training data constitute one training set, and may be input to the artificial neural network in the form of a training set.

한편 훈련 데이터는 복수의 특징(feature)을 나타내고, 훈련 데이터에 레이블이 레이블링 된다는 것은 훈련 데이터가 나타내는 특징에 레이블이 달린다는 것을 의미할 수 있다. 이 경우 훈련 데이터는 입력 객체의 특징을 벡터 형태로 나타낼 수 있다.Meanwhile, the training data represents a plurality of features, and labeling the training data with a label may mean that a label is attached to a feature represented by the training data. In this case, the training data may represent the characteristics of the input object in the form of a vector.

인공 신경망은 훈련 데이터와 레이블링 데이터를 이용하여, 훈련 데이터와 레이블링 데이터의 연관 관계에 대한 함수를 유추할 수 있다. 그리고, 인공 신경망에서 유추된 함수에 대한 평가를 통해 인공 신경망의 파라미터가 결정(최적화)될 수 있다.The artificial neural network may use the training data and the labeling data to infer a function for a correlation between the training data and the labeling data. In addition, parameters of the artificial neural network may be determined (optimized) through evaluation of the function inferred from the artificial neural network.

비 지도 학습은 기계 학습의 일종으로, 훈련 데이터에 대한 레이블이 주어지지 않는다.Unsupervised learning is a type of machine learning in which labels are not given to the training data.

구체적으로, 비 지도 학습은, 훈련 데이터 및 훈련 데이터에 대응하는 레이블의 연관 관계 보다는, 훈련 데이터 자체에서 패턴을 찾아 분류하도록 인공 신경망을 학습시키는 학습 방법일 수 있다.Specifically, unsupervised learning may be a learning method for learning an artificial neural network to find and classify a pattern in training data itself rather than an association between training data and a label corresponding to the training data.

비 지도 학습의 예로는, 군집화 또는 독립 성분 분석(Independent Component Analysis)을 들 수 있다.Examples of unsupervised learning include clustering or independent component analysis.

본 명세서에서 용어 '군집화'는 용어 '클러스터링'과 혼용되어 사용될 수 있다.In this specification, the term 'clustering' may be used interchangeably with the term 'clustering'.

비지도 학습을 이용하는 인공 신경망의 일례로 생성적 적대 신경망(GAN: Generative Adversarial Network), 오토 인코더(AE: Autoencoder)를 들 수 있다.Examples of artificial neural networks using unsupervised learning include a Generative Adversarial Network (GAN) and an Autoencoder (AE).

생성적 적대 신경망이란, 생성기(generator)와 판별기(discriminator), 두 개의 서로 다른 인공지능이 경쟁하며 성능을 개선하는 머신 러닝 방법이다.A generative adversarial network is a machine learning method in which two different artificial intelligences, a generator and a discriminator, compete to improve performance.

이 경우 생성기는 새로운 데이터를 창조하는 모형으로, 원본 데이터를 기반으로 새로운 데이터를 생성할 수 있다.In this case, the generator is a model that creates new data and can generate new data based on original data.

또한 판별기는 데이터의 패턴을 인식하는 모형으로, 입력된 데이터가 원본 데이터인지 또는 생성기에서 생성한 새로운 데이터인지 여부를 감별하는 역할을 수행할 수 있다.In addition, the discriminator is a model that recognizes data patterns and can play a role in discriminating whether input data is original data or new data generated by a generator.

그리고 생성기는 판별기를 속이지 못한 데이터를 입력 받아 학습하며, 판별기는 생성기로부터 속은 데이터를 입력 받아 학습할 수 있다. 이에 따라 생성기는 판별기를 최대한 잘 속이도록 진화할 수 있고, 판별기는 원본 데이터와 생성기에 의해 생성된 데이터를 잘 구분하도록 진화할 수 있다.In addition, the generator learns by receiving data that has not deceived the discriminator, and the discriminator can learn by receiving deceived data from the generator. Accordingly, the generator can evolve to deceive the discriminator as best as possible, and the discriminator can evolve to distinguish well between the original data and the data generated by the generator.

오토 인코더는 입력 자체를 출력으로 재현하는 것을 목표로 하는 신경망이다.An autoencoder is a neural network that aims to reproduce the input itself as an output.

오토 인코더는 입력층, 적어도 하나의 은닉층 및 출력층을 포함한다. An auto-encoder includes an input layer, at least one hidden layer, and an output layer.

이 경우 은닉 계층의 노드 수가 입력 계층의 노드 수보다 적으므로 데이터의 차원이 줄어들게 되며, 이에 따라 압축 또는 인코딩이 수행되게 된다.In this case, since the number of nodes in the hidden layer is smaller than the number of nodes in the input layer, the dimensionality of data is reduced, and compression or encoding is performed accordingly.

또한 은닉 계층에서 출력한 데이터는 출력 계층으로 들어간다. 이 경우 출력 계층의 노드 수는 은닉 계층의 노드 수보다 많으므로, 데이터의 차원이 늘어나게 되며, 이에 따라 압축 해제 또는 디코딩이 수행되게 된다.Also, the data output from the hidden layer goes into the output layer. In this case, since the number of nodes in the output layer is greater than the number of nodes in the hidden layer, the dimensionality of data increases, and accordingly, decompression or decoding is performed.

한편 오토 인코더는 학습을 통해 뉴런의 연결 강도를 조절함으로써 입력 데이터가 은닉층 데이터로 표현된다. 은닉층에서는 입력층보다 적은 수의 뉴런으로 정보를 표현하는데 입력 데이터를 출력으로 재현할 수 있다는 것은, 은닉층이 입력 데이터로부터 숨은 패턴을 발견하여 표현했다는 것을 의미할 수 있다.On the other hand, the autoencoder adjusts the connection strength of neurons through learning, so that input data is expressed as hidden layer data. In the hidden layer, information is expressed with fewer neurons than in the input layer, and being able to reproduce input data as an output may mean that the hidden layer discovered and expressed a hidden pattern from the input data.

준 지도 학습은 기계 학습의 일종으로, 레이블이 주어진 훈련 데이터와 레이블이 주어지지 않은 훈련 데이터를 모두 사용하는 학습 방법을 의미할 수 있다.Quasi-supervised learning is a type of machine learning and may refer to a learning method using both labeled training data and unlabeled training data.

준 지도 학습의 기법 중 하나로, 레이블이 주어지지 않은 훈련 데이터의 레이블을 추론한 후 추론된 라벨을 이용하여 학습을 수행하는 기법이 있으며, 이러한 기법은 레이블링에 소요되는 비용이 큰 경우에 유용하게 사용될 수 있다.As one of the techniques of semi-supervised learning, there is a technique of inferring the label of unlabeled training data and then performing learning using the inferred label. This technique is useful when the cost required for labeling is high. can

강화 학습은, 에이전트(Agent)가 매 순간 어떤 행동을 해야 좋을지 판단할 수 있는 환경이 주어진다면, 데이터 없이 경험으로 가장 좋을 길을 찾을 수 있다는 이론이다. Reinforcement learning is a theory that if an agent is given an environment in which it can judge what action to take every moment, it can find the best way through experience without data.

강화 학습은 주로 마르코프 결정 과정(MDP: Markov Decision Process)에 의하여 수행될 수 있다.Reinforcement learning may be performed mainly by a Markov Decision Process (MDP).

마르코프 결정 과정을 설명하면, 첫 번째로 에이전트가 다음 행동을 하기 위해 필요한 정보들이 구성된 환경이 주어지며, 두 번째로 그 환경에서 에이전트가 어떻게 행동할지 정의하고, 세 번째로 에이전트가 무엇을 잘하면 보상(reward)를 주고 무엇을 못하면 벌점(penalty)을 줄지 정의하며, 네 번째로 미래의 보상이 최고점에 이를 때까지 반복 경험하여 최적의 정책(policy)을 도출하게 된다.To explain the Markov decision process, first, an environment in which the information necessary for the agent to take the next action is given, second, how the agent will behave in that environment, and third, if the agent does well, a reward ( Fourth, the optimal policy is derived by repeatedly experiencing it until the future reward reaches the highest point.

인공 신경망은 모델의 구성, 활성 함수(Activation Function), 손실 함수(Loss Function) 또는 비용 함수(Cost Function), 학습 알고리즘, 최적화 알고리즘 등에 의해 그 구조가 특정되며, 학습 전에 하이퍼파라미터(Hyperparameter)가 미리 설정되고, 이후에 학습을 통해 모델 파라미터(Model Parameter)가 설정되어 내용이 특정될 수 있다.The structure of an artificial neural network is specified by model configuration, activation function, loss function or cost function, learning algorithm, optimization algorithm, etc., and hyperparameters are set in advance before learning. After setting, the model parameter (Model Parameter) is set through learning, so that the content can be specified.

예컨대, 인공 신경망의 구조를 결정하는 요소에는 은닉층의 개수, 각 은닉층에 포함된 은닉 노드의 개수, 입력 특징 벡터(Input Feature Vector), 대상 특징 벡터(Target Feature Vector) 등이 포함될 수 있다.For example, factors determining the structure of an artificial neural network may include the number of hidden layers, the number of hidden nodes included in each hidden layer, an input feature vector, a target feature vector, and the like.

하이퍼파라미터는 모델 파라미터의 초기값 등과 같이 학습을 위하여 초기에 설정하여야 하는 여러 파라미터들을 포함한다. 그리고, 모델 파라미터는 학습을 통하여 결정하고자 하는 여러 파라미터들을 포함한다.Hyperparameters include various parameters that must be initially set for learning, such as initial values of model parameters. And, the model parameters include several parameters to be determined through learning.

예컨대, 하이퍼파라미터에는 노드 간 가중치 초기값, 노드 간 편향 초기값, 미니 배치(Mini-batch) 크기, 학습 반복 횟수, 학습률(Learning Rate) 등이 포함될 수 있다. 그리고, 모델 파라미터에는 노드 간 가중치, 노드 간 편향 등이 포함될 수 있다.For example, the hyperparameters may include an initial value of weight between nodes, an initial value of bias between nodes, a mini-batch size, a number of training iterations, a learning rate, and the like. In addition, model parameters may include weights between nodes, biases between nodes, and the like.

손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표(기준)로 이용될 수 있다. 인공 신경망에서 학습은 손실 함수를 줄이기 위하여 모델 파라미터들을 조작하는 과정을 의미하며, 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다.The loss function may be used as an index (reference) for determining optimal model parameters in the learning process of an artificial neural network. In an artificial neural network, learning means a process of manipulating model parameters to reduce a loss function, and the purpose of learning can be seen as determining model parameters that minimize a loss function.

손실 함수는 주로 평균 제곱 오차(MSE: Mean Squared Error) 또는 교차 엔트로피 오차(CEE, Cross Entropy Error)를 사용할 수 있으며, 본 발명이 이에 한정되지는 않는다. The loss function may mainly use mean squared error (MSE) or cross entropy error (CEE), but the present invention is not limited thereto.

교차 엔트로피 오차는 정답 레이블이 원 핫 인코딩(one-hot encoding)된 경우에 사용될 수 있다. 원 핫 인코딩은 정답에 해당하는 뉴런에 대하여만 정답 레이블 값을 1로, 정답이 아닌 뉴런은 정답 레이블 값이 0으로 설정하는 인코딩 방법이다.Cross entropy error can be used when the correct answer label is one-hot encoded. One-hot encoding is an encoding method in which the correct answer label value is set to 1 only for neurons corresponding to the correct answer, and the correct answer label value is set to 0 for neurons with no correct answer.

머신 러닝 또는 딥 러닝에서는 손실 함수를 최소화하기 위하여 학습 최적화 알고리즘을 이용할 수 있으며, 학습 최적화 알고리즘에는 경사 하강법(GD: Gradient Descent), 확률적 경사 하강법(SGD: Stochastic Gradient Descent), 모멘텀(Momentum), NAG(Nesterov Accelerate Gradient), Adagrad, AdaDelta, RMSProp, Adam, Nadam 등이 있다.In machine learning or deep learning, learning optimization algorithms can be used to minimize the loss function, and learning optimization algorithms include Gradient Descent (GD), Stochastic Gradient Descent (SGD), Momentum ), NAG (Nesterov Accelerate Gradient), Adagrad, AdaDelta, RMSProp, Adam, and Nadam.

경사 하강법은 현재 상태에서 손실 함수의 기울기를 고려하여 손실 함수값을 줄이는 방향으로 모델 파라미터를 조정하는 기법이다. Gradient descent is a technique that adjusts model parameters in the direction of reducing the value of the loss function by considering the slope of the loss function in the current state.

모델 파라미터를 조정하는 방향은 스텝(step) 방향, 조정하는 크기는 스텝 사이즈(size)라고 칭한다.A direction for adjusting model parameters is called a step direction, and a size for adjusting the model parameters is called a step size.

이때, 스텝 사이즈는 학습률을 의미할 수 있다.In this case, the step size may mean a learning rate.

경사 하강법은 손실 함수를 각 모델 파라미터들로 편미분하여 기울기를 획득하고, 모델 파라미터들을 획득한 기울기 방향으로 학습률만큼 변경하여 갱신할 수 있다.In the gradient descent method, a gradient may be obtained by partial differentiation of a loss function with respective model parameters, and the model parameters may be updated by changing the model parameters in the direction of the obtained gradient by a learning rate.

확률적 경사 하강법은 학습 데이터를 미니 배치로 나누고, 각 미니 배치마다 경사 하강법을 수행하여 경사 하강의 빈도를 높인 기법이다.Stochastic gradient descent is a technique that increases the frequency of gradient descent by dividing training data into mini-batches and performing gradient descent for each mini-batch.

Adagrad, AdaDelta 및 RMSProp는 SGD에서 스텝 사이즈를 조절하여 최적화 정확도를 높이는 기법이다. SGD에서 모멘텀 및 NAG는 스텝 방향을 조절하여 최적화 정확도를 높이는 기법이다. Adam은 모멘텀과 RMSProp를 조합하여 스텝 사이즈와 스텝 방향을 조절하여 최적화 정확도를 높이는 기법이다. Nadam은 NAG와 RMSProp를 조합하여 스텝 사이즈와 스텝 방향을 조절하여 최적화 정확도를 높이는 기법이다.Adagrad, AdaDelta, and RMSProp are techniques that increase optimization accuracy by adjusting the step size in SGD. In SGD, momentum and NAG are techniques that increase optimization accuracy by adjusting the step direction. Adam is a technique that increases optimization accuracy by adjusting the step size and step direction by combining momentum and RMSProp. Nadam is a technique that increases optimization accuracy by adjusting the step size and step direction by combining NAG and RMSProp.

인공 신경망의 학습 속도와 정확도는 인공 신경망의 구조와 학습 최적화 알고리즘의 종류뿐만 아니라, 하이퍼파라미터에 크게 좌우되는 특징이 있다. 따라서, 좋은 학습 모델을 획득하기 위하여는 적당한 인공 신경망의 구조와 학습 알고리즘을 결정하는 것뿐만 아니라, 적당한 하이퍼파라미터를 설정하는 것이 중요하다.The learning speed and accuracy of an artificial neural network are characterized by being largely dependent on hyperparameters as well as the structure of the artificial neural network and the type of learning optimization algorithm. Therefore, in order to obtain a good learning model, it is important to set appropriate hyperparameters as well as to determine an appropriate artificial neural network structure and learning algorithm.

통상적으로 하이퍼파라미터는 실험적으로 다양한 값으로 설정해가며 인공 신경망을 학습시켜보고, 학습 결과 안정적인 학습 속도와 정확도를 제공하는 최적의 값으로 설정한다.Typically, hyperparameters are experimentally set to various values to train the artificial neural network, and as a result of learning, the optimal values are set to provide stable learning speed and accuracy.

본 발명의 실시 예에 따라 변위 변화를 통해 구조물의 거동을 추출하는 인공지능 모델과 관련하여 각종 인공 지능 모델을 생성하고, 이를 학습시키고, 이를 평가하고, 이를 완성하고, 그리고 사용자의 개인 데이터를 이용하여 이를 업데이트 하는 과정에서 로컬 영역과 서버(200)에 저장된 각종 인공지능 알고리즘과 관련된 프로그램을 이용할 수 있다. According to an embodiment of the present invention, in relation to an artificial intelligence model that extracts the behavior of a structure through displacement change, various artificial intelligence models are created, trained, evaluated, completed, and using user's personal data. In the process of updating it, programs related to various artificial intelligence algorithms stored in the local area and the server 200 can be used.

도 2는 본 발명의 실시 예에 따른 서버 구성을 도시한 도면이다. 2 is a diagram illustrating a server configuration according to an embodiment of the present invention.

도 2를 참고하면, 서버(200)는 통신부(210), 데이터 획득부(220), 러닝 프로세서(230), 메모리(240) 및 프로세서(260)를 포함한다. Referring to FIG. 2 , the server 200 includes a communication unit 210, a data acquisition unit 220, a learning processor 230, a memory 240, and a processor 260.

통신부(210)는 단말(300) 및 촬영장치(100)와 통신 연결될 수 있는 구성이다. 구체적으로 통신부(210)는 촬영장치(100)에서 촬영한 구조물 영상을 수신하고, 수신한 영상을 통해 구조물 거동이 변화하였는지에 대한 결과를 단말(300)로 송신할 수 있다. The communication unit 210 is a component capable of being communicatively connected to the terminal 300 and the photographing device 100 . In detail, the communication unit 210 may receive an image of a structure photographed by the photographing device 100 and transmit a result of whether the behavior of the structure has changed through the received image to the terminal 300 .

데이터 획득부(220)는 모델 학습을 위한 입력 데이터를 획득할 수 있다. 이러한 데이터 획득부(220)는 가공되지 않는 입력 데이터를 획득할 수 있으며, 이 경우 프로세서(260) 또는 러닝 프로세서(230)에서 획득한 입력 데이터를 전처리하여 모델 학습에 입력이 가능한 훈련 데이터 또는 전처리된 입력 데이터를 생성할 수 있도록 한다. The data acquisition unit 220 may acquire input data for model learning. The data acquisition unit 220 may acquire raw input data. In this case, the input data obtained from the processor 260 or the learning processor 230 is preprocessed to provide training data that can be input to model learning or preprocessed data. Allows you to generate input data.

여기서, 입력 데이터에 대한 전처리는 입력 데이터로부터 입력 특징점(input feature)을 추출하는 것을 의미한다. Here, the preprocessing of the input data means extracting input features from the input data.

러닝 프로세서(230)는 훈련된 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습하는 장치이다. The learning processor 230 is a device that learns a model composed of an artificial neural network using trained data.

구체적으로 러닝 프로세서(230)는 앞서 설명한 다양한 학습 기법을 이용하여 구조물의 건전성 여부를 결정할 수 있는 이미지를 추출할 수 있는 인공 신경망을 반복적으로 학습시킴으로써, 인공 신경망의 최적화된 모델 파라미터들을 결정할 수 있다. In detail, the learning processor 230 may determine optimized model parameters of the artificial neural network by iteratively training an artificial neural network capable of extracting an image capable of determining whether a structure is healthy using various learning techniques described above.

본 발명의 명세서에서는 훈련 데이터를 이용하여 학습됨으로써 파라미터가 결정된 인공 신경망을 학습 모델 또는 학습된 모델(a trained model)이라 칭할 수 있다. 이때, 학습 모델은 훈련 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있다.In the specification of the present invention, an artificial neural network whose parameters are determined by learning using training data may be referred to as a learning model or a trained model. In this case, the learning model may be used to infer a result value with respect to new input data other than training data.

또한, 러닝 프로세서(230)는 데이터 마이닝, 데이터 분석, 지능형 의사 결정, 및 기계 학습 알고리즘 및 기술을 위해 이용될 정보를 수신, 분류, 저장 및 출력하도록 구성될 수 있다. Further, learning processor 230 may be configured to receive, classify, store, and output information to be used for data mining, data analysis, intelligent decision making, and machine learning algorithms and techniques.

그리고 러닝 프로세서(230)는 일반적으로 감독 또는 감독되지 않은 학습, 데이터 마이닝, 예측 분석 또는 다른 머신에서 사용하기 위해 데이터를 식별, 색인화, 카테고리화, 조작, 저장, 검색 및 출력하기 위해 데이터를 하나 이상의 데이터베이스에 저장되도록 구성될 수 있다. 여기서, 데이터베이스는 메모리(240), 단말(300)의 메모리 등과 같이 액세스 가능한 다른 원격 메모리를 이용하여 구현될 수도 있다. And learning processor 230 generally processes one or more processes of data to identify, index, categorize, manipulate, store, retrieve, and output data for use in supervised or unsupervised learning, data mining, predictive analytics, or other machines. It can be configured to be stored in a database. Here, the database may be implemented using other accessible remote memories, such as the memory 240 and the memory of the terminal 300.

이러한 러닝 프로세서(230)에 저장된 정보는 다양하고 상이한 유형의 데이터 분석 알고리즘 및 기계 학습 알고리즘 중 임의의 것을 사용하여 프로세서(260) 또는 하나 이상의 다른 제어기에 의해 이용될 수 있다. The information stored in this learning processor 230 may be used by the processor 260 or one or more other controllers using any of a variety of different types of data analysis algorithms and machine learning algorithms.

이러한, 알고리즘의 예로는, k-최근 인접 시스템, 퍼지 논리 (예: 가능성 이론), 신경 회로망, 볼츠만 기계, 벡터 양자화, 펄스 신경망, 지원 벡터 기계, 최대 마진 분류기, 힐 클라이밍, 유도 논리 시스템 베이지안 네트워크, 페리트넷 (예: 유한 상태 머신, 밀리 머신, 무어 유한 상태 머신), 분류기 트리 (예: 퍼셉트론 트리, 지원 벡터 트리, 마코프 트리, 의사 결정 트리 포리스트, 임의의 포리스트), 판독 모델 및 시스템, 인공 융합, 센서 융합, 이미지 융합, 보강 학습, 증강 현실, 패턴 인식, 자동화 된 계획 등을 포함한다.Examples of such algorithms include k-nearest neighbor systems, fuzzy logic (e.g. probability theory), neural networks, Boltzmann machines, vector quantization, pulsed neural networks, support vector machines, maximum margin classifiers, hill climbing, inductive logic systems, Bayesian networks , ferritnets (e.g. finite state machine, millie machine, Moore finite state machine), classifier trees (e.g. perceptron trees, support vector trees, markov trees, decision tree forests, random forests), reading models and systems, artificial It includes fusion, sensor fusion, image fusion, reinforcement learning, augmented reality, pattern recognition, automated planning, and more.

메모리(240)는 촬영장치(100)에서 촬영한 영상 데이터를 저장할 수 있으며, 이외에 서버(200)에서 수행하는 다양한 기능을 지원하는 데이터를 저장한다. The memory 240 may store image data taken by the photographing device 100, and also store data supporting various functions performed by the server 200.

예를 들어 메모리(240)는 촬영장치(100)에서 촬영한 영상 데이터를 통해 구조물의 위치가 변경되었는지를 확인할 수 있는 유효 프레임을 추출하는 명령어, 추출된 유효 프레임을 기초로 구조물의 변위를 판단할 수 있는 명령어, 러닝 프로세서(230)가 동작하기 위한 데이터 등을 저장할 수 있다. For example, the memory 240 determines the displacement of the structure based on a command for extracting an effective frame capable of confirming whether the location of the structure has changed through image data captured by the photographing device 100, and the extracted effective frame. It may store instructions, data for the running processor 230 to operate, and the like.

이러한 메모리(240)는 필요에 따라 학습된 모델을 학습 시점 또는 학습 진척도 등에 따라 복수의 버전으로 구분하여 저장할 수도 있다. The memory 240 may store the learned model by dividing it into a plurality of versions according to the learning time or learning progress, if necessary.

이때, 메모리(240)는 데이터 획득부(220)에서 획득한 입력 데이터, 모델 학습을 위한 학습 데이터(또는 훈련 데이터), 모델의 학습 히스토리 등을 더 저장할 수도 있다. In this case, the memory 240 may further store input data acquired by the data acquisition unit 220, learning data (or training data) for model learning, and a learning history of the model.

이와 같이 메모리(240)에 저장된 입력 데이터는 모델 학습에 적합하게 가공된 데이터뿐 아니라 가공되지 않은 입력 데이터 그 자체가 될 수도 있다. In this way, the input data stored in the memory 240 may be not only processed data suitable for model learning but also unprocessed input data itself.

이러한 메모리(240)는 모델 저장부(241)와 데이터 베이스(242) 등을 포함할 수 있다. This memory 240 may include a model storage unit 241 and a database 242 and the like.

모델 저장부(241)는 러닝 프로세서(230)를 통해 학습 중이거나 학습된 모델(또는 인공 신경망, 241a)을 저장하며, 학습을 통하여 모델이 업데이트되면 업데이트된 모델을 저장할 수 있다. The model storage unit 241 stores a model (or artificial neural network, 241a) that is being learned or learned through the learning processor 230, and can store the updated model when the model is updated through learning.

모델 저장부(241)는 필요에 따라 학습된 모델을 학습 시점 또는 학습 진척도 등에 따라 복수의 버전으로 구분하여 저장할 수 있다.The model storage unit 241 may classify and store the learned model into a plurality of versions according to learning timing or learning progress, as needed.

도 2에 도시된 인공신경망(241a)은 복수의 은닉층을 포함하는 인공 신경망의 하나의 예시일 뿐이며, 본 발명의 인공 신경망이 이에 한정되는 것은 아니다.The artificial neural network 241a shown in FIG. 2 is only one example of an artificial neural network including a plurality of hidden layers, and the artificial neural network of the present invention is not limited thereto.

또한 인공신경망(241a)은 하드웨어 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 인공 신경망(241a) 일부 또는 전부가 소프트웨어로 구현되는 경우, 인공 신경망(241a)을 구성하는 하나 이상의 명령어는 메모리(240)에 저장될 수 있다. In addition, the artificial neural network 241a may be implemented as hardware software or a combination of hardware and software. When part or all of the artificial neural network 241a is implemented as software, one or more instructions constituting the artificial neural network 241a may be stored in the memory 240 .

데이터 베이스(242)는 데이터 획득부(220)에서 획득한 영상 데이터, 모델 학습을 위하여 이용되는 학습 데이터(또는 훈련 데이터), 모델의 학습 히스토리 등을 저장한다.The database 242 stores image data acquired by the data acquisition unit 220, learning data (or training data) used for model learning, and a learning history of the model.

이러한 데이터 베이스(242)에 저장된 입력 데이터는 모델 학습에 적합하게 가공된 데이터뿐만 아니라, 가공되지 않은 입력 데이터 그 자체일 수 있다.The input data stored in the database 242 may be not only processed data suitable for model learning, but also unprocessed input data itself.

프로세서(260)는 앞서 설명된 응용 프로그램과 관련한 동작 이외에 통상적으로 서버(200)의 전반적인 동작을 제어할 수 있다. 프로세서(260)는 앞서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The processor 260 may control general operations of the server 200 in addition to operations related to the application programs described above. The processor 260 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the components described above or by running an application program stored in the memory 170.

또한, 프로세서(260)는 데이터 분석 및 기계 학습 알고리즘을 사용하여 결정되거나, 생성된 정보에 기초하여 서버(200)의 적어도 하나의 실행 가능한 동작을 결정 또는 예측할 수 있다. 이를 위해 프로세서(260)는 러닝 프로세서(230)의 데이터를 요청하거나 검색하고 수신할 수 있으며, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나 바람직한 것으로 판단되는 동작하도록 서버(200)를 제어할 수도 있다. In addition, the processor 260 may determine or predict at least one executable operation of the server 200 based on information determined or generated using data analysis and machine learning algorithms. To this end, the processor 260 may request, retrieve, and receive data from the learning processor 230, and may control the server 200 to perform a predicted operation or an operation determined to be desirable among at least one executable operation. .

프로세서(260)는 지능적 에뮬레이션(즉, 지식 기반 시스템, 추론 시스템 및 지식 획득 시스템)을 구현하는 다양한 기능을 수행 할 수 있다. 이는 적응 시스템, 기계 학습 시스템, 인공 신경망 등을 포함하는, 다양한 유형의 시스템(예컨대, 퍼지 논리 시스템)에 적용될 수 있다.Processor 260 may perform various functions that implement intelligent emulation (ie, knowledge-based systems, reasoning systems, and knowledge acquisition systems). It can be applied to various types of systems (eg, fuzzy logic systems), including adaptive systems, machine learning systems, artificial neural networks, and the like.

또한, 프로세서(260)는 촬영장치(100)에서 촬영한 구조물 영상 정보를 수집하여 메모리(240)에 저장할 수 있다. 프로세서(260)에 저장된 구조물 영상 정보와 기 저장된 사용 사용 히스토리 정보 및 예측 모델링을 사용하여 특정 기능을 실행하기 위한 최상의 매치를 결정하게 된다. In addition, the processor 260 may collect structure image information captured by the photographing device 100 and store it in the memory 240 . The best match for executing a specific function is determined using the structure image information stored in the processor 260, pre-stored usage history information, and predictive modeling.

프로세서(260)는 특정 동작이 수행되는 경우, 데이터 분석 및 기계 학습 알고리즘 및 기법을 통해 특정 동작의 실행을 나타내는 이력 정보를 분석하고, 분석된 정보에 기초하여 이전에 학습 한 정보의 업데이트를 수행 할 수 있다.When a specific operation is performed, the processor 260 analyzes history information indicating the execution of the specific operation through data analysis and machine learning algorithms and techniques, and updates previously learned information based on the analyzed information. can

따라서 프로세서(260)는 러닝 프로세서(230)와 함께 업데이트 된 정보에 기초하여 데이터 분석 및 기계 학습 알고리즘 및 기법의 미래 성능의 정확성을 향상시킬 수 있다.Accordingly, processor 260, along with learning processor 230, may improve the accuracy of data analysis and future performance of machine learning algorithms and techniques based on the updated information.

도 3은 본 발명의 실시 예에 따른 구조물 변위 모니터링 시스템을 이용하여 구조물 변위 모니터링 과정을 도시한 도면이고, 도 4는 본 발명의 실시 예에 따라 구조물을 모니터링하는 예를 도시한 도면이며, 도 5 및 도 6은 본 발명의 실시 예에 따라 구조물을 촬영한 이미지 프레임을 통해 구조물 변위를 확인하는 예를 도시한 도면이고, 도 7은 본 발명의 실시 예에 따른 광학 흐름의 예를 도시한 도면이며, 도 8은 본 발명의 실시 예에 따라 구조물의 거동을 계산하는 과정을 도시한 도면이다. 3 is a view showing a structure displacement monitoring process using a structure displacement monitoring system according to an embodiment of the present invention, FIG. 4 is a view showing an example of monitoring a structure according to an embodiment of the present invention, and FIG. 5 and FIG. 6 is a diagram showing an example of checking structure displacement through an image frame in which a structure is photographed according to an embodiment of the present invention, and FIG. 7 is a diagram showing an example of an optical flow according to an embodiment of the present invention. , FIG. 8 is a diagram illustrating a process of calculating the behavior of a structure according to an embodiment of the present invention.

도 3 및 도 4에 도시된 바와 같이, 구조물 변위 모니터링 과정은, 교량, 대형 건물 등의 구조물을 촬영하고, 촬영된 영상에서 구조물의 변위가 변화하였는지를 판단할 수 있는 유효 프레임을 추출한다(단계 S110). As shown in FIGS. 3 and 4 , in the structure displacement monitoring process, a structure such as a bridge or a large building is photographed, and an effective frame capable of determining whether the displacement of the structure has changed is extracted from the photographed image (step S110). ).

구체적으로 변위가 발생하였는지를 판단하기 위한 구조물을 촬영장치(100)를 이용하여 촬영할 수 있다. 촬영장치(100)를 통해 촬영된 영상은 촬영장치(100) 또는 서버(200)에서 이미지를 보정하며, 보정된 이미지를 기반으로 구조물의 건전성을 결정할 수 있도록 한다. 이하 본 발명의 실시 예에서 이미지 보정은 서버(200)를 통해 수행되는 예를 들어 설명하기로 한다. Specifically, a structure for determining whether displacement has occurred may be photographed using the photographing device 100 . The image captured by the photographing device 100 is corrected by the photographing device 100 or the server 200, and the soundness of the structure can be determined based on the corrected image. Hereinafter, an example in which image correction is performed through the server 200 in an embodiment of the present invention will be described.

설명한 바와 같이, 촬영장치(100)는 구조물을 3차원 이미지로 촬영하게 된다. 이렇게 촬영된 3차원 이미지는 구조물의 형상을 나타내는 것일 뿐 구조물의 변위를 나타내지는 못한다. 따라서, 촬영된 3차원 이미지를 2차원 이미지로 보정해야 구조물의 변위를 변화를 계산할 수 있다. As described, the imaging device 100 captures the structure as a 3D image. The 3D image taken in this way only represents the shape of the structure, but does not represent the displacement of the structure. Therefore, a change in displacement of a structure can be calculated only when the captured 3D image is corrected with a 2D image.

이미지 변환 과정을 살펴보면, 촬영된 3차원 이미지에는 구조물, 주변 환경 등 다양한 이미지를 포함된다. 이중, 이미지 변환 과정은 구조물을 표시할 수 있는 점들을 2차원 이미지로 투영하는 과정을 의미한다. 즉, 이미지 변환은 3차원으로 촬영된 이미지에 포함된 실제 좌표 중 임의의 좌표를 2차원 평면 이미지에 투영하여 투영 좌표를 생성하는 것이다. 이러한 좌표 투영은 호모그래피 행렬을 통해 변환할 수 있고, 이와 같은 이미지 변환을 카메라 캘리브레이션이라고 한다. 이때, 촬영장치(100)가 영상을 촬영할 때의 조건인 렌즈, 구조물과의 거리, 구조물을 촬영하는 각도 등을 제거해야 보다 정확하게 이미지 변환이 이루어질 수 있다. Looking at the image conversion process, the captured 3D image includes various images such as structures and surrounding environments. Among them, the image conversion process means a process of projecting points capable of displaying a structure into a two-dimensional image. That is, image conversion is to generate projected coordinates by projecting arbitrary coordinates among real coordinates included in a 3D captured image onto a 2D flat image. This coordinate projection can be converted through a homography matrix, and such image conversion is called camera calibration. In this case, the image conversion can be performed more accurately only when conditions for capturing an image by the photographing device 100 are removed, such as a lens, a distance from a structure, and an angle at which a structure is photographed.

캘리브레이션 과정은 예를 들어 보정계수법(scale factor), 전체 투영행렬(Full Projection Matrix), 평면 호모그래피 행렬 전환법(Planar Homography matrix Transforms, PHT) 등의 방법 중 어느 하나를 이용할 수 있으며, 본 발명의 실시 예는 호모그래피 행렬 전환법(PHT)을 이용하여 3차원 영상에서 2차원 이미지를 획득하는 예를 들기로 한다.The calibration process may use any one of methods such as, for example, a scale factor, a full projection matrix, and a planar homography matrix transforms (PHT). In the embodiment, an example of acquiring a 2D image from a 3D image using a homography matrix conversion (PHT) will be given.

여기서, 호모그래피 행렬 전환법은 다음의 식으로 표현된다. Here, the homography matrix conversion method is expressed by the following equation.

식 (1) Equation (1)

Figure pat00004
Figure pat00004

여기서, X는 실제 좌표라고 할 수 있으며, x는 2차원 이미지에서 추출한 좌표인 투영 좌표를 의미한다. 또한, H는 3x3 행렬인 호모그래피 행렬 중 하나이며, s는 이미지 스케일을 의미한다. Here, X can be referred to as real coordinates, and x refers to projected coordinates that are coordinates extracted from a 2D image. In addition, H is one of homography matrices that are 3x3 matrices, and s means an image scale.

호모그래피 행렬 전환법은 카메라 렌즈의 축과 대상 구조물의 축이 평행하지 않아도 원본 이미지를 재 투영하여 이미지를 왜곡 없이 투영할 수 있는 특징이 있다. 구체적으로, 도 5를 참고하면 PHT는 3차원 이미지에 임의의 4 개의 좌표를 선택하여(도 5 (a)의 a, b, c 및 d 참조), 2차원 이미지로 투영된 투영 좌표(SC_도 6 (a) 참고)가 생성될 수 있도록 한다(도 5 (b)의 a, b, c 및 d 참조). The homography matrix conversion method is characterized in that the original image can be re-projected and the image can be projected without distortion even if the axis of the camera lens and the axis of the target structure are not parallel. Specifically, referring to FIG. 5, the PHT selects four random coordinates on a 3D image (see a, b, c, and d in FIG. 5 (a)) and projects the projected coordinates (SC_ 6 (a)) can be generated (see a, b, c and d in FIG. 5 (b)).

이때, 식 (1)에서 2차원 이미지로 투영된 투영 좌표(SC)는 x이며, 실제 좌표(X)와 호모그래피 행렬(H)의 역행렬 및 이미지 스케일(S)의 역함수의 곱으로 계산될 수 있다. At this time, the projection coordinate (SC) projected to the two-dimensional image in Equation (1) is x, and can be calculated as the product of the real coordinate (X), the inverse matrix of the homography matrix (H), and the inverse function of the image scale (S). there is.

여기서, 투영 좌표(SC) x는 다음의 식으로 표현된다. Here, the projection coordinate (SC) x is expressed by the following equation.

식 (2) Equation (2)

Figure pat00005
Figure pat00005

여기서, Iij 는 3차원 이미지의 픽셀(i, j)의 그레이스케일 값(gray value_명암값)을 의미하며, m과 n은 촬영하는 구조물에서 관심 영역(Region of interest; RoI)를 의미한다. Here, I ij means the gray scale value (gray value_contrast value) of the pixel (i, j) of the 3D image, and m and n mean the region of interest (RoI) in the structure to be photographed. .

또한, 이미지 스케일은 실제 물체의 사이즈와 이미지 사이즈 비율, 카메라에서 측정 대상까지의 거리와 초점거리의 비율 등을 의미할 수 있다. In addition, the image scale may mean a ratio between a size of a real object and an image size, a ratio between a distance from a camera to a target to be measured and a focal length, and the like.

이와 같이, 3차원 이미지의 임의의 좌표에서 2차원 이미지의 투영 좌표(SC)를 추출할 때, 구조물에서 변위가 발생하였는지를 추측할 수 있는 유효 프레임을 결정할 수 있다.In this way, when the projected coordinates SC of the 2D image are extracted from arbitrary coordinates of the 3D image, it is possible to determine an effective frame capable of inferring whether displacement has occurred in the structure.

결정되는 유효 프레임은 특징점(feature detection)에 대한 딥러닝 설계를 기반으로 결정될 수 있다. 예컨대 도 6을 참고하면 구조물을 설계할 때, 구조물의 정위치를 기준할 수 있는 기준 좌표(BC)가 설정될 수 있다. 기준 좌표(BC)를 기준으로 보정된 2차원 이미지에서 도출한 투영 좌표(SC)가 기준 좌표(BC)에서 벗어난 2차원 이미지를 유효 프레임으로 결정할 수 있다(도 6의 (a)). The determined effective frame may be determined based on deep learning design for feature detection. For example, referring to FIG. 6 , when designing a structure, reference coordinates (BC) that can refer to the exact position of the structure may be set. A 2D image in which the projected coordinates SC derived from the 2D image calibrated based on the reference coordinates BC deviate from the reference coordinates BC may be determined as an effective frame ((a) of FIG. 6 ).

즉, 구조물의 거동 여부는 기준 좌표(BC)를 기준으로 구조물의 움직임을 측정하는 것이며, 구조물의 가장자리와 같이 이미지 상에서 주변환경과 구조물을 구분할 수 있는 점들로 정의될 수 있다. 또한, 유효 프레임은 기준 좌표(BC)로부터 시간에 따라 발생하는 움직임을 비교하여 투영 좌표(SC)가 기준 좌표(BC)에서 벗어난 경우의 이미지를 의미할 수 있다. That is, the motion of the structure is determined by measuring the motion of the structure based on the reference coordinates (BC), and may be defined as points that can distinguish the structure from the surrounding environment on the image, such as the edge of the structure. In addition, the effective frame may refer to an image when the projected coordinates SC deviate from the reference coordinates BC by comparing movement occurring over time from the reference coordinates BC.

설명한 바와 같이 정의된 기준 좌표(BC) 기준으로 2차원 이미지로 투영된 투영 좌표(SC)를 기준 좌표(BC)와 비교하여 구조물의 거동 여부를 판단할 수 있으며, 거동이 발생한 프레임만을 유효 프레임으로 인식할 수 있다(도 6의 (b)). 이러한 인식한 유효 프레임은 실시간으로 유효 좌표로 확인할 수 있다(도 6의 (c)). As described above, the motion of the structure can be determined by comparing the projected coordinates (SC) projected into a 2D image based on the defined reference coordinates (BC) with the reference coordinates (BC). It can be recognized (Fig. 6 (b)). These recognized valid frames can be confirmed as effective coordinates in real time (FIG. 6(c)).

이때, 유효 좌표는 앞서 획득한 투영 좌표(SC) 중에서 움직임이 발생한 좌표를 연결하여 구조물의 거동을 웨이블릿(wavelet)으로 변환한 것을 의미한다. In this case, the effective coordinate means that the behavior of the structure is converted into a wavelet by connecting the coordinates where the movement occurs among the previously acquired projection coordinates SC.

여기서, 유효 프레임을 결정하기 위해 2차원 이미지 포커스 후방에 위치한 이미지는 가중치를 낮추고 2차원 이미지 포커스 전방에 위치한 이미지는 가중치를 높여 유효 프레임을 결정할 수 있다. 즉, 초점에 가까운 데이터에 가중치를 부여함으로써 이미지 노이즈를 줄일 수 있다. Here, in order to determine an effective frame, an image positioned behind the focus of the 2D image may have a lower weight and an image positioned in front of the focus of the 2D image may have an increased weight. That is, image noise can be reduced by weighting data close to the focus.

이때, 유효 프레임을 결정하기 위한 딥러닝 알고리즘은 Convolutional Neural Networks(CNN), Boltzmann Machines, Belief Network, Recurrent Neural Networks, Auto-encoders, GANs(Generative Adversarial Networks)와 같은 딥러닝 알고리즘을 활용할 수 있다. 여기서 CNN 다음에 최대풀링계층(Max Pooling layer)과 드랍아웃 비율이 다른 드랍아웃계층(Drop-out layer)은 기록된 거동을 분류하고 전이학습계층(Transfer learning System, FC)을 활용하여 거동을 식별할 수 있다. In this case, deep learning algorithms such as Convolutional Neural Networks (CNN), Boltzmann Machines, Belief Networks, Recurrent Neural Networks, Auto-encoders, and Generative Adversarial Networks (GANs) may be used as the deep learning algorithm for determining the effective frame. Here, a drop-out layer with a different drop-out ratio and a Max Pooling layer after the CNN classify the recorded behavior and identify the behavior by utilizing the transfer learning system (FC). can do.

이와 같이 촬영된 영상에서 유효 프레임을 추출하면 유효 프레임에 대한 광학 흐름(Optical flow)을 추정할 수 있다(단계 S120). If valid frames are extracted from the photographed image as described above, optical flow for the effective frames may be estimated (step S120).

광학 흐름이란, 촬영된 영상 내 구조물과 배경이 구분될 수 있는 구조물의 가장자리에서의 움직임을 추정하는 것을 의미한다. 도 7을 참고하면 움직이는 물체가 있을 때, 시간 t에서 좌표 (x, y)에 위치한 물체가 이후의 시간 t+1에서 위치할 좌표를 추정하도록 영상에서 인접한 이미지에 나타나는 명암의 변화를 고려하여 물체의 움직임을 추정할 수 있는 알고리즘이다. 광학 흐름을 추정하기 위한 유효 프레임은 3차원의 3차원 이미지에서 추출한 2차원의 2차원 이미지를 통해 수행될 수 있으며, 딥러닝 알고리즘을 통해 추정할 수 있다. Optical flow means estimating motion at the edge of a structure in which a structure and a background in a photographed image can be distinguished. Referring to FIG. 7, when there is a moving object, the object located at the coordinates (x, y) at time t considers the change in contrast appearing in the adjacent image in the image to estimate the coordinates at which the object will be located at a later time t + 1. It is an algorithm that can estimate the motion of An effective frame for estimating the optical flow may be performed through a 2-dimensional 2-dimensional image extracted from a 3-dimensional 3-dimensional image, and may be estimated through a deep learning algorithm.

유효 프레임에 대한 광학 흐름을 추정하는 딥러닝 알고리즘으로는 예를 들어, FlowNet 또는 FlowNet2을 이용할 수 있다. FlowNet 또는 FlowNet2는, 앞서 유효 좌표를 통해 구조물의 거동을 웨이블릿(wavelet)으로 변환된 서로 다른 유효 프레임을 적층하고 9개의 합성곱 계층(Convolution layer)이 있는 일반 네트워크(Generic Network)를 통과하면서 네트워크가 구조물의 거동 정보를 추출하기 위해 이미지 쌍(pair)을 처리하는 방법을 스스로 결정할 수 있도록 하는 알고리즘이다. For example, FlowNet or FlowNet2 may be used as a deep learning algorithm for estimating the optical flow for an effective frame. FlowNet or FlowNet2 stacks different effective frames in which the behavior of the structure has been transformed into wavelets through effective coordinates and passes through a generic network with 9 convolution layers, so that the network becomes It is an algorithm that allows itself to decide how to process image pairs to extract structure behavior information.

여기서 적층하는 서로 다른 유효 프레임은 시간흐름에 따른 연속적인 이미지일 수 있으며, 다르게는 서로 대응되는 연속 이미지일 수 있다. Here, the different effective frames stacked may be successive images according to the lapse of time, or may be successive images corresponding to each other.

FlowNet-S에서는 첫 번째 계층은

Figure pat00006
사이즈의 CNN 필터(Kernel)를 가지며, 두 번째, 세 번째 계층의 필터는
Figure pat00007
, 네 번째부터 아홉 번째 필터는
Figure pat00008
의 사이즈를 갖는다. 각각의 계층의 차원은 다음과 같이 conv1 (
Figure pat00009
), conv2 (
Figure pat00010
), conv3 (
Figure pat00011
), conv3_1 (
Figure pat00012
), conv4 (
Figure pat00013
), conv4_1 (
Figure pat00014
), conv5 (
Figure pat00015
), conv5_1 (
Figure pat00016
), conv6 (
Figure pat00017
)로 구성된다. 마지막으로, Coarse feature map의 개선작업을 추가하여 해상도를 원본 이미지에 가깝게 올려주어 광학 흐름 예측이 수행될 수 있도록 한다. In FlowNet-S, the first layer is
Figure pat00006
It has a CNN filter (Kernel) of the size, and the filters of the second and third layers are
Figure pat00007
, the fourth through ninth filters are
Figure pat00008
has the size of The dimension of each layer is conv1 (
Figure pat00009
), conv2 (
Figure pat00010
), conv3 (
Figure pat00011
), conv3_1 (
Figure pat00012
), conv4 (
Figure pat00013
), conv4_1 (
Figure pat00014
), conv5 (
Figure pat00015
), conv5_1 (
Figure pat00016
), conv6 (
Figure pat00017
) is composed of Finally, by adding refinement of the coarse feature map, the resolution is raised close to the original image so that optical flow prediction can be performed.

구체적으로, FlowNet-S는 투영 좌표(SC)의 정확도를 개선할 수 있다. 이미지의 해상도에 따라 구조물 가장자리를 형성하는 라인이 부정확할 수 있는데, 이를 FlowNet-S를 통해 배경과 구조물의 경계를 확실하게 구분하도록 하며, 투영 좌표(SC)가 보다 명확하게 투영될 수 있도록 하여 광학 흐름이 보다 정확하게 추정될 수 있도록 한다. Specifically, FlowNet-S can improve the accuracy of projected coordinates (SC). Depending on the resolution of the image, the line forming the edge of the structure may be inaccurate. Through FlowNet-S, the background and the boundary of the structure can be clearly distinguished, and the projection coordinates (SC) can be projected more clearly so that optical Allows flow to be estimated more accurately.

FlowNet-C는 두 개의 이미지를 직접 적층하는 대신에, 먼저 두 이미지를 세 개의 합성곱 계층(Convolution layer)에 개별적으로 공급한 후 correlation layer와 함께 결합한다. 남은 6개의 합성곱 계층 이후에 개선작업이 추가되면서 유효 프레임의 광학 흐름이 산출될 수 있다. Instead of directly stacking two images, FlowNet-C first feeds the two images individually into three convolution layers and then combines them together with a correlation layer. The optical flow of the effective frame can be calculated by adding improvement work after the remaining 6 convolution layers.

FlowNet2는 FlowNet을 기반으로 앞서 설명한 FlowNet-C와 FlowNet-S를 적층하고 작은 거동에 특화된 sub-network를 통합하여 기존의 FlowNet의 정확도와 속도를 향상한다는 효과가 있다. FlowNet2 has the effect of improving the accuracy and speed of the existing FlowNet by stacking the previously described FlowNet-C and FlowNet-S based on FlowNet and integrating a sub-network specialized for small behavior.

구체적으로, 3차원 이미지로부터 획득한 유효 프레임에 FlowNet(or FlowNet2 등)을 적용할 경우, 획득한 유효 프레임에서의 투영 좌표(SC) 결과 신뢰성이 향상될 수 있다. Specifically, when FlowNet (or FlowNet2, etc.) is applied to an effective frame obtained from a 3D image, reliability of projection coordinates (SC) results in the obtained effective frame can be improved.

이와 같이 유효 프레임에 대한 광학 흐름을 추정하면, 추정된 광학 흐름에 기반하여 유효 프레임에 나타난 구조물의 건전성을 결정할 수 있다(단계 S130). If the optical flow for the effective frame is estimated in this way, the soundness of the structures displayed in the effective frame can be determined based on the estimated optical flow (step S130).

구조물의 건전성을 결정하기 전에, 추출된 유효 프레임에 흔들림이 있는지에 따라 흔들림을 보정할 수 있다. 촬영장치(100)로 구조물을 촬영하는 과정에서 지면의 진동이나 바람과 같은 촬영장치(100)가 설치된 환경적 요인에 의하여 촬영장치(100)에 흔들림이 발생할 수 있다. 이러한 촬영장치(100)의 흔들림은 구조물 거동과 혼재될 수 있으며, 이로 인해 구조물 건전성을 산출하는 과정에서 오차로 유발될 수 있다. 따라서 촬영장치(100) 흔들림 오차를 제거하기 위해 촬영장치(100)에 촬영장치(100)의 거동을 측정할 수 있는 거동측정센서를 설치할 수 있다. Before determining the soundness of the structure, shake can be corrected according to whether there is shake in the extracted effective frame. In the process of photographing a structure with the photographing apparatus 100, vibration of the photographing apparatus 100 may occur due to environmental factors in which the photographing apparatus 100 is installed, such as vibration of the ground or wind. The shaking of the photographing device 100 may be mixed with the behavior of the structure, which may cause an error in the process of calculating the integrity of the structure. Therefore, in order to eliminate the shaking error of the photographing apparatus 100, a behavior measurement sensor capable of measuring the behavior of the photographing apparatus 100 may be installed in the photographing apparatus 100.

또한, 촬영장치(100)에는 잡음을 가지는 영상(이미지)의 잡음을 제거하고, 영상 내 패턴을 인식하기 위한 프로그램 중 하나인 웨이블릿 필터(wavelet filter)가 포함되어 구조물의 거동에 대한 신호를 개선할 수 있다. In addition, the photographing device 100 includes a wavelet filter, which is one of programs for removing noise from an image (image) having noise and recognizing a pattern in the image, to improve the signal for the behavior of the structure. can

결론적으로, 촬영장치(100)를 이용하여 촬영하는 경우, 주변 환경의 변화(예: 지진, 바람 등)에 의해 촬영장치(100)가 흔들릴 수 있다. 따라서, 촬영장치(100)가 촬영한 이미지에 구조물의 거동뿐 아니라 촬영장치(100)의 흔들림이 포함되어 촬영될 수 있는 것이다. 이때, 촬영장치(100)에 웨이블릿 필터를 설치하고, 설치된 웨이블릿 필터를 통해 촬영장치(100)의 움직임만을 제거할 수 있도록 하여 구조물의 건전성을 판단할 수 있는 유효 프레임을 획득할 수 있도록 한다. In conclusion, when taking pictures using the photographing apparatus 100, the photographing apparatus 100 may be shaken by a change in the surrounding environment (eg, earthquake, wind, etc.). Therefore, the image captured by the photographing device 100 may include not only the behavior of the structure but also the shaking of the photographing device 100 and be photographed. At this time, a wavelet filter is installed in the imaging device 100, and only motion of the imaging device 100 can be removed through the installed wavelet filter, so that an effective frame capable of determining the soundness of the structure can be obtained.

이와 같이 2차원 이미지로 표현된 유효 프레임의 흔들림을 보정한 후, 2차원 이미지에서 실제 좌표를 추출하기 위해 다시 호모그래피 행렬 전환법을 이용하여 실제 좌표를 변환할 수 있다. In this way, after correcting the shaking of the effective frame represented by the 2D image, the real coordinates may be converted using the homography matrix conversion method again to extract the real coordinates from the 2D image.

여기서, 실제 좌표(X)는 2차원 이미지의 스케일, 호모그래피 행렬을 이용한 변환 행렬 및 2차원 이미지의 픽셀을 이용하여 추출한 이미지 좌표를 순차적으로 곱하여 도출할 수 있다.Here, the actual coordinates (X) may be derived by sequentially multiplying the scale of the 2D image, the transformation matrix using the homography matrix, and the image coordinates extracted using pixels of the 2D image.

식 (1) 참고See equation (1)

Figure pat00018
Figure pat00018

즉, 실제 좌표를 추출하기 위해 3차원 영상에 호모그래피 행렬 전환법을 적용하여 2차원 이미지를 추출한다. 추출한 2차원 이미지에 다시 호모그래피 행렬 전환법을 적용하여 실제 좌표를 추출할 수 있도록 하는 것이다. That is, in order to extract real coordinates, a 2D image is extracted by applying a homography matrix conversion method to a 3D image. It is to apply the homography matrix conversion method again to the extracted 2D image so that the actual coordinates can be extracted.

도 8에 도시된 바와 같이, 구조물의 변위가 발생하는 관심 영역에 위치한 구조물의 영상을 촬영한다. 촬영된 영상은 3차원 이므로 이미지 캘리브레이션 중 호모그래피 행렬 전환법을 3차원 영상에 적용하여 움직임을 대변할 수 있는 투영 좌표(SC)의 시간에 대한 변화값을 획득할 수 있다(도 8의 (a) 참고: 이미지 변환_캘리브레이션). As shown in FIG. 8 , an image of a structure located in a region of interest where displacement of the structure occurs is captured. Since the captured image is 3D, the homography matrix conversion method during image calibration can be applied to the 3D image to obtain a change value with respect to time of projection coordinates (SC) that can represent motion (FIG. 8 (a ) Note: image conversion_calibration).

획득한 투영 좌표(SC)를 호모그래피 행렬에 다시 대입하여 실제 구조물을 나타내는 실제 좌표로 변환하게 된다(도 8의 (b) 참고). The acquired projected coordinates (SC) are substituted into the homography matrix again to be converted into real coordinates representing the real structure (see (b) of FIG. 8).

이후, 이미지 캘리브레이션으로 추출한 투영 좌표(SC)와 실제 좌표 사이의 거리를 계산하여 실제 구조물이 거동한 변위를 계산하도록 한다. 이때, 실제 구조물의 거동 변위는 가우시안 필터(Gaussian Kernel)에 적용할 수 있다(도 8의 (c) 참고). Thereafter, the distance between the projected coordinates (SC) extracted by image calibration and the actual coordinates is calculated to calculate the displacement of the actual structure. In this case, the behavioral displacement of the actual structure can be applied to a Gaussian Kernel (refer to (c) of FIG. 8).

가우시안 필터(Gaussian Kernel)란 다음의 식으로 표현된다.A Gaussian filter is expressed by the following equation.

식 (3) Equation (3)

Figure pat00019
Figure pat00019

여기서, w와 h는 이미지의 너비와 높이이며,

Figure pat00020
는 실수 x를 입력값(input)으로 취하고 x보다 작거나 같은 가장 큰 정수를 출력값(output)으로 제공하는 플로어 함수(floor function)일 수 있다. where w and h are the width and height of the image,
Figure pat00020
may be a floor function that takes a real number x as an input and provides the largest integer less than or equal to x as an output.

정리하면, 2차원의 이미지에서 추출한 투영 좌표(SC)를 통해 거동이 발생한 유효 좌표를 추출하고, 유효 좌표가 추출된 이미지만을 유효 프레임으로 설정할 수 있다. 이러한 유효 프레임 설정은 전체 영상(이미지)에서 필요한 영역만을 추출하는 것이므로 구조물 거동을 확인하고자 하는 영상의 크기(사이즈)를 최소화할 수 있다. In summary, effective coordinates where behavior has occurred can be extracted through projected coordinates (SC) extracted from a two-dimensional image, and only images from which effective coordinates have been extracted can be set as valid frames. Since this valid frame setting extracts only the necessary area from the entire image (image), the size (size) of the image to check the behavior of the structure can be minimized.

특히, 유효프레임으로 추출한 구조물이 거동하는 프레임만 있는 이미지에서 구조물의 거동을 보다 정확하게 추적할 수 있게 된다. 앞서 설명한 바와 같이, 촬영된 영상 내 구조물과 배경이 구분될 수 있는 구조물의 가장자리에서의 움직임을 추정하는 것을 의미하는 광학 흐름을 통해 획득한 구조물의 움직임은 구조물 가장자리에서의 움직임일 수 있다. In particular, it is possible to more accurately track the behavior of a structure in an image having only a frame in which a structure extracted as an effective frame moves. As described above, the motion of a structure acquired through optical flow, which means estimating motion at the edge of a structure in which a structure and a background in a photographed image can be distinguished, may be a motion at the edge of a structure.

이때, 구조물의 건전성(d)은 보다 구체적으로 다음의 식으로 계산될 수 있다. At this time, the soundness (d) of the structure can be more specifically calculated by the following equation.

식 (4)Equation (4)

Figure pat00021
Figure pat00021

여기서, Xi와 Xo는 이미지 픽셀의 현재 위치 좌표 및 원본 위치좌표이고, *은 요소 별 곱셈 연산자인일 수 있다. Here, X i and X o are the current location coordinates and original location coordinates of image pixels, and * may be an element-by-element multiplication operator.

구체적으로, Xo : 실제 구조물을 촬영한 이미지의 프레임에서 좌표(Original coordinate)를 의미하고, Xi : 실제 구조물을 촬영한 이미지의 i번째 프레임에서 좌표를 의미할 수 있다. Specifically, X o : coordinates in a frame of an image capturing an actual structure, and X i : coordinates in an i-th frame of an image capturing an actual structure.

따라서, Xo-Xi 는 변위 벡터를 의미할 수 있다. Accordingly, X o -X i may mean a displacement vector.

이와 같이 구조물의 건전성을 계산하면, 계산된 구조물의 건전성을 평가할 수 있다. 이하 도면을 참고하면 계산된 구조물의 건전성을 평가하는 과정을 살펴보기로 한다. If the soundness of the structure is calculated in this way, the soundness of the calculated structure can be evaluated. Referring to the drawings below, a process of evaluating the soundness of the calculated structure will be described.

도 9는 본 발명의 실시 예에 따라 구조물의 건전성 측정 및 평가하는 과정을 개략적으로 도시한 도면이다. 9 is a diagram schematically illustrating a process of measuring and evaluating the soundness of a structure according to an embodiment of the present invention.

도 9를 참고하면, 딥 러닝 알고리즘을 이용하여 촬영된 이미지를 기반으로 구조물의 거동을 측정할 수 있다. 이때, 웨이블릿 분석(Wavelet Analysis)을 적용하여 시간 및 주파수 영역에서 구조물의 거동을 추정할 수 있다. 웨이블릿이란, 0을 중심으로 급격한 증가와 감속을 반속하는 파동을 의미한다. 이와 유사하게 웨이블릿 분석이란, 기준 좌표(BC)를 기준으로 투영 좌표(SC)가 기준 좌표(BC)에서 벗어난 경우를 분석하는 것을 의미한다. Referring to FIG. 9 , the behavior of a structure may be measured based on a photographed image using a deep learning algorithm. At this time, the behavior of the structure may be estimated in the time and frequency domains by applying wavelet analysis. A wavelet refers to a wave that rapidly increases and decelerates around zero. Similarly, wavelet analysis means analyzing a case where the projected coordinates SC are out of the reference coordinates BC based on the reference coordinates BC.

구체적으로, 촬영장치(100)를 통해 촬영한 영상은 이미지 처리가 실행될 수 있다. 이미지 처리를 통해 구조물의 구조적 문제와 구조물의 거동을 학습하기 위한 구조물의 특징, 결함 등에 대한 데이터를 획득할 수 있다. Specifically, image processing may be performed on an image captured by the photographing device 100 . Through image processing, it is possible to acquire data on the characteristics, defects, etc. of a structure for learning structural problems and behavior of a structure.

이후, 처리된 이미지에서 유효 프레임을 추출하고, 추출한 유효 프레임에서 광학 흐름을 추정하여 구조물의 건전성을 계산하는 것이다. Thereafter, an effective frame is extracted from the processed image, and the soundness of the structure is calculated by estimating the optical flow in the extracted effective frame.

이상과 같이 건전성이 발생할 수 있는 구조물을 촬영하고, 딥러닝 알고리즘을 이용하여 촬영된 영상을 통해 구조물의 건전성을 모니터링할 수 있도록 한다. 이때, 구조물에 구조물 변위를 측정하는 장치를 별도로 설치하지 않고도 구조물의 건전성을 측정할 수 있으므로 구조물 건전성을 평가하기 위한 장치 설치 비용을 효과적으로 절감할 수 있다. As described above, a structure in which soundness may occur is photographed, and the soundness of the structure can be monitored through the captured image using a deep learning algorithm. At this time, since the soundness of the structure can be measured without separately installing a device for measuring the displacement of the structure, the cost of installing a device for evaluating the soundness of the structure can be effectively reduced.

또한, 본 발명의 구조물 변위 모니터링은 인공지능 기술을 이용하여 구조물 변위를 예측할 수 있다. 이로써, 구조물의 변위를 보다 빠르게 측정할 수 있어 구조물에 발생 가능한 문제를 미연에 방지할 수 있다. In addition, the structure displacement monitoring of the present invention can predict the structure displacement using artificial intelligence technology. As a result, the displacement of the structure can be measured more quickly, and problems that may occur in the structure can be prevented in advance.

이상 설명된 본 발명에 따른 실시 예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.Embodiments according to the present invention described above may be implemented in the form of a computer program that can be executed on a computer through various components, and such a computer program may be recorded on a computer-readable medium. At this time, the medium is a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, an optical recording medium such as a CD-ROM and a DVD, a magneto-optical medium such as a floptical disk, and a ROM hardware devices specially configured to store and execute program instructions, such as RAM, flash memory, and the like.

한편, 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be specially designed and configured for the present invention, or may be known and usable to those skilled in the art of computer software. An example of a computer program may include not only machine language code generated by a compiler but also high-level language code that can be executed by a computer using an interpreter or the like.

본 발명의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. In the specification of the present invention (particularly in the claims), the use of the term "above" and similar indicating terms may correspond to both singular and plural. In addition, when a range is described in the present invention, it includes the invention to which individual values belonging to the range are applied (unless there is a description to the contrary), as if each individual value constituting the range was described in the detailed description of the invention. .

본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 단계들은 적당한 순서로 행해질 수 있다. 반드시 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 또한, 본 발명에 따른 방법들에 포함된 단계들은 프로세서 또는 해당 단계의 기능을 수행하기 위한 모듈들을 통해서 수행될 수 있다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.The steps may be performed in any suitable order, provided that the order of steps constituting the method according to the present invention is not explicitly stated or stated to the contrary. The present invention is not necessarily limited by the order of description of the steps. In addition, the steps included in the methods according to the present invention may be performed by a processor or modules for performing the functions of the steps. The use of all examples or exemplary terms (eg, etc.) in the present invention is simply to explain the present invention in detail, and the scope of the present invention is limited due to the above examples or exemplary terms that are not limited by the claims. It is not. In addition, those skilled in the art can appreciate that various modifications, combinations and changes can be made according to design conditions and factors within the scope of the appended claims or equivalents thereof.

따라서, 본 발명의 사상은 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the described embodiments and should not be determined, and not only the claims described below but also all ranges equivalent to or equivalent to these claims belong to the scope of the spirit of the present invention. will do it

Claims (10)

구조물의 건전성(Structural Health)을 모니터링하는 방법으로서,
건정성을 모니터링하기 위한 구조물을 촬영한 영상으로부터 상기 구조물의 건전성을 예측하기 위한 일련의 유효 프레임을 추출하는 단계;
상기 일련의 유효 프레임에 대한 광학 흐름(Optical flow)을 추정하는 단계; 및
상기 광학 흐름에 기반하여 상기 일련의 유효 프레임에 나타난 구조물의 건전성을 결정하는 단계를 포함하는,
구조물 건전성 모니터링 방법.
As a method of monitoring structural health,
extracting a series of valid frames for predicting the health of the structure from an image of the structure for monitoring the health;
estimating an optical flow for the series of valid frames; and
determining the integrity of structures represented in the series of valid frames based on the optical flow;
Structural health monitoring methods.
제1항에 있어서,
상기 추출하는 단계는,
상기 구조물을 촬영한 3차원 이미지를 2차원 이미지로 보정하는 단계를 포함하고,
상기 보정하는 단계는,
상기 3차원 이미지에서 임의의 좌표를 선택하는 단계; 및
상기 임의의 좌표를 기준으로 상기 2 차원 이미지에 투영되는 투영 좌표를 생성하는 단계를 포함하는,
구조물 건전성 모니터링 방법.
According to claim 1,
The extraction step is
Comprising the step of correcting the three-dimensional image taken of the structure into a two-dimensional image,
The correcting step is
selecting an arbitrary coordinate in the 3D image; and
Generating projection coordinates projected onto the two-dimensional image based on the arbitrary coordinates,
Structural health monitoring methods.
제2항에 있어서,
상기 투영 좌표를 생성하는 단계 이후에,
상기 2차원 이미지의 스케일, 호모그래피 행렬을 이용한 변환 행렬 및 상기 투영 좌표를 순차적으로 곱하여 실제 좌표를 추출하는 단계를 포함하는,
구조물 건전성 모니터링 방법.
According to claim 2,
After generating the projected coordinates,
Extracting real coordinates by sequentially multiplying the scale of the two-dimensional image, a transformation matrix using a homography matrix, and the projection coordinates,
Structural health monitoring methods.
제3항에 있어서,
상기 결정하는 단계는,
상기 실제 좌표를 가우시안 필터(Gaussian Kernel)에 적용하는 단계를 포함하고,
상기 가우시안 필터(Gaussian Kernel)는,
Figure pat00022

(여기서, w와 h는 이미지의 너비와 높이이며,
Figure pat00023
는 실수 x를 입력값(input)으로 취하고 x보다 작거나 같은 가장 큰 정수를 출력값(output)으로 제공하는 플로어 함수(floor function)인)
구조물 건전성 모니터링 방법.
According to claim 3,
The determining step is
Applying the real coordinates to a Gaussian Kernel;
The Gaussian filter (Gaussian Kernel),
Figure pat00022

(Where w and h are the width and height of the image,
Figure pat00023
is a floor function that takes as input a real number x and gives as output the largest integer less than or equal to x)
Structural health monitoring methods.
제4항에 있어서,
상기 적용하는 단계는,
상기 구조물의 건전성(d)는
Figure pat00024
로 계산되는,
(여기서, Xi와 Xo는 이미지 픽셀의 현재 위치 좌표 및 원본 위치좌표이고, *은 요소 별 곱셈 연산자인)
구조물 건전성 모니터링 방법.
According to claim 4,
The applying step is
The integrity (d) of the structure is
Figure pat00024
which is calculated as
(Where X i and X o are the current position coordinates and original position coordinates of image pixels, and * is an element-by-element multiplication operator)
Structural health monitoring methods.
제1항에 있어서,
상기 추출하는 단계는,
상기 2차원 이미지에서 특징점(feature detection)을 기반으로 하는 투영 좌표를 추출하는 단계를 포함하고,
상기 결정하는 단계는,
기 저장된 기준 좌표와 상기 투영 좌표를 비교하여 상기 투영 좌표의 이동을 판단하는 단계를 포함하는,
구조물 건전성 모니터링 방법.
According to claim 1,
The extraction step is
Extracting projection coordinates based on feature detection from the two-dimensional image;
The determining step is
Comprising the step of determining the movement of the projected coordinates by comparing the previously stored reference coordinates with the projected coordinates,
Structural health monitoring methods.
제6항에 있어서,
상기 추출하는 단계는,
상기 2차원 이미지의 포커스 후방에 위치한 이미지는 가중치를 낮추고, 상기 2차원 이미지의 포커스 전방에 위치한 이미지는 가중치를 높이는 단계를 포함하는,
구조물 건전성 모니터링 방법.
According to claim 6,
The extraction step is
Lowering the weight of an image located behind the focus of the two-dimensional image and increasing the weight of an image located in front of the focus of the two-dimensional image.
Structural health monitoring methods.
제1항에 있어서,
상기 추정하는 단계는,
상기 유효 프레임의 흔들림을 보정하는 단계; 및
흔들임이 보정된 상기 유효 프레임들을 미리 훈련된 광학 흐름 추정 예측 모델에 입력하는 단계를 포함하는,
구조물 건전성 모니터링 방법.
According to claim 1,
The estimating step is
correcting shaking of the effective frame; and
Including the step of inputting the shake-corrected effective frames into a pre-trained optical flow estimation prediction model,
Structural health monitoring methods.
제8항에 있어서,
상기 입력하는 단계는,
상기 구조물의 건전성을 추출하기 위해 서로 다른 유효 프레임을 적층하고 9개의 합성곱(Convolution layer)이 있는 네트워크(Generic Network)를 통과하는 단계를 포함하고,
상기 통과하는 단계는,
상기 광학 흐름 추정 예측 모델 중 플로우 넷-S(FlowNet-S), 플로우 넷-C(FlowNet-C) 및 FlowNet2 중 적어도 어느 하나를 이용하는,
구조물 건전성 모니터링 방법.
According to claim 8,
The input step is
In order to extract the integrity of the structure, stacking different valid frames and passing through a network with 9 convolution layers (Generic Network),
The passing step is
Using at least one of FlowNet-S, FlowNet-C, and FlowNet2 among the optical flow estimation prediction models,
Structural health monitoring methods.
구조물의 건전성을 모니터링하는 시스템으로서,
적어도 하나의 프로세서; 및
상기 프로세서와 동작 가능하게 연결되고, 상기 프로세서에서 수행되는 적어도 하나의 코드를 저장하는 메모리를 포함하고,
상기 메모리는 상기 프로세서를 통해 실행될 때, 상기 프로세서로 하여금,
건정성(Structural Health)을 모니터링하기 위한 구조물을 촬영한 동영상으로부터 상기 구조물의 건전성을 예측하기 위한 일련의 유효 프레임을 추출하고, 상기 일련의 유효 프레임에 대한 광학 흐름(Optical flow)을 추정한 후, 상기 광학 흐름에 기반하여 상기 일련의 유효 프레임에 나타난 구조물의 건전성을 결정하기 위한 코드를 저장하는,
구조물 건전성 모니터링 시스템.
As a system for monitoring the integrity of a structure,
at least one processor; and
a memory operatively connected to the processor and storing at least one code executed by the processor;
When the memory is executed by the processor, it causes the processor to:
After extracting a series of effective frames for predicting the health of the structure from a video taken of a structure for monitoring structural health, and estimating the optical flow for the series of effective frames, storing a code for determining the integrity of a structure represented in the series of valid frames based on the optical flow;
Structural health monitoring system.
KR1020210080763A 2021-06-22 2021-06-22 System for monitoring of structural and method ithereof KR102563346B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210080763A KR102563346B1 (en) 2021-06-22 2021-06-22 System for monitoring of structural and method ithereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210080763A KR102563346B1 (en) 2021-06-22 2021-06-22 System for monitoring of structural and method ithereof

Publications (2)

Publication Number Publication Date
KR20220170122A true KR20220170122A (en) 2022-12-29
KR102563346B1 KR102563346B1 (en) 2023-08-02

Family

ID=84539707

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210080763A KR102563346B1 (en) 2021-06-22 2021-06-22 System for monitoring of structural and method ithereof

Country Status (1)

Country Link
KR (1) KR102563346B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117490579A (en) * 2024-01-03 2024-02-02 苏州大学 Foundation pit displacement monitoring system based on image vision processing

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4511147B2 (en) * 2003-10-02 2010-07-28 株式会社岩根研究所 3D shape generator
KR20200089467A (en) * 2019-01-17 2020-07-27 네이버시스템(주) Algorithm and tool development for deformation detection of structures through profile
KR102183201B1 (en) * 2018-11-27 2020-11-25 재단법인 국토교통연구인프라운영원 Method and device for measuring displacement response of a structure through line detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4511147B2 (en) * 2003-10-02 2010-07-28 株式会社岩根研究所 3D shape generator
KR102183201B1 (en) * 2018-11-27 2020-11-25 재단법인 국토교통연구인프라운영원 Method and device for measuring displacement response of a structure through line detection
KR20200089467A (en) * 2019-01-17 2020-07-27 네이버시스템(주) Algorithm and tool development for deformation detection of structures through profile

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117490579A (en) * 2024-01-03 2024-02-02 苏州大学 Foundation pit displacement monitoring system based on image vision processing

Also Published As

Publication number Publication date
KR102563346B1 (en) 2023-08-02

Similar Documents

Publication Publication Date Title
US20210104021A1 (en) Method and apparatus for processing image noise
Xu et al. Identification framework for cracks on a steel structure surface by a restricted Boltzmann machines algorithm based on consumer‐grade camera images
Ramakrishnan et al. An exploration of embodied visual exploration
KR102517513B1 (en) Artificial intelligence based tree data management system and tree data management method
US11789466B2 (en) Event camera based navigation control
CN111259779A (en) Video motion detection method based on central point trajectory prediction
EP4004875A1 (en) Cross-modality image generation
Khosravi et al. Crowd emotion prediction for human-vehicle interaction through modified transfer learning and fuzzy logic ranking
US20220327676A1 (en) Method and system for detecting change to structure by using drone
CN114155270A (en) Pedestrian trajectory prediction method, device, equipment and storage medium
CN113537277A (en) Determining interpretation of a classification
CN113297972A (en) Transformer substation equipment defect intelligent analysis method based on data fusion deep learning
KR102563346B1 (en) System for monitoring of structural and method ithereof
CN113393495B (en) High-altitude parabolic track identification method based on reinforcement learning
Wang et al. Intrusion detection for high-speed railways based on unsupervised anomaly detection models
CN111798518A (en) Mechanical arm posture detection method, device and equipment and computer storage medium
CN115457081A (en) Hierarchical fusion prediction method based on graph neural network
Jurj et al. Real-time identification of animals found in domestic areas of Europe
KR102600548B1 (en) System for warning of structural and method ithereof
KR102561793B1 (en) System and method for recognition of atypical obstacle system and computer-readable recording medium including the same
KR102643699B1 (en) System for risk measuring of pipeline and method thereof
KR20230095365A (en) Image analysis apparatus for detecting abnormal event, and method thereof
Thevarasa et al. Weighted Ensemble Algorithm for Aerial Imaging Based Mosquito Breeding Sites Classification
Oredsson Cognitive video surveillance: an ANN/CBR hybrid approach
CN117808650B (en) Precipitation prediction method based on Transform-Flownet and R-FPN

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant