KR102694202B1 - System and method for analyzing slope condition based on internet on things technique and image analysis - Google Patents

System and method for analyzing slope condition based on internet on things technique and image analysis Download PDF

Info

Publication number
KR102694202B1
KR102694202B1 KR1020230187407A KR20230187407A KR102694202B1 KR 102694202 B1 KR102694202 B1 KR 102694202B1 KR 1020230187407 A KR1020230187407 A KR 1020230187407A KR 20230187407 A KR20230187407 A KR 20230187407A KR 102694202 B1 KR102694202 B1 KR 102694202B1
Authority
KR
South Korea
Prior art keywords
collapse
displacement
slope
data
pattern
Prior art date
Application number
KR1020230187407A
Other languages
Korean (ko)
Inventor
이승주
김영석
손민수
이태훈
Original Assignee
한국건설기술연구원
주식회사 한림기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국건설기술연구원, 주식회사 한림기술 filed Critical 한국건설기술연구원
Priority to KR1020230187407A priority Critical patent/KR102694202B1/en
Application granted granted Critical
Publication of KR102694202B1 publication Critical patent/KR102694202B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/10Detection; Monitoring
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/23Dune restoration or creation; Cliff stabilisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Strategic Management (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Economics (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Pit Excavations, Shoring, Fill Or Stabilisation Of Slopes (AREA)

Abstract

본 발명의 일 기술적 측면에 따른 아이오티 및 영상분석 기반의 경사지 상태 분석 방법은, 경사지에 배치되어 센싱 데이터를 제공하는 복수의 센서 장치 및 상기 경사지에 대한 영상 데이터를 제공하는 카메라 장치와 연동하여 동작하는 엣지 서버에서 수행되는 경사지 상태 분석 방법으로서, 상기 복수의 센싱 데이터에 포함된 변위 데이터를 기초로, 센싱 변위 측정에 기반한 제1 붕괴 판단 요소를 결정하는 단계, 영상 데이터를 기초로, 영상 분석에 기반한 제2 붕괴 판단 요소를 결정하는 단계, 상기 제1 붕괴 판단 요소 및 상기 제2 붕괴 판단 요소를 기초로, 상기 경사지에서 발생하는 붕괴 패턴을 결정하는 단계 및 상기 경사지에 대한 영상 데이터에 대해 제1 딥 러닝 인공지능 모델을 이용하여 상기 영상 데이터 내에 표시된 적어도 하나의 객체를 식별하고, 상기 붕괴 패턴과 피해 객체 간의 위치적인 관련성을 바탕으로 객체 위험도를 설정하는 단계를 포함할 수 있다.According to one technical aspect of the present invention, a slope condition analysis method based on IoT and image analysis is performed on an edge server that operates in conjunction with a plurality of sensor devices provided on a slope and providing sensing data and a camera device providing image data of the slope, the method including: a step of determining a first collapse determination factor based on sensing displacement measurement based on displacement data included in the plurality of sensing data; a step of determining a second collapse determination factor based on image analysis based on the image data; a step of determining a collapse pattern occurring on the slope based on the first collapse determination factor and the second collapse determination factor; and a step of identifying at least one object indicated in the image data of the slope using a first deep learning artificial intelligence model, and setting an object risk level based on a positional correlation between the collapse pattern and a damaged object.

Description

아이오티 및 영상분석 기반의 경사지 상태 분석 방법 및 시스템 {System and method for analyzing slope condition based on internet on things technique and image analysis}Method and system for analyzing slope condition based on internet on things technique and image analysis {System and method for analyzing slope condition based on internet on things technique and image analysis}

본 발명은 아이오티 및 영상분석 기반의 경사지 상태 분석 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for analyzing slope conditions based on IoT and image analysis.

건설 기술의 발전에 따라 경사지가 점점 더 도로 및 주거 환경에 인접하여 형성되고 있다. 특히, 최근 지구온난화 등의 이상기후로 인하여 급경사지 붕괴 위험이 증가되고 있다. As construction technology advances, slopes are increasingly being formed adjacent to roads and residential environments. In particular, the risk of steep slope collapse is increasing due to recent abnormal climate conditions such as global warming.

특히 도로 등 사회 간접 자본(SOC,Social Overhead Capital) 건설 과정에서 급경사지에 해당되는 비탈면은 시설물의 일환으로 건설이 되지만, 다른 시설물과 달리 지반과 같은 자연적인 재료로 이루어진 시설물이기에 체계적인 관리가 어려운 문제가 있다.In particular, in the process of constructing social overhead capital (SOC) such as roads, steep slopes are constructed as part of the facility, but unlike other facilities, they are made of natural materials such as soil, making systematic management difficult.

종래의 이러한 비탈면의 유지 관리는 관리 지침에 근거하여 대부분 인력에 의한 점검 위주로 관리되고 있다. 이러한 인력에 의한 관리는 실시간 점검이 불가하며, 점검자의 기술적인 지식수준에 따라 점검 결과에 대한 신뢰성이 좌우되는 한계가 있다.The maintenance of these slopes in the past has been mostly managed through inspections by personnel based on management guidelines. This management by personnel is not possible in real time, and the reliability of the inspection results is limited by the level of technical knowledge of the inspector.

이에 따라, 비탈면 관리 및 모니터링을 위한 다양한 기술들이 개발되고 있으며, 국토교통부에서 사용하는 도로비탈면유지관리시스템(CSMS) 등이 이러한 종래 기술의 예이다. Accordingly, various technologies for slope management and monitoring are being developed, and the Road Slope Maintenance Management System (CSMS) used by the Ministry of Land, Infrastructure and Transport is an example of such conventional technologies.

그러나, 이러한 종래 기술의 경우, 계측 신뢰성에 한계가 있고, 도로비탈면유지관리시스템(CSMS)의 경우 유선 기반의 시스템에 의하여 확장 적용이 어려운 한계가 있다.However, in the case of these conventional technologies, there are limitations in measurement reliability, and in the case of the road slope maintenance management system (CSMS), there is a limitation in that it is difficult to expand application due to the wire-based system.

등록특허 제10-2241254호Registered Patent No. 10-2241254

본 발명의 일 기술적 측면은 상기한 종래 기술의 문제점을 해결하기 위한 것으로써, IoT 센서 및 로컬 엣지 서버를 이용한 경사지 상태 분석 시스템을 구축함으로서, 급경사지의 붕괴 위험을 정확하게 사전 예측하고 그에 따라 신속하고 정확하게 경보를 전파할 수 있는 아이오티 및 영상분석 기반의 경사지 상태 분석 기술을 제공하는 것이다.One technical aspect of the present invention is to solve the problems of the above-mentioned conventional technology by constructing a slope condition analysis system using IoT sensors and a local edge server, thereby providing a slope condition analysis technology based on IoT and image analysis that can accurately predict the collapse risk of steep slopes in advance and quickly and accurately transmit an alarm accordingly.

또한, 본 발명의 일 기술적 측면은, 비탈지에 설치된 계측 센서의 변위 계측에 의한 제1 붕괴 판단 요소와, 인공 지능 기반의 영상 분석에 의한 제2 붕괴 판단 요소를 조합적으로 판단하여 붕괴 위험을 보다 정확하게 판단할 수 있는 아이오티 및 영상분석 기반의 경사지 상태 분석 기술을 제공하는 것이다.In addition, one technical aspect of the present invention is to provide a technology for analyzing the state of a slope based on IoT and image analysis, which can more accurately determine the risk of collapse by combining a first collapse determination element based on displacement measurement of a measurement sensor installed on a slope and a second collapse determination element based on artificial intelligence-based image analysis.

또한, 본 발명의 일 기술적 측면은, 변위 계측에 의한 제1 붕괴 판단 요소를 판단 시, 변위값의 크기에 따라 변경되는 유효 검증 범위를 설정함으로써 지상 변위 센서에서 발생하는 계측 오차를 보다 정확하게 검증할 수 있는 아이오티 및 영상분석 기반의 경사지 상태 분석 기술을 제공하는 것이다.In addition, one technical aspect of the present invention is to provide a slope condition analysis technology based on IoT and image analysis, which can more accurately verify measurement errors occurring in ground displacement sensors by setting a valid verification range that changes according to the size of the displacement value when determining the first collapse judgment element by displacement measurement.

또한, 본 발명의 일 기술적 측면은, 딥 러닝 기반의 인공지능 모델을 복합적으로 활용하여 영상 데이터에 대한 분석 정확도를 높이고, 객체 중심의 위험 분석을 구현하여 보다 안전한 경사지 모니터링 기술을 제공하는 아이오티 및 영상분석 기반의 경사지 상태 분석 기술을 제공하는 것이다.In addition, one technical aspect of the present invention is to provide an IoT and image analysis-based slope condition analysis technology that provides a safer slope monitoring technology by comprehensively utilizing deep learning-based artificial intelligence models to increase the analysis accuracy of image data and implement object-centered risk analysis.

본 발명의 상기 목적과 여러 가지 장점은 이 기술분야에 숙련된 사람들에 의해 본 발명의 바람직한 실시예로부터 더욱 명확하게 될 것이다.The above objects and various advantages of the present invention will become more apparent to those skilled in the art from the preferred embodiments of the present invention.

본 발명의 일 기술적 측면은 아이오티 및 영상분석 기반의 경사지 상태 분석 방법을 제안한다. 상기 아이오티 및 영상분석 기반의 경사지 상태 분석 방법은, 경사지에 배치되어 센싱 데이터를 제공하는 복수의 센서 장치 및 상기 경사지에 대한 영상 데이터를 제공하는 카메라 장치와 연동하여 동작하는 엣지 서버에서 수행되는 경사지 상태 분석 방법으로서, 상기 복수의 센싱 데이터에 포함된 변위 데이터를 기초로, 센싱 변위 측정에 기반한 제1 붕괴 판단 요소를 결정하는 단계, 영상 데이터를 기초로, 영상 분석에 기반한 제2 붕괴 판단 요소를 결정하는 단계, 상기 제1 붕괴 판단 요소 및 상기 제2 붕괴 판단 요소를 기초로, 상기 경사지에서 발생하는 붕괴 패턴을 결정하는 단계 및 상기 경사지에 대한 영상 데이터에 대해 제1 딥 러닝 인공지능 모델을 이용하여 상기 영상 데이터 내에 표시된 적어도 하나의 객체를 식별하고, 상기 붕괴 패턴과 피해 객체 간의 위치적인 관련성을 바탕으로 객체 위험도를 설정하는 단계를 포함할 수 있다.One technical aspect of the present invention proposes a slope condition analysis method based on IoT and image analysis. The slope condition analysis method based on IoT and image analysis is a slope condition analysis method performed on an edge server that operates in conjunction with a plurality of sensor devices provided on a slope and providing sensing data and a camera device providing image data of the slope, the method including: a step of determining a first collapse determination factor based on sensing displacement measurement based on displacement data included in the plurality of sensing data; a step of determining a second collapse determination factor based on image analysis based on the image data; a step of determining a collapse pattern occurring on the slope based on the first collapse determination factor and the second collapse determination factor; and a step of identifying at least one object displayed in the image data of the slope using a first deep learning artificial intelligence model, and setting an object risk level based on a positional correlation between the collapse pattern and the damaged object.

본 발명의 다른 일 기술적 측면은 아이오티 및 영상분석 기반의 경사지 상태 분석 시스템을 제안한다. 상기 아이오티 및 영상분석 기반의 경사지 상태 분석 시스템은, 경사지에 배치되어 센싱 데이터를 제공하는 복수의 센서 장치, 상기 경사지에 대한 영상 데이터를 제공하는 카메라 장치 및 상기 복수의 센서 장치 및 상기 카메라 장치와 연동하여 동작하는 엣지 서버로서, 상기 센싱 데이터에 포함된 변위 데이터의 변화를 기초로 제1 붕괴 판단 요소를 결정하고, 상기 영상 데이터를 기초로 영상 분석에 기반한 제2 붕괴 판단 요소를 결정하고, 상기 제1 붕괴 판단 요소 및 상기 제2 붕괴 판단 요소를 기초로, 상기 경사지에서 발생하는 붕괴 패턴을 결정하되, 상기 영상 데이터 내의 피해 객체를 식별하고, 상기 붕괴 패턴과 피해 객체 간의 위치적인 관련성을 바탕으로 객체 위험도를 설정하는 엣지 서버를 포함할 수 있다.Another technical aspect of the present invention proposes a slope condition analysis system based on IoT and image analysis. The IoT and image analysis-based slope condition analysis system may include a plurality of sensor devices disposed on a slope to provide sensing data, a camera device providing image data of the slope, and an edge server operating in conjunction with the plurality of sensor devices and the camera device, wherein the edge server determines a first collapse determination factor based on a change in displacement data included in the sensing data, determines a second collapse determination factor based on image analysis based on the image data, and determines a collapse pattern occurring on the slope based on the first collapse determination factor and the second collapse determination factor, while identifying a damaged object in the image data and setting an object risk level based on a positional correlation between the collapse pattern and the damaged object.

본 발명의 또 다른 일 기술적 측면은 저장매체를 제안한다. 상기 저장 매체는 컴퓨터 판독 가능한 인스트럭션들(instructions)을 저장하고 있는 저장 매체로서, 상기 인스트럭션들은, 컴퓨팅 장치에 의해 실행될 때, 상기 컴퓨팅 장치로 하여금, 복수의 센싱 데이터에 포함된 변위 데이터를 기초로, 센싱 변위 측정에 기반한 제1 붕괴 판단 요소를 결정하는 동작, 영상 데이터를 기초로, 영상 분석에 기반한 제2 붕괴 판단 요소를 결정하는 단계, 상기 제1 붕괴 판단 요소 및 상기 제2 붕괴 판단 요소를 기초로, 상기 경사지에서 발생하는 붕괴 패턴을 결정하는 동작, 상기 경사지에 대한 영상 데이터에 대해 제1 딥 러닝 인공지능 모델을 이용하여 상기 영상 데이터 내에 표시된 적어도 하나의 객체를 식별하는 동작 및 상기 붕괴 패턴과 피해 객체 간의 위치적인 관련성을 바탕으로 객체 위험도를 설정하는 동작을 수행하도록 할 수 있다.Another technical aspect of the present invention proposes a storage medium. The storage medium is a storage medium storing computer-readable instructions, which, when executed by a computing device, can cause the computing device to perform the following operations: determining a first collapse determination factor based on a sensing displacement measurement based on displacement data included in a plurality of sensing data; determining a second collapse determination factor based on an image analysis based on image data; determining a collapse pattern occurring in the slope based on the first collapse determination factor and the second collapse determination factor; identifying at least one object displayed in the image data for the slope using a first deep learning artificial intelligence model; and setting an object risk level based on a positional correlation between the collapse pattern and the damaged object.

상기한 과제의 해결 수단은, 본 발명의 특징을 모두 열거한 것은 아니다. 본 발명의 과제 해결을 위한 다양한 수단들은 이하의 상세한 설명의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.The above-mentioned means for solving the problem do not enumerate all the features of the present invention. Various means for solving the problem of the present invention can be understood in more detail by referring to the specific embodiments of the detailed description below.

본 발명의 일 실시형태에 따르면, IoT 센서 및 로컬 엣지 서버를 이용한 경사지 상태 분석 시스템을 구축함으로서, 급경사지의 붕괴 위험을 정확하게 사전 예측하고 그에 따라 신속하고 정확하게 경보를 전파할 수 있는 효과가 있다.According to one embodiment of the present invention, by constructing a slope condition analysis system using IoT sensors and a local edge server, it is possible to accurately predict the risk of collapse of a steep slope in advance and quickly and accurately transmit an alarm accordingly.

또한, 본 발명의 일 실시형태에 따르면, 비탈지에 설치된 계측 센서의 변위 계측에 의한 제1 붕괴 판단 요소와, 인공 지능 기반의 영상 분석에 의한 제2 붕괴 판단 요소를 조합적으로 판단하여 붕괴 위험을 보다 정확하게 판단할 수 있는 효과가 있다.In addition, according to one embodiment of the present invention, there is an effect of more accurately determining the risk of collapse by combining the first collapse determination factor by displacement measurement of a measurement sensor installed on a slope and the second collapse determination factor by image analysis based on artificial intelligence.

또한, 본 발명의 일 실시형태에 따르면, 변위 계측에 의한 제2 붕괴 판단 요소를 판단 시, 변위값의 크기에 따라 변경되는 유효 검증 범위를 설정함으로써 지상 변위 센서에서 발생하는 계측 오차를 보다 정확하게 검증할 수 있는 효과가 있다.In addition, according to one embodiment of the present invention, when determining a second collapse determination element by displacement measurement, there is an effect of more accurately verifying a measurement error occurring in a ground displacement sensor by setting a valid verification range that changes according to the size of the displacement value.

또한, 본 발명의 일 실시형태에 따르면, 딥 러닝 기반의 인공지능 모델을 복합적으로 활용하여 영상 데이터에 대한 분석 정확도를 높이고, 객체 중심의 위험 분석을 구현하여 보다 안전한 경사지 모니터링 기술을 제공 할 수 있는 효과가 있다.In addition, according to one embodiment of the present invention, there is an effect of being able to provide a safer slope monitoring technology by improving the analysis accuracy of image data and implementing object-centered risk analysis by comprehensively utilizing deep learning-based artificial intelligence models.

도 1은 본 발명의 일 실시예에 따른 아이오티 및 영상분석 기반의 경사지 상태 분석 시스템의 일 예를 설명하는 도면이다.
도 2는 도 1에 도시된 센서 장치의 일 예를 설명하는 도면이다.
도 3은 도 1에 도시된 센서 장치의 일 적용 예들을 설명하는 도면이다.
도 4는 도 1에 도시된 카메라 장치의 일 예를 설명하는 도면이다.
도 5는 도 1에 도시된 엣지 서버의 일 예를 설명하는 도면이다.
도 6은 도 1에 도시된 경사지 상태 분석 시스템에서 수행되는 아이오티 및 영상분석 기반의 경사지 상태 분석 방법의 일 예를 도시하는 도면이다.
도 7은 도 5에 도시된 엣지 서버의 제어부의 일 실시예를 설명하는 블록 구성도이다.
도 8 내지 도 15는 도 7에 도시된 엣지 서버의 제어부에 의하여 수행되는 제어 방법들에 대한 실시예들을 설명하는 순서도이다.
FIG. 1 is a drawing illustrating an example of an IoT and image analysis-based slope condition analysis system according to one embodiment of the present invention.
FIG. 2 is a drawing illustrating an example of the sensor device illustrated in FIG. 1.
FIG. 3 is a drawing explaining one application example of the sensor device illustrated in FIG. 1.
FIG. 4 is a drawing illustrating an example of the camera device illustrated in FIG. 1.
Figure 5 is a drawing illustrating an example of the edge server illustrated in Figure 1.
FIG. 6 is a diagram illustrating an example of a slope condition analysis method based on IoT and image analysis performed in the slope condition analysis system illustrated in FIG. 1.
FIG. 7 is a block diagram illustrating one embodiment of a control unit of the edge server illustrated in FIG. 5.
FIGS. 8 to 15 are flowcharts illustrating embodiments of control methods performed by the control unit of the edge server illustrated in FIG. 7.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 형태들을 설명한다. Hereinafter, preferred embodiments of the present invention will be described with reference to the attached drawings.

그러나, 본 발명의 실시형태는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명하는 실시 형태로 한정되는 것은 아니다. 또한, 본 발명의 실시형태는 당해 기술분야에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해서 제공되는 것이다. However, the embodiments of the present invention can be modified in various other forms, and the scope of the present invention is not limited to the embodiments described below. In addition, the embodiments of the present invention are provided in order to more completely explain the present invention to a person having average knowledge in the relevant technical field.

즉, 전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.That is, the above-mentioned purpose, features and advantages are described in detail below with reference to the attached drawings, so that a person having ordinary knowledge in the technical field to which the present invention belongs can easily practice the technical idea of the present invention. In describing the present invention, if it is judged that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, a detailed description will be omitted. Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the attached drawings. In the drawings, the same reference numerals are used to indicate the same or similar components.

또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.In addition, the singular expressions used in this specification include plural expressions unless the context clearly indicates otherwise. In this application, the terms "consisting of" or "comprising" should not be construed as necessarily including all of the various components or various steps described in the specification, and should be construed as not including some of the components or some of the steps, or may include additional components or steps.

또한, 이하에서 본 발명에 따른 시스템을 설명하기 위하여 다양한 구성요소 및 그의 하부 구성요소에 대하여 설명하고 있다. 이러한 구성요소 및 그의 하부 구성요소들은, 하드웨어, 소프트웨어 또는 이들의 조합 등 다양한 형태로서 구현될 수 있다. 예컨대, 각 요소들은 해당 기능을 수행하기 위한 전자적 구성으로 구현되거나, 또는 전자적 시스템에서 구동 가능한 소프트웨어 자체이거나 그러한 소프트웨어의 일 기능적인 요소로 구현될 수 있다. 또는, 전자적 구성과 그에 대응되는 구동 소프트웨어로 구현될 수 있다.In addition, various components and sub-components thereof are described below in order to explain the system according to the present invention. These components and sub-components thereof may be implemented in various forms, such as hardware, software, or a combination thereof. For example, each component may be implemented as an electronic configuration for performing a corresponding function, or may be implemented as software itself that can be operated in an electronic system, or may be implemented as a functional element of such software. Or, it may be implemented as an electronic configuration and corresponding operating software.

본 명세서에 설명된 다양한 기법은 하드웨어 또는 소프트웨어와 함께 구현되거나, 적합한 경우에 이들 모두의 조합과 함께 구현될 수 있다. 본 명세서에 사용된 바와 같은 "부(Unit)", "서버(Server)" 및 "시스템(System)" 등의 용어는 마찬가지로 컴퓨터 관련 엔티티(Entity), 즉 하드웨어, 하드웨어 및 소프트웨어의 조합, 소프트웨어 또는 실행 시의 소프트웨어와 등가로 취급할 수 있다. 또한, 본 발명의 시스템에서 실행되는 각 기능은 모듈단위로 구성될 수 있고, 하나의 물리적 메모리에 기록되거나, 둘 이상의 메모리 및 기록매체 사이에 분산되어 기록될 수 있다.The various techniques described in this specification may be implemented with hardware or software, or a combination of both, where appropriate. The terms "unit," "server," and "system," as used herein, may likewise be treated as equivalent to a computer-related entity, i.e., hardware, a combination of hardware and software, software, or software at runtime. In addition, each function executed in the system of the present invention may be configured as a module unit, and may be recorded in a single physical memory, or may be recorded while being distributed between two or more memories and recording media.

본 출원의 다양한 실시 예들은 기기(machine)-예를 들어, 사용자 단말(100)이나 컴퓨팅 장치(300)-에 의해 읽을 수 있는 저장 매체(storage medium)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예를 들어, 프로그램)로서 구현될 수 있다. 예를 들면, 프로세서(301)는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 장치가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예를 들어, 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present application may be implemented as software (e.g., a program) including one or more instructions stored in a storage medium that can be read by a machine (e.g., a user terminal (100) or a computing device (300). For example, the processor (301) may call at least one instruction among the one or more instructions stored from the storage medium and execute it. This enables the device to operate to perform at least one function according to the at least one instruction called. The one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. The machine-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not include a signal (e.g., an electromagnetic wave), and this term does not distinguish between cases where data is stored semi-permanently and cases where it is temporarily stored in the storage medium.

본 발명의 실시형태를 설명하기 위하여 다양한 순서도가 개시되고 있으나, 이는 각 단계의 설명의 편의를 위한 것으로, 반드시 순서도의 순서에 따라 각 단계가 수행되는 것은 아니다. 즉, 순서도에서의 각 단계는, 서로 동시에 수행되거나, 순서도에 따른 순서대로 수행되거나, 또는 순서도에서의 순서와 반대의 순서로도 수행될 수 있다. Although various flowcharts are disclosed to explain embodiments of the present invention, these are for the convenience of explaining each step, and each step is not necessarily performed in the order of the flowchart. That is, each step in the flowchart may be performed simultaneously with each other, may be performed in the order according to the flowchart, or may be performed in the reverse order of the order in the flowchart.

도 1은 본 발명의 일 실시예에 따른 아이오티 및 영상분석 기반의 경사지 상태 분석 시스템의 일 예를 설명하는 도면이다.FIG. 1 is a drawing illustrating an example of an IoT and image analysis-based slope condition analysis system according to one embodiment of the present invention.

도 1에 도시된 아이오티 및 영상분석 기반의 경사지 상태 분석 시스템은 복수의 센서 장치(100), 카메라 장치(200) 및 엣지 서버(300)를 포함할 수 있다. The IoT and image analysis-based slope condition analysis system illustrated in Fig. 1 may include a plurality of sensor devices (100), camera devices (200), and edge servers (300).

센서 장치(100)는 경사지에 배치되어 센싱 데이터를 생성하여 엣지 서버(300)에 제공한다. 센서 장치(100)는 자체적인 전력을 생산할 수 있는 태양광 모듈과 같은 전력 생성 모듈을 구비하고, 변위 데이터를 포함하는 센싱 데이터를 생성하여 엣지 서버(300)에 제공한다. 센서 장치(100)는 근거리 무선 통신망을 이용하여 엣지 서버(300)와 통신망을 형성할 수 있으며, 이에 따라 별도의 유선 가설 등의 설치 작업이 생략되어 효율적으로 설치가 가능하다. The sensor device (100) is placed on a slope and generates sensing data to provide it to an edge server (300). The sensor device (100) is equipped with a power generation module such as a solar module that can generate its own power, and generates sensing data including displacement data to provide it to the edge server (300). The sensor device (100) can form a communication network with the edge server (300) using a short-range wireless communication network, and thus, separate installation work such as wired installation is omitted, enabling efficient installation.

본 명세서에서의 설명에서는 센서 장치(100)가 복수인 것을 전제로 설명하나, 이에 반드시 한정되는 것은 아니며 하나의 센서 장치로도 구현 가능하다. 이는, 후술하는 바와 같이, 센서 장치(100)가 2축의 감지 범위를 가지므로, 하나의 센서 장치로도 정확한 계측이 가능하기 때문이다.The description in this specification assumes that there are multiple sensor devices (100), but it is not necessarily limited thereto and can be implemented with a single sensor device. This is because, as described below, the sensor device (100) has a two-axis detection range, so accurate measurement is possible with a single sensor device.

카메라 장치(200)는 센서 장치(100)가 배치된 경사지를 촬영하여 영상 데이터를 생성하고, 이를 엣지 서버(300)에 제공한다. 실시예에 따라, 카메라 장치(200)는 엣지 서버(300)에 직접 유선 연결되거나 일부 구성요소로서 구현도 가능하고, 또는 엣지 서버(300)와 별도의 독립적인 장치로서도 구현 가능하다. The camera device (200) captures an inclined surface on which the sensor device (100) is placed to generate image data and provides the data to the edge server (300). Depending on the embodiment, the camera device (200) may be directly connected to the edge server (300) by wire or may be implemented as a component, or may be implemented as an independent device separate from the edge server (300).

일 실시예에서, 카메라 장치(200)는 자체적으로 영상 분석 기능을 수행할 수 있으며, 이러한 실시예에 대해서는 도 13을 참조하여 후술한다.In one embodiment, the camera device (200) can perform image analysis functions on its own, and such an embodiment is described below with reference to FIG. 13.

엣지 서버(300)는 센서 장치(100) 및 카메라 장치(200)와 연동하여 경사지에 대한 붕괴를 감지하고 상태 분석을 수행할 수 있다. 이러한 엣지 서버(300)는 경사지 인근에서 위치될 수 있으며, 중앙 서버(미도시)나 인접한 엣지 서버에 붕괴 상황에 대한 알림 데이터를 제공할 수 있다.The edge server (300) can detect collapse of a slope and perform status analysis in conjunction with a sensor device (100) and a camera device (200). This edge server (300) can be located near the slope and can provide notification data on the collapse situation to a central server (not shown) or an adjacent edge server.

엣지 서버(300)는 센서 장치(100)에서 측정된 물리적인 변위 데이터와, 카메라 장치(200)에서 촬영된 영상 데이터에 대한 분석을 모두 조합적으로 활용하여 경사지 붕괴 여부를 판정하므로, 신속하면서도 보다 정밀한 분석이 가능하다. The edge server (300) determines whether a slope has collapsed by combining analysis of both physical displacement data measured by the sensor device (100) and image data captured by the camera device (200), thereby enabling faster and more precise analysis.

또한, 엣지 서버(300)는 근거리 무선통신 방식, WiFi, 이동통신 무선통신 방식 등의 무선통신 방식을 기초로 센서 장치(100) 및 카메라 장치(200)와 연동하므로, 시스템의 설치가 용이하고 다양하고 다량의 데이터 전송 또한 가능하다.In addition, the edge server (300) is linked with the sensor device (100) and the camera device (200) based on a wireless communication method such as a short-range wireless communication method, WiFi, or a mobile wireless communication method, so that the system is easy to install and a variety of data transmissions are also possible.

또한, 엣지 서버(300)는 각각의 경사지에 배치될 수 있어, 각 경사지 별로 분산된 엣지 컴퓨팅 환경이 구축되게 되며 그에 따라 분산 처리 및 빠른 주변 전파가 가능하다.In addition, edge servers (300) can be placed on each slope, so that a distributed edge computing environment is built for each slope, thereby enabling distributed processing and rapid peripheral propagation.

이하, 도 2 내지 도 13을 참조하여, 이러한 아이오티 및 영상분석 기반의 경사지 상태 분석 시스템 및 그를 통하여 수행되는 아이오티 및 영상분석 기반의 경사지 상태 분석 방법의 다양한 실시예들에 대하여 설명한다.Hereinafter, with reference to FIGS. 2 to 13, various embodiments of the IoT and image analysis-based slope condition analysis system and the IoT and image analysis-based slope condition analysis method performed through the system will be described.

도 2는 도 1에 도시된 센서 장치의 일 예를 설명하는 도면이고, 도 3은 도 1에 도시된 센서 장치의 일 적용 예들을 설명하는 도면이다.FIG. 2 is a drawing illustrating an example of the sensor device illustrated in FIG. 1, and FIG. 3 is a drawing illustrating application examples of the sensor device illustrated in FIG. 1.

도 2 및 도 3을 참조하면, 센서 장치(100)는 자체적인 전력을 축전하기 위한 축전 판넬(110)과 배터리(120)를 포함할 수 있다. 예컨대, 축전 판넬(110)은 태양광 판넬 또는 태양열 판넬일 수 있고, 축전 판넬(110)에 의하여 축적된 전기 에너지는 배터리(120)에 저장된다. Referring to FIGS. 2 and 3, the sensor device (100) may include a storage panel (110) and a battery (120) for storing its own power. For example, the storage panel (110) may be a solar panel or a solar thermal panel, and electric energy stored by the storage panel (110) is stored in the battery (120).

센서 장치(100)는 표시부(130)를 포함할 수 있으며, 표시부(130)는 센서 장치가 설치되어 있음을 표시하는 표시 요소(예컨대, 특정 마크 또는 디스플레이 모듈 등)를 포함한다. 카메라 장치(200)는 이러한 표시 요소를 기초로 센서 장치(100)를 식별할 수 있다.The sensor device (100) may include a display unit (130), and the display unit (130) may include an indicator element (e.g., a specific mark or a display module, etc.) that indicates that the sensor device is installed. The camera device (200) may identify the sensor device (100) based on this indicator element.

센서 장치(100)는 변위 센서부(140) 및 온습도 센서부(150)를 포함할 수 있다. 변위 센서부(140)는 지중에 위치되어 지중 변위를 감지하는 지중 변위 센서(141) 및 지상에 위치되어 지상 변위를 감지하는 지상 변위 센서(142)를 포함할 수 있다. 이와 같이, 지상과 지중 각각에 대하여 변위 측정이 가능하므로, 지중과 지상의 계측 데이터 비교 및 분석하여 오류를 최소화 할 수 있다.The sensor device (100) may include a displacement sensor unit (140) and a temperature and humidity sensor unit (150). The displacement sensor unit (140) may include a ground displacement sensor (141) located underground to detect ground displacement and a ground displacement sensor (142) located above ground to detect ground displacement. In this way, since displacement measurement is possible for each of the ground and the ground, errors can be minimized by comparing and analyzing the measurement data of the ground and the ground.

일 실시예에서. 지중 변위 센서(141)와 지상 변위 센서(142) 사이에는 완충 모듈(143)이 구비될 수 있다. 예컨대, 지주 형태에서 지중에 박히는 부분에 지중 변위 센서(141)가, 지상 부분에 지상 변위 센서(142)가 위치되도록 센서 장치(100)가 지표면에 설치될 수 있고, 이러한 완충 모듈(143)은 지중에서 지표에 가까운 지표면의 아래에 위치될 수 있다. 완충 모듈(143)은 지중의 진동이 지상에 영향을 미치는 것을 제한하기 위한 것으로서, 스프링 등의 구조적 또는 재질적 완충재가 사용될 수 있다. In one embodiment, a buffer module (143) may be provided between the ground displacement sensor (141) and the ground displacement sensor (142). For example, the sensor device (100) may be installed on the ground surface so that the ground displacement sensor (141) is located in the part that is embedded in the ground in the form of a support, and the ground displacement sensor (142) is located in the part above ground, and this buffer module (143) may be located below the ground surface close to the ground in the ground. The buffer module (143) is intended to limit the influence of ground vibration on the ground, and a structural or material buffer such as a spring may be used.

일 실시예에서, 변위 센서부(140)의 센서는 2축 변위 센서일 수 있다. 예컨대, 수직축 변위와 수평축 변위를 각각 감지하는 2축 변위 센서일 수 있다. 이러한 2축 변위센서를 이용하면, 각 센서별 방향 구분하여 붕괴 패턴 분석 가능으로 정확성 향상된다.In one embodiment, the sensor of the displacement sensor unit (140) may be a two-axis displacement sensor. For example, it may be a two-axis displacement sensor that detects vertical displacement and horizontal displacement, respectively. By using such a two-axis displacement sensor, the accuracy is improved because the collapse pattern can be analyzed by distinguishing the direction of each sensor.

온습도 센서부(150)는 온도 센서(151) 및 습도 센서(152)를 포함할 수 있다. The temperature and humidity sensor unit (150) may include a temperature sensor (151) and a humidity sensor (152).

무선 통신부(160)는 엣지 서버(300)와 무선 통신망을 형성할 수 있으며, 지그비 등의 근거리 무선 통신 또는 이동통신망 등의 원거리 무선 통신이나, WiFi 등의 무선 통신 등 다양한 무선 통신방식이 적용 가능하다.The wireless communication unit (160) can form a wireless communication network with the edge server (300), and various wireless communication methods can be applied, such as short-range wireless communication such as Zigbee, long-range wireless communication such as a mobile communication network, or wireless communication such as WiFi.

발광 표시부(170)는 표시 소자를 포함하며, 점멸 발광하여 센서 장치(100)의 위치를 표시할 수 있다. The light-emitting display unit (170) includes a display element and can blink to indicate the position of the sensor device (100).

일 예로, 발광 표시부(170)는 센서 장치(100)에게 할당된 식별 번호를 시각적 점멸 신호로서 표시하도록 할 수 있으며, 이를 통하여 엣지 서버(300)는 손쉽게 영상 데이터에서 센서 장치(100)를 각각 개별적으로 식별할 수 있다.For example, the light-emitting display unit (170) can display the identification number assigned to the sensor device (100) as a visual flashing signal, through which the edge server (300) can easily individually identify each sensor device (100) in the image data.

제어부(180)는 센서 장치(100)의 구성요소들을 제어하여, 엣지 서버(300)에 센싱 데이터를 전송하도록 할 수 있다. 센싱 데이터는 지중 변위 데이터, 지상 변위 데이터 및 온습도 데이터를 포함할 수 있다.The control unit (180) can control the components of the sensor device (100) to transmit sensing data to the edge server (300). The sensing data can include ground displacement data, ground displacement data, and temperature and humidity data.

도 4는 도 1에 도시된 카메라 장치의 일 예를 설명하는 도면이다.FIG. 4 is a drawing illustrating an example of the camera device illustrated in FIG. 1.

도 4를 참조하면, 카메라 장치(200)는 축전 판넬(210), 배터리(220), 카메라부(230), 무선통신부(240) 및 제어부(250)를 포함할 수 있다. 축전 판넬(210), 배터리(220) 및 무선통신부(240)는 도 2를 참조하여 상술한 바를 참조하여 쉽게 이해할 수 있으므로, 중복 설명은 생략한다.Referring to FIG. 4, the camera device (200) may include a storage panel (210), a battery (220), a camera unit (230), a wireless communication unit (240), and a control unit (250). The storage panel (210), the battery (220), and the wireless communication unit (240) can be easily understood with reference to the description above with reference to FIG. 2, and therefore, a duplicate description is omitted.

카메라부(230)는 센서 장치(100)가 설치된 경사지를 촬영하여 영상 데이터를 생성한다. 실시예에 따라, 카메라부(230)는 틸팅 및 패닝을 지원하도록 구동 모듈을 포함하고, 줌인 줌 아웃이 가능한 줌 기능을 지원할 수 있다.The camera unit (230) captures a slope on which the sensor device (100) is installed to generate image data. According to an embodiment, the camera unit (230) includes a driving module to support tilting and panning, and may support a zoom function that allows zooming in and out.

제어부(250)는 카메라 장치(200)를 제어하여, 경사지에 대한 영상 데이터를 엣지 서버(300)에 제공하도록 제어한다.The control unit (250) controls the camera device (200) to provide image data on the slope to the edge server (300).

일 실시예에서, 제어부(250)는 엣지 서버(300)에서 수행하는 일부 기능을 자체적으로 수행할 수 있다. 예컨대, 제어부(250)는 영상 데이터에 대한 AI 기반의 영상 분석을 수행하고, 그에 대한 결과를 엣지 서버(300)에 제공하는 방식으로도 구현 가능하다. 이러한 실시예에 대해서는 도 13을 참조하여 후술한다.In one embodiment, the control unit (250) may perform some of the functions performed by the edge server (300) on its own. For example, the control unit (250) may also be implemented in a manner that performs AI-based image analysis on image data and provides the results thereof to the edge server (300). Such an embodiment will be described later with reference to FIG. 13.

도 5는 도 1에 도시된 엣지 서버의 일 예를 설명하는 도면으로서, 엣지 서버의 예시적인 컴퓨팅 운영 환경을 설명하는 도면이다.FIG. 5 is a drawing illustrating an example of the edge server illustrated in FIG. 1, and is a drawing illustrating an exemplary computing operating environment of the edge server.

도 5는 엣지 서버(300)의 실시예들이 구현될 수 있는 적합한 컴퓨팅 환경의 일반적이고 단순화된 설명을 제공하기 위한 것으로, 도 5를 참조하면, 엣지 서버(300)의 일 예로서 컴퓨팅 장치가 도시된다. FIG. 5 is intended to provide a general and simplified description of a suitable computing environment in which embodiments of edge servers (300) may be implemented, and with reference to FIG. 5, a computing device is illustrated as an example of an edge server (300).

컴퓨팅 장치는 제어부(303)와 시스템 메모리(301)를 포함할 수 있다. The computing device may include a control unit (303) and a system memory (301).

제어부(303)는 프로그램을 실행할 때 협조하는 복수의 프로세싱 유닛을 포함할 수도 있다. 컴퓨팅 장치의 정확한 구성 및 유형에 의존하여, 시스템 메모리(301)는 휘발성(예컨대, 램(RAM)), 비휘발성(예컨대, 롬(ROM), 플래시 메모리 등) 또는 이들의 조합일 수 있다. 시스템 메모리(301)는 플랫폼의 동작을 제어하기 위한 적합한 운영 체제(302)를 포함하는데, 예컨대 마이크로소프트사로부터의 WINDOWS 운영체제나 리눅스 등의 것일 수 있다. 시스템 메모리(301)는 프로그램 모듈, 애플리케이션 등의 같은 하나 이상의 소프트웨어 애플리케이션을 포함할 수도 있다. The control unit (303) may include a plurality of processing units that cooperate in executing the program. Depending on the exact configuration and type of the computing device, the system memory (301) may be volatile (e.g., RAM), nonvolatile (e.g., ROM, flash memory, etc.), or a combination thereof. The system memory (301) includes a suitable operating system (302) for controlling the operation of the platform, such as the WINDOWS operating system from Microsoft Corporation or Linux. The system memory (301) may also include one or more software applications, such as program modules, applications, etc.

컴퓨팅 장치는 자기 디스크, 광학적 디스크, 또는 테이프와 같은 추가적인 데이터 저장부(304)를 포함할 수 있다. 이러한 추가적 저장소는 이동식 저장소 및/또는 고정식 저장소 일 수 있다. 컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 인스트럭션, 데이터 구조, 프로그램 모듈, 또는 기타 데이터와 같은 저장정보를 위한 임의의 방법이나 기법으로 구현되는 휘발성 및 비휘발성, 이동식 및 고정식 매체를 포함할 수 있다. 시스템 메모리(301), 저장부(304)는 모두 컴퓨터 판독가능 저장 매체의 예시일 뿐이다. 컴퓨터 판독가능 저장 매체는 램(RAM), 롬(ROM), EEPROM, 플래시 메모리 또는 다른 메모리 기법, CD-ROM, DVD 또는 다른 광학적 저장소, 자기 테이프, 자기 디스크 저장소 또는 다른 자기적 저장 장치, 또는 원하는 정보를 저장하고 컴퓨팅 장치(300)에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있는데, 이에 한정되는 것은 아니다. The computing device may include additional data storage (304), such as a magnetic disk, an optical disk, or tape. Such additional storage may be removable storage and/or non-removable storage. Computer-readable storage media may include volatile and non-volatile, removable and non-removable media implemented in any method or technology for storing information, such as computer-readable instructions, data structures, program modules, or other data. System memory (301), storage (304) are both examples of computer-readable storage media. Computer-readable storage media may include, but are not limited to, random access memory (RAM), read-only memory (ROM), EEPROM, flash memory or other memory technology, CD-ROMs, DVDs or other optical storage, magnetic tape, magnetic disk storage or other magnetic storage devices, or any other medium which stores desired information and which can be accessed by the computing device (300).

컴퓨팅 장치의 입력부(305)로서, 예컨대 키보드, 마우스, 펜, 음성 입력 장치, 터치 입력 장치 및 비교 가능한 입력 장치를 포함할 수 있다. 출력 장치(306)는, 예컨대 디스플레이, 스피커 및 다른 유형의 출력 장치가 포함될 수도 있다. 이들 장치는 본 기술분야에서 널리 알려진 것이므로 자세한 설명은 생략한다.As an input unit (305) of a computing device, for example, a keyboard, a mouse, a pen, a voice input device, a touch input device, and comparable input devices may be included. An output device (306) may include, for example, a display, a speaker, and other types of output devices. Since these devices are widely known in the art, a detailed description thereof will be omitted.

컴퓨팅 장치는 예컨대 분산 컴퓨팅 환경에서의 네트워크, 예컨대, 유무선 네트워크, 위성 링크, 셀룰러 링크, 근거리 네트워크 및 비교가능한 메커니즘을 통해 장치가 다른 장치들과 통신하도록 허용하는 통신부(307)를 포함할 수도 있다. 통신 부(307)는 통신 매체의 한가지 예시이며, 통신 매체는 그 안에 컴퓨터 판독 가능 인스트럭션, 데이터 구조, 프로그램 모듈, 또는 다른 데이터를 포함할 수 있다. 예시적으로, 통신 매체는 유선 네트워크나 직접 유선 접속과 같은 유선 매체, 및 음향, RF, 적외선 및 다른 무선 매체와 같은 무선 매체를 포함하는데, 이에 한정되는 것은 아니다. The computing device may also include a communication component (307) that allows the device to communicate with other devices over a network, such as a wired or wireless network, a satellite link, a cellular link, a local area network, and comparable mechanisms, for example in a distributed computing environment. The communication component (307) is one example of a communication medium, which may include computer-readable instructions, data structures, program modules, or other data therein. By way of example and not limitation, communication media includes wired media, such as a wired network or direct-wired connection, and wireless media, such as acoustic, RF, infrared, and other wireless media.

엣지 서버(300)는 이러한 컴퓨팅 환경에서 구현되는 기능적 구성으로 설명될 수 있다. 이에 대해서는, 도 7을 참조하여 후술한다.The edge server (300) can be described as a functional configuration implemented in such a computing environment. This will be described later with reference to FIG. 7.

도 6은 도 1에 도시된 경사지 상태 분석 시스템에서 수행되는 아이오티 및 영상분석 기반의 경사지 상태 분석 방법의 일 예를 도시하는 도면이다. FIG. 6 is a diagram illustrating an example of a slope condition analysis method based on IoT and image analysis performed in the slope condition analysis system illustrated in FIG. 1.

센서 장치(100)는 경사지에 배치되어 센싱 데이터를 제공한다(S601). 센싱 데이터는 지중 변위 데이터, 지상 변위 데이터 및 온습도 데이터를 포함할 수 있다. 지중 변위 데이터 및 지상 변위 데이터는 2축 센싱 데이터일 수 있다.The sensor device (100) is placed on a slope and provides sensing data (S601). The sensing data may include ground displacement data, ground displacement data, and temperature and humidity data. The ground displacement data and ground displacement data may be two-axis sensing data.

카메라 장치(200)는 경사지, 즉, 센서 장치 주변의 영상을 획득하여 영상 데이터로서 엣지 서버(300)에 제공한다(S602).The camera device (200) acquires an image of a slope, i.e., the area around the sensor device, and provides it to the edge server (300) as image data (S602).

엣지 서버(300)는 복수의 센싱 데이터에 포함된 변위 데이터를 기초로, 변위 측정에 기반한 제1 붕괴 판단 요소를 결정할 수 있다(S603).The edge server (300) can determine a first collapse judgment factor based on displacement measurement based on displacement data included in a plurality of sensing data (S603).

엣지 서버(300)는 경사지에 대한 영상 데이터를 기초로, 영상 분석에 기반한 제2 붕괴 판단 요소를 결정할 수 있다(S604).The edge server (300) can determine a second collapse judgment factor based on image analysis based on image data for the slope (S604).

엣지 서버(300)는 제1 붕괴 판단 요소 및 제2 붕괴 판단 요소를 기초로, 경사지에서 발생하는 붕괴 패턴을 결정할 수 있다(S605).The edge server (300) can determine a collapse pattern occurring on a slope based on the first collapse determination element and the second collapse determination element (S605).

여기에서, 엣지 서버(300)는 영상 내에서 사람 등의 주요 객체를 식별하여 보다 고도화 된 대응을 수행할 수 있다. Here, the edge server (300) can identify key objects such as people in the image and perform more advanced responses.

일 예로, 엣지 서버(300)는 영상 내에서 '사람, 적재물' 등의 주요 객체를 식별할 수 있다. 이러한 붕괴 피해가 우려되는 주요 객체를 이하에서는 '피해 객체'라 칭한다. For example, the edge server (300) can identify key objects such as 'people, cargo' in the image. Key objects that are at risk of collapse damage are referred to as 'damaged objects' hereinafter.

일 예로, 엣지 서버(300)는 피해 객체를 중심으로 피해 객체가 어떠한 붕괴 위험 시나리오에 해당하는지 식별 판단하고, 그에 따른 대응 및 알람 등을 수행할 수 있다. 예컨대, 엣지 서버(300)는 경사지에 대한 영상 데이터에 대해 제1 딥 러닝 인공지능 모델을 이용하여 영상 데이터 내에 표시된 적어도 하나의 객체를 식별하고, 붕괴 패턴과 피해 객체 간의 위치적인 관련성을 바탕으로 객체 위험도를 설정할 수 있다.For example, the edge server (300) can identify and determine which collapse risk scenario the damaged object corresponds to based on the damaged object, and perform corresponding responses and alarms. For example, the edge server (300) can identify at least one object displayed in the image data for a slope using a first deep learning artificial intelligence model, and set the object risk level based on the positional relationship between the collapse pattern and the damaged object.

일 예로, 엣지 서버(300)는 피해 객체의 이동에 따라, 붕괴 감지 대상이 되는 감지 영역을 동적으로 변경하여 설정할 수 있다. For example, the edge server (300) can dynamically change and set a detection area that becomes a collapse detection target according to the movement of the damaged object.

또한 엣지 서버(300)는 붕괴 패턴에 적합한 전파 대상-예컨대, 인접한 엣지 서버 또는 관제 서버- 확인하여 붕괴 상황 데이터를 전송할 수 있다(S606).Additionally, the edge server (300) can check a propagation target suitable for the collapse pattern - for example, an adjacent edge server or control server - and transmit collapse situation data (S606).

이하, 도 7 내지 도 12를 참조하여 이러한 엣지 서버의 다양한 실시예를 참조하여 보다 상세히 설명한다.Hereinafter, various embodiments of such edge servers will be described in more detail with reference to FIGS. 7 to 12.

도 7은 도 5에 도시된 제어부의 일 실시예를 설명하는 블록 구성도이고, 도 8은 제어부(303)에 의하여 수행되는 아이오티 및 영상분석 기반의 경사지 상태 분석 방법을 설명하는 순서도이다.FIG. 7 is a block diagram illustrating one embodiment of the control unit illustrated in FIG. 5, and FIG. 8 is a flowchart illustrating a slope status analysis method based on IoT and image analysis performed by the control unit (303).

도 7을 참조하면, 제어부(303)는 데이터 수집모듈(310), 변위 기반 분석모듈(320), 영상 기반 분석모듈(330), 붕괴 판단모듈(340) 및 상황 전파모듈(350)을 포함할 수 있다.Referring to FIG. 7, the control unit (303) may include a data collection module (310), a displacement-based analysis module (320), an image-based analysis module (330), a collapse judgment module (340), and a situation propagation module (350).

도 8을 더 참조하면, 데이터 수집모듈(310)은 통신부(307)를 제어하여, 복수의 센서 장치로부터 각각 복수의 센싱 데이터를 수집할 수 있다(S810). 또한, 데이터 수집모듈(310)은 카메라 장치로부터 경사지에 대한 영상 데이터를 수집할 수 있다. Referring further to Fig. 8, the data collection module (310) can control the communication unit (307) to collect multiple sensing data from multiple sensor devices (S810). In addition, the data collection module (310) can collect image data on a slope from a camera device.

데이터 수집모듈(310)은 수집한 센싱 데이터는 변위 기반 분석모듈에 제공하고, 영상 데이터는 영상 기반 분석모듈(330)에 제공할 수 있다.The data collection module (310) can provide the collected sensing data to a displacement-based analysis module, and can provide image data to an image-based analysis module (330).

변위 기반 분석모듈(320)은 복수의 센싱 데이터에 포함된 변위 데이터를 기초로, 변위 측정에 기반한 제1 붕괴 판단 요소를 결정할 수 있다(S820). 제1 붕괴 판단 요소는 변위 측정을 기반으로 도출된 붕괴에 대한 정보이다. The displacement-based analysis module (320) can determine a first collapse judgment factor based on displacement measurement based on displacement data included in a plurality of sensing data (S820). The first collapse judgment factor is information on collapse derived based on displacement measurement.

일 실시예에서, 변위 기반 분석모듈(320)은 지상 변위 맵 및 지중 변위 맵을 생성하여 제1 붕괴 판단 요소를 결정할 수 있다. 도 9는 이러한 일 실시예를 도시하며, 도 9를 더 참조하여 설명한다. 변위 기반 분석모듈(320)은 복수의 센서 장치로부터 수신된 복수의 변위 데이터 셋 각각에 대하여, 그와 연관된 센서 장치의 위치를 반영하여 지상 변위 맵 및 지중 변위 맵을 생성할 수 있다(S910). 변위 기반 분석모듈(320)은 지상 변위 및 지하 변위 간의 변위 임계 범위를 이용하여, 지상 변위 맵과 지중 변위 맵 간의 변위 데이터의 오차를 보정할 수 있다(S920). In one embodiment, the displacement-based analysis module (320) can generate a ground displacement map and an underground displacement map to determine the first collapse judgment factor. FIG. 9 illustrates such an embodiment, and will be further described with reference to FIG. 9. The displacement-based analysis module (320) can generate a ground displacement map and an underground displacement map by reflecting the positions of the sensor devices associated therewith for each of a plurality of displacement data sets received from a plurality of sensor devices (S910). The displacement-based analysis module (320) can correct an error in displacement data between the ground displacement map and the underground displacement map by using a displacement critical range between the ground displacement and the underground displacement (S920).

일 예로, 변위 기반 분석모듈(320)은 지상 변위의 각 변동 범위에 대응하는 지중 변위의 변동 임계 범위 데이터 또는 지중 변위의 각 변동 범위에 대응하는 지상 변위의 변동 임계 범위 데이터를 구비할 수 있으며, 이는 시스템을 통하여 수집된 지상 변위와 지중 변위 간의 임계성으로부터 도출된 데이터 일 수 있다. For example, the displacement-based analysis module (320) may be equipped with ground displacement fluctuation critical range data corresponding to each fluctuation range of ground displacement or ground displacement fluctuation critical range data corresponding to each fluctuation range of ground displacement, which may be data derived from the criticality between ground displacement and ground displacement collected through the system.

변위 기반 분석모듈(320)은 이러한 임계 범위를 초과하는 변위를 검색하고, 이러한 임계 범위를 초과하는 연관성을 가지는 지상 변위-지중 변위 데이터를 오차 보정할 수 있다. The displacement-based analysis module (320) can search for displacements exceeding this critical range and error-correct ground displacement-ground displacement data having a correlation exceeding this critical range.

이러한 오차 보정으로는, 하나의 센서 장치에서만 이러한 임계 범위가 초과하는 경우, 이는 오류값으로 처리하여 제외 처리한다. With this error correction, if this threshold range is exceeded only in one sensor device, it is treated as an error value and is excluded.

한편, 인접한 복수의 센서 장치에서 계측된 데이터가 임계 범위를 초과하는 경우, 인접한 복수의 센서 장치의 수 및 그로 인하여 커버되는 영역을 확인하고, 이러한 임계 범위의 초과가 다른 기타 센서 장치의 임계 범위 내 데이터와 일정한 연속적인 변화 범위에 속하는 경우, 임계 범위를 초과한 데이터를 그대로 사용할 수 있다. Meanwhile, if the data measured from multiple adjacent sensor devices exceeds the critical range, the number of multiple adjacent sensor devices and the area covered thereby are checked, and if the exceedance of the critical range falls within a certain continuous change range with the data within the critical range of other sensor devices, the data exceeding the critical range can be used as is.

반면, 임계 범위의 초과가 다른 기타 센서 장치의 임계 범위 내 데이터와 연속적인 변화 범위를 초과하여 불연속적 특징에 해당되면, 주변의 기타 센서 장치의 임계 범위 내 데이터를 기준으로 임계 범위 초과 데이터를 정규화 하여 오차 보정할 수 있다. On the other hand, if the exceedance of the critical range corresponds to a discontinuous feature because it exceeds the continuous change range and the data within the critical range of other sensor devices, the error can be corrected by normalizing the data exceeding the critical range based on the data within the critical range of other sensor devices in the vicinity.

정규화에는 다양한 방식이 적용될 수 있다. 변위 기반 분석모듈(320)은 보정된 지상 변위 맵 및 보정된 지중 변위 맵을 붕괴 패턴 데이터와 비교하여 제1 붕괴 판단 요소를 결정할 수 있다. Various methods can be applied for normalization. The displacement-based analysis module (320) can compare the corrected ground displacement map and the corrected ground displacement map with the collapse pattern data to determine the first collapse judgment factor.

붕괴 패턴은 경사지의 파괴 유형을 구분하는 것일 수 있으며, 예컨대, 파괴 유형은 평면 파괴, 쐐기파괴, 평면쐐기 복합 파괴, 원형 파괴, 원호파괴, 전도형 및 낙석 중 적어도 하나로 판단될 수 있다. The failure pattern may be indicative of the type of failure of the slope, for example, the type of failure may be determined to be at least one of plane failure, wedge failure, plane wedge composite failure, circular failure, arc failure, tipping, and rockfall.

변위 기반 분석모듈(320)은 각 붕괴 패턴에 대한 지상 변위 맵 및 지중 변위 맵의 연관 데이터를 붕괴 패턴 데이터로서 구비하고 있으며, 따라서 복수의 센서 장치에서 각각 산출된 변위 데이터를 기초로 산출된 지상 변위 맵 및 지중 변위 맵을 이러한 붕괴 패턴 데이터와 비교하여 파괴 유형을 구분하여 제1 붕괴 판단 요소를 결정할 수 있다.The displacement-based analysis module (320) has associated data of ground displacement maps and underground displacement maps for each collapse pattern as collapse pattern data, and thus, by comparing the ground displacement maps and underground displacement maps calculated based on displacement data respectively calculated from a plurality of sensor devices with the collapse pattern data, the type of collapse can be distinguished and the first collapse judgment factor can be determined.

일 실시예에서, 변위 기반 분석모듈(320)은 변위 데이터 오차 보정에 있어서 수평 변위와 수직 변위 간의 관계를 이용하여 변위 데이터를 보정할 수 있다. In one embodiment, the displacement-based analysis module (320) can correct displacement data by using the relationship between horizontal displacement and vertical displacement for displacement data error correction.

도 10은 이러한 일 실시예를 도시하며, 도 10을 더 참조하여 설명한다. FIG. 10 illustrates such an embodiment, which is further described with reference to FIG. 10.

변위 기반 분석모듈(320)은 지상 변위 맵 및 지중 변위 맵을 각 센서 장치 별로 연관하여 비교하여 지중 변위와 지상 변위 간의 변위차, 즉, 수직축 변위를 산출하고, 그 중에서 최대 수직축 변위를 가지는 제1 센서 장치에 대한 제1 변위 데이터 셋을 선별할 수 있다(S921). 변위 기반 분석모듈(320)은 최대 수직축 변위를 기초로, 해당 수직축 변위에 대한 지상-지중 변위 임계치를 확인할 수 있다(S922). 이러한 지상-지중 변위 임계치는 기 구축된 데이터로부터 사전에 결정되는 값이다. The displacement-based analysis module (320) compares the ground displacement map and the underground displacement map by relating them to each sensor device, calculates the displacement difference between the ground displacement and the underground displacement, i.e., the vertical displacement, and selects the first displacement data set for the first sensor device having the maximum vertical displacement among them (S921). The displacement-based analysis module (320) can confirm the ground-ground displacement threshold for the corresponding vertical displacement based on the maximum vertical displacement (S922). This ground-ground displacement threshold is a value determined in advance from the established data.

변위 기반 분석모듈(320)은 제1 변위 데이터 셋의 최대 수직축 변위가 지상-지중 변위 임계치 내이면, 오차 보정을 수행하지 않는다. 반면, 변위 기반 분석모듈(320)은 최대 수직축 변위가 지상-지중 변위 임계치를 초과하면, 수평-수직 오차 보정을 수행한다. 이를 위하여, 변위 기반 분석모듈(320)은 임계치를 초과한 제1 변위 데이터 셋에 대한 최대 수평축 변위차를 확인할 수 있다(S923). The displacement-based analysis module (320) does not perform error correction if the maximum vertical axis displacement of the first displacement data set is within the ground-ground displacement threshold. On the other hand, the displacement-based analysis module (320) performs horizontal-vertical error correction if the maximum vertical axis displacement exceeds the ground-ground displacement threshold. To this end, the displacement-based analysis module (320) can check the maximum horizontal axis displacement difference for the first displacement data set that exceeds the threshold (S923).

변위 기반 분석모듈(320)은 최대 수직축 변위에 대응되는 수평 임계치를 산출할 수 있으며, 이는 기 구축된 수직축 변위-수평축 변위 간의 관련 데이터를 기초로 산출될 수 있다. 변위 기반 분석모듈(320)은 제1 변위 데이터 셋에서의 최대 수평축 변위차가 수평 임계치를 초과하면, 제1 센서 장치의 수평축 변위값 및 수직축 변위값을 해당 센서 장치와 인접한 복수의 센서 장치들의 평균 수평축 변위값 및 평균 수직축 변위값으로 보정할 수 있다(S924). The displacement-based analysis module (320) can calculate a horizontal threshold corresponding to the maximum vertical axis displacement, which can be calculated based on the related data between the vertical axis displacement and the horizontal axis displacement that have been established. If the maximum horizontal axis displacement difference in the first displacement data set exceeds the horizontal threshold, the displacement-based analysis module (320) can correct the horizontal axis displacement value and the vertical axis displacement value of the first sensor device with the average horizontal axis displacement value and the average vertical axis displacement value of a plurality of sensor devices adjacent to the corresponding sensor device (S924).

이러한 수평-수직 보정은 2축 변위 센서를 이용하여 구축된 수평-수직 데이터의 연관성을 기초로 이루어지므로, 어느 한 축 센서의 오류를 사전에 확인하고 보정할 수 있는 효과가 있다.Since this horizontal-vertical correction is based on the correlation of horizontal-vertical data constructed using a two-axis displacement sensor, it has the effect of being able to check and correct errors in one axis sensor in advance.

다시 도 8을 참조하면, 영상 기반 분석모듈(330)은 경사지에 대한 영상 데이터를 기초로, 영상 분석에 기반한 제2 붕괴 판단 요소를 결정할 수 있다(S830). 제2 붕괴 판단 요소는 영상 분석을 기반으로 도출된 붕괴에 대한 정보이다. 일 예로, 제2 붕괴 판단 요소는 영상 분석을 기반으로 하는 붕괴 패턴에 대한 것일 수 있다. Referring again to FIG. 8, the image-based analysis module (330) can determine a second collapse judgment factor based on image analysis based on image data for the slope (S830). The second collapse judgment factor is information on collapse derived based on image analysis. For example, the second collapse judgment factor may be about a collapse pattern based on image analysis.

일 예로, 붕괴 패턴은 경사지의 파괴 유형을 구분하는 것일 수 있으며, 예컨대, 파괴 유형은 평면 파괴, 쐐기파괴, 평면쐐기 복합 파괴, 원형 파괴, 원호파괴, 전도형 및 낙석 중 적어도 하나로 판단될 수 있다. 예컨대, 영상 기반 분석모듈(330)은 영상을 기초로 어느 파괴 유형에 해당하는 패턴인지 판단할 수 있다. For example, the collapse pattern may distinguish the type of failure of the slope, and for example, the type of failure may be determined as at least one of plane failure, wedge failure, plane wedge composite failure, circular failure, arc failure, tipping, and rockfall. For example, the image-based analysis module (330) may determine which type of failure the pattern corresponds to based on the image.

일 실시예에서, 영상 기반 분석모듈(330)은 센서 장치 주변 영역을 중심으로 붕괴 판단 요소를 결정할 수 있다. In one embodiment, the image-based analysis module (330) can determine collapse determination factors centered on the area surrounding the sensor device.

도 11은 이러한 일 실시예를 도시하며, 도 11을 더 참조하여 설명한다. 영상 기반 분석모듈(330)은 영상 데이터에서 센서 장치의 위치를 식별할 수 있다(S1110).Fig. 11 illustrates such an embodiment, and is further described with reference to Fig. 11. The image-based analysis module (330) can identify the location of a sensor device in image data (S1110).

일 예로, 영상 기반 분석모듈(330)은 영상 데이터에서 센서 장치(100)의 발광 표시부의 발광 표시를 식별하여 각각의 센서를 식별할 수 있다. 예컨대, 발광 색상, 신호, 빈도 중 적어도 하나를 다르게 하여 발광 표시를 함으로써 각 센서는 자신의 식별 정보를 발광 표시로서 표시할 수 있고, 영상 기반 분석모듈(330)은 영상 데이터에서 각 센서 장치의 발광 표시들을 식별하여 각각의 센서 장치를 구분하고 식별할 수 있다. For example, the image-based analysis module (330) can identify each sensor by identifying the light-emitting display of the light-emitting display unit of the sensor device (100) in the image data. For example, by making the light-emitting display different by at least one of the light-emitting color, signal, and frequency, each sensor can display its own identification information as a light-emitting display, and the image-based analysis module (330) can distinguish and identify each sensor device by identifying the light-emitting displays of each sensor device in the image data.

영상 기반 분석모듈(330)은 영상 데이터의 연속하는 프레임에 대해 영상 데이터에서 센서 장치의 주변 영역을 위험 감지 영역으로 설정할 수 있다(S1120). The image-based analysis module (330) can set the surrounding area of the sensor device in the image data as a risk detection area for consecutive frames of the image data (S1120).

위험 감지 영역에서의 영상 변화를 기초로 붕괴 판단 요소를 결정할 수 있다(S1130).Collapse judgment factors can be determined based on image changes in the risk detection area (S1130).

다시 도 8을 참조하면, 붕괴 판단모듈(340)은 제1 붕괴 판단 요소 및 제2 붕괴 판단 요소를 기초로, 경사지에서 발생하는 붕괴 패턴을 결정할 수 있다(S840). Referring again to FIG. 8, the collapse judgment module (340) can determine a collapse pattern occurring on a slope based on the first collapse judgment element and the second collapse judgment element (S840).

상황 전파모듈(350)는 붕괴 판단모듈에 의하여 결정된 붕괴 패턴에 대응하여 전파 대상을 확인하고, 확인된 전파 대상에게 상기 붕괴 상황에 대한 붕괴 상황 데이터를 전송할 수 있다(S850).The situation propagation module (350) can identify a propagation target in response to a collapse pattern determined by the collapse judgment module and transmit collapse situation data regarding the collapse situation to the identified propagation target (S850).

일 실시예에서, 영상 기반 분석모듈(330)은 상술한 붕괴 패턴 식별 뿐만 아니라, 객체 식별을 수행하여 피해 객체의 설정을 지원할 수 있고, 또한 붕괴 판단모듈(340)은 피해 객체의 이동에 따른 능동적인 붕괴 판단 및 모니터링 제어를 수행할 수 있다. 이에 대해서는 도 12 내지 도 15를 참조하여 이하에서 설명한다.In one embodiment, the image-based analysis module (330) can perform object identification as well as the above-described collapse pattern identification to support the setting of the damaged object, and the collapse judgment module (340) can perform active collapse judgment and monitoring control according to the movement of the damaged object. This will be described below with reference to FIGS. 12 to 15.

도 12는 영상 기반 분석모듈(330)의 일 실시예를 도시하고 있고, 영상 기반 분석모듈(330)은 객체 식별 모듈(331), 붕괴 유발요소 판단모듈(332), 붕괴 피해객체 판단모듈(333) 및 영상적 붕괴 패턴 판단모듈(324)를 포함할 수 있다. FIG. 12 illustrates an embodiment of an image-based analysis module (330), and the image-based analysis module (330) may include an object identification module (331), a collapse-inducing factor determination module (332), a collapse damage object determination module (333), and an image collapse pattern determination module (324).

또한, 도 13은 붕괴 판단모듈(340)의 일 실시예를 도시하고 있고, 붕괴 판단모듈(340)은 붕괴 패턴 판단모듈(341), 감지 영역 설정모듈(342) 및 상황 대응 설정모듈(343)을 포함할 수 있다.In addition, FIG. 13 illustrates an embodiment of a collapse judgment module (340), and the collapse judgment module (340) may include a collapse pattern judgment module (341), a detection area setting module (342), and a situation response setting module (343).

도 14를 더 참조하여 영상 기반 분석모듈(330)과 붕괴 판단모듈(340)의 동작에 대하여 설명한다.Referring further to Fig. 14, the operation of the image-based analysis module (330) and the collapse judgment module (340) is described.

객체 식별 모듈(331)은 영상 데이터 내의 객체를 식별할 수 있다. 일 예로, 객체 식별 모듈(331)은 객체 식별을 위하여 학습된 제1 딥 러닝 AI 모델을 이용하여 영상 데이터 내의 객체들을 식별할 수 있다(S1410).The object identification module (331) can identify objects in image data. For example, the object identification module (331) can identify objects in image data using a first deep learning AI model learned for object identification (S1410).

여기에서, 식별되는 객체들은, 사람, 적재물 등의 피해 객체 뿐만 아니라, 돌, 나무, 쌓인 눈, 흘러내린 토사 등 붕괴와 관련된 사물 객체들을 모두 포함하며, 이를 위하여 제1 딥 러닝 AI 모델은 이러한 객체들에 대하여 사전 학습되어 영상 데이터 내에 객체가 존재하면 이를 식별할 수 있다. 예컨대, 제1 딥 러닝 AI 모델은 식별된 객체에 대한 종류(클래스) 정보 및 객체에 대한 바운딩 박스를 설정할 수 있다.Here, the identified objects include not only damaged objects such as people and cargo, but also all objects related to the collapse such as rocks, trees, accumulated snow, and flowing soil, and for this purpose, the first deep learning AI model is pre-learned about these objects and can identify objects if they exist in the image data. For example, the first deep learning AI model can set the type (class) information for the identified object and the bounding box for the object.

붕괴 유발요소 판단모듈(332) 및 붕괴 피해객체 판단모듈(333)은 객체 식별 모듈(331)로부터 객체 식별 정보를 제공받고, 각각 붕괴 유발요소 객체와 붕괴 피해객체를 판단하여 설정할 수 있다(S1420). The collapse-inducing factor judgment module (332) and the collapse damage object judgment module (333) receive object identification information from the object identification module (331) and can determine and set the collapse-inducing factor object and the collapse damage object, respectively (S1420).

일 예로, 붕괴 피해객체 판단모듈(333)은 객체 종류가 사람, 적재물, 시설물 등인 경우 이를 피해 객체로 설정할 수 있다. For example, the collapse damage object judgment module (333) can set objects such as people, cargo, and facilities as damage objects.

일 예로, 붕괴 유발요소 판단모듈(332)은 객체 종류가 쌓인 눈, 흘러내리는 토사, 구르는 돌 등으로 식별되면, 이를 붕괴 유발요소로 판단할 수 있다. 붕괴 유발요소 판단모듈(332)에 의하여 결정된 붕괴 유발요소는 붕괴 패턴 판단모듈(341)에 제공되어 붕괴 패턴을 판단하는 일 요소로서 사용될 수 있다.For example, if the collapse inducing factor determination module (332) identifies an object type as accumulated snow, flowing soil, rolling stones, etc., it can determine this as a collapse inducing factor. The collapse inducing factor determined by the collapse inducing factor determination module (332) can be provided to the collapse pattern determination module (341) and used as an element for determining a collapse pattern.

영상적 붕괴 패턴 판단모듈(324)은 영상 데이터의 시간적이 변화를 바탕으로 영상적 붕괴 패턴, 즉, 제2 붕괴 판단 요소를 결정할 수 있다. The image decay pattern determination module (324) can determine the image decay pattern, i.e., the second decay determination element, based on the temporal change of image data.

일 실시예에서, 영상적 붕괴 패턴 판단모듈(324)은 딥 러닝 기반의 인공지능 모델을 이용하여 패턴을 구분할 수 있다. 영상적 붕괴 패턴 판단모듈(324)은 붕괴 패턴 - 상기 붕괴 패턴은 평면 파괴, 쐐기 파괴, 복합 파괴, 원형 파괴 및 원호 파괴 중 적어도 하나를 포함함-의 각 파괴 종류 별로 구분된 복수의 경사지 학습 영상을 기초로 붕괴 패턴 딥 러닝 모델을 학습할 수 있다. 영상적 붕괴 패턴 판단모듈(324)은 붕괴 패턴 딥 러닝 모델을 이용하여 연속하는 프레임의 위험 감지 영역에 대해 붕괴 패턴을 식별할 수 있다.In one embodiment, the image collapse pattern judgment module (324) can distinguish patterns using a deep learning-based artificial intelligence model. The image collapse pattern judgment module (324) can learn a collapse pattern deep learning model based on a plurality of slope learning images classified by each destruction type of the collapse pattern - the collapse pattern including at least one of plane destruction, wedge destruction, compound destruction, circular destruction, and arc destruction. The image collapse pattern judgment module (324) can identify collapse patterns for risk detection areas of consecutive frames using the collapse pattern deep learning model.

다른 일 실시예에서, 영상적 붕괴 패턴 판단모듈(324)은 객체의 변화를 바탕으로 붕괴 패턴을 판단할 수 있다. 즉, 붕괴 패턴은 평면 파괴, 쐐기 파괴, 복합 파괴, 원형 파괴 및 원호 파괴 중 적어도 하나를 포함하고, 각각의 붕괴 패턴에 따라 해당 위치에 고정된 고정 객체의 움직임이 다르게 설정된다. 이를 위해, 영상적 붕괴 패턴 판단모듈(324)은 식별된 객체 중에서, 돌, 나무 등과 같이 붕괴 패턴의 식별의 기준이 되는 고정 객체를 구분하고, 고정 객체의 움직임을 바탕으로 붕괴 패턴을 구분할 수 있다. 이를 위하여, 영상적 붕괴 패턴 판단모듈(324)은 각 붕괴 패턴 별로 차별적으로 설정되는 고정 객체의 종류별 움직임 특징 데이터를 포함하고 있고, 고정 객체의 종류 및 그의 움직임을 바탕으로 어느 붕괴 패턴에 해당되는지를 판정할 수 있다.In another embodiment, the image collapse pattern judgment module (324) can judge the collapse pattern based on the change of the object. That is, the collapse pattern includes at least one of plane collapse, wedge collapse, compound collapse, circular collapse, and arc collapse, and the movement of the fixed object fixed to the corresponding position is set differently according to each collapse pattern. To this end, the image collapse pattern judgment module (324) can distinguish fixed objects, such as stones and trees, which serve as a criterion for identifying the collapse pattern among the identified objects, and distinguish the collapse pattern based on the movement of the fixed object. To this end, the image collapse pattern judgment module (324) includes movement characteristic data for each type of fixed object that is set differently for each collapse pattern, and can determine which collapse pattern it corresponds to based on the type of the fixed object and its movement.

붕괴 패턴 판단모듈(341)은 상술한 바와 같이, 센서 데이터 기반의 제1 붕괴 판단요소와, 영상 데이터 기반의 제2 붕괴 판단요소(즉, 영상적 붕괴 패턴)를 기초로 붕괴 패턴을 판단할 수 있다. 붕괴 패턴 판단에 대해서는 도 15를 참조하여 이하에서 후술하여 설명한다.As described above, the collapse pattern judgment module (341) can judge a collapse pattern based on the first collapse judgment element based on sensor data and the second collapse judgment element based on image data (i.e., image collapse pattern). The collapse pattern judgment will be described below with reference to FIG. 15.

붕괴 패턴 판단모듈(341)은 사전 학습된 제2 딥 러닝 인공지능 모델을 이용하여 붕괴 패턴에 따른 예상 위험 영역을 설정할 수 있다(S1450). 제2 딥 러닝 인공지능 모델은 각 붕괴 패턴 별 예상 위험 영역을 설정할 수 있으며, 이러한 제2 딥 러닝 인공지능 모델은 이미지 내에서 예상 위험 영역을 시각적으로 표현하도록 학습된 모델이다. 즉, 경사지에 대하여 각 붕괴 패턴 별로 다르게 위험 영역이 설정되며, 제2 딥 러닝 인공지능 모델은 이를 영상 데이터 내에서 표시할 수 있다.The collapse pattern judgment module (341) can set an expected risk area according to a collapse pattern using a pre-learned second deep learning artificial intelligence model (S1450). The second deep learning artificial intelligence model can set an expected risk area for each collapse pattern, and this second deep learning artificial intelligence model is a model learned to visually express the expected risk area in an image. That is, a risk area is set differently for each collapse pattern for a slope, and the second deep learning artificial intelligence model can display this in the image data.

감지 영역 설정모듈(342)은 붕괴 패턴과 피해 객체 간의 위치적인 관련성을 바탕으로 객체 위험도를 설정할 수 있다.The detection area setting module (342) can set the object risk level based on the positional relationship between the collapse pattern and the damaged object.

감지 영역 설정모듈(342)은 각각의 피해 객체의 기존의 이동 히스토리를 바탕으로 피해 객체의 예측 이동 동선을 설정할 수 있다. 예컨대, 감지 영역 설정모듈(342)은 기 학습된 제3 딥 러닝 인공지능 모델을 이용하여 각 피해 객체에 대하여 예측 이동 동선을 설정할 수 있다(S1460). 이러한 제3 딥 러닝 인공지능 모델은 다양한 피해 객체의 시간적 흐름에 따른 이동 예측을 수행하는 인공지능 모델로서, 객체 종류별, 이동 상태 별로 다르게 예측 이동 동선을 설정할 수 있다.The detection area setting module (342) can set the predicted movement path of the damage object based on the previous movement history of each damage object. For example, the detection area setting module (342) can set the predicted movement path for each damage object using the previously learned third deep learning artificial intelligence model (S1460). This third deep learning artificial intelligence model is an artificial intelligence model that performs movement prediction according to the temporal flow of various damage objects, and can set different predicted movement paths for each object type and movement status.

이후, 감지 영역 설정모듈(342)은, 붕괴 패턴 판단모듈(341)에서 설정된 각 붕괴 패턴 별 예상 위험 영역과, 피해 객체의 예측 이동 동선 간의 관련성을 바탕으로 피해 객체 별로 객체 위험도를 설정할 수 있다(S1470).Thereafter, the detection area setting module (342) can set the object risk level for each damaged object based on the relationship between the expected risk area for each collapse pattern set by the collapse pattern judgment module (341) and the predicted movement path of the damaged object (S1470).

이후, 감지 영역 설정모듈(342)은, 피해 객체의 예측 이동 동선을 이용하여, 피해 객체를 대상으로 하는 위험 감지 영역을 변경하여 설정할 수 있다(S1480). 즉, 이는 피해 객체가 영상 데이터 내에서 움직이고 있는 경우, 피해 객체의 이동에 대응하여 붕괴 판단이 되는 위험 감지 영역을 동적으로 변경하여 설정하는 것이다. 이는, 이동 중인 객체가 있는 경우, 최우선적으로 붕괴 예측 및 알림을 수행하여야 하므로, 객체가 없는 경우와 달리 객체의 이동에 대응하여 위험 감지 영역을 변경하여 설정하는 것이다.Thereafter, the detection area setting module (342) can change and set the risk detection area targeting the damaged object by using the predicted movement path of the damaged object (S1480). That is, if the damaged object is moving within the image data, the risk detection area where the collapse is judged to be dynamically changed and set in response to the movement of the damaged object. This is because, if there is a moving object, collapse prediction and notification must be performed with the highest priority, and therefore, unlike when there is no object, the risk detection area is changed and set in response to the movement of the object.

상황 대응 설정모듈(343)은 상술한 붕괴 패턴, 피해 객체의 존재 유무 등에 대응하여 상황 대응을 설정할 수 있다. 상황 대응 설정모듈(343)에 의하여 설정된 상황 대응은 상황 전파 모듈(350)을 통하여 전파될 수 있으며, 예컨대, 위험 알림 방송이나 인접한 다른 엣지 서버로의 통지 등이 상황에 맞추어 적합하게 수행될 수 있다.The situation response setting module (343) can set a situation response in response to the above-described collapse pattern, presence or absence of a damaged object, etc. The situation response set by the situation response setting module (343) can be propagated through the situation propagation module (350), and for example, a danger alert broadcast or notification to another adjacent edge server can be appropriately performed according to the situation.

도 15는 붕괴 패턴 판단모듈(341)에 의한 붕괴 패턴 결정 방법을 설명하는 순서도이다. Figure 15 is a flowchart explaining a collapse pattern determination method by a collapse pattern judgment module (341).

도 15를 참조하면, 붕괴 패턴 판단모듈(341)은 제1 붕괴 판단요소에 의한 제1 붕괴 패턴과 제2 붕괴 판단 요소에 의한 제2 붕괴 패턴을 상호 비교할 수 있다(S1510). Referring to FIG. 15, the collapse pattern judgment module (341) can compare a first collapse pattern by a first collapse judgment element and a second collapse pattern by a second collapse judgment element (S1510).

제1 붕괴 패턴과 제2 붕괴 패턴이 동일하면, 붕괴 패턴 판단모듈(341)은 일치된 패턴으로 붕괴 패턴을 결정한다(S1520, 아니오). If the first collapse pattern and the second collapse pattern are identical, the collapse pattern judgment module (341) determines the collapse pattern as the matching pattern (S1520, No).

만약, 제1 붕괴 패턴과 제2 붕괴 패턴이 상이하면(S1520, 예), 붕괴 패턴 판단모듈(341)은 피해 객체에 대한 위험성을 연관하여 붕괴 패턴을 결정할 수 있다(S1530 내지 S1550).If the first collapse pattern and the second collapse pattern are different (S1520, yes), the collapse pattern judgment module (341) can determine the collapse pattern by associating it with the risk of the damaged object (S1530 to S1550).

붕괴 패턴 판단모듈(341)은 제1 붕괴 패턴의 제1 위험 예상영역 및 제2 붕괴 패턴의 제2 위험 예상영역을 확인할 수 있다(S1530). 이러한 위험 예상 영역의 설정은 도 14에서 상술한 바와 같다.The collapse pattern judgment module (341) can check the first risk prediction area of the first collapse pattern and the second risk prediction area of the second collapse pattern (S1530). The setting of these risk prediction areas is as described above in Fig. 14.

붕괴 패턴 판단모듈(341)은 제1 붕괴 패턴의 제1 위험 예상영역과 제2 붕괴 패턴의 제2 위험 예상영역 중에서 피해 객체와의 연관성을 바탕으로 어느 하나의 위험 예상 영역을 선정한다. 즉, 붕괴 패턴 판단모듈(341)은 피해 객체의 예측 이동 동선을 기준으로, 두 위험 예상 영역 중에서 보다 위험성이 높은 하나의 위험 예상 영역을 선택할 수 있다(S1540).The collapse pattern judgment module (341) selects one risk prediction area among the first risk prediction area of the first collapse pattern and the second risk prediction area of the second collapse pattern based on the correlation with the damaged object. That is, the collapse pattern judgment module (341) can select one risk prediction area with a higher risk among the two risk prediction areas based on the predicted movement path of the damaged object (S1540).

붕괴 패턴 판단모듈(341)은 선택된 위험 예상 영역과 관련된 붕괴 패턴을 최종적인 붕괴 패턴으로서 결정할 수 있다(S1550). The collapse pattern judgment module (341) can determine a collapse pattern related to a selected risk prediction area as a final collapse pattern (S1550).

이러한 실시예는, 피해 객체에게 보다 리스크가 크고 위험한 붕괴 패턴을 피하도록 구성되는 것으로서 이를 통하여 보다 피해 객체의 안전을 높게 확보할 수 있다. 붕괴 패턴의 판단에 오차가 발생할 가능성이 있더라도, 이와 같은 피해 객체와의 관련성을 바탕으로 결정함으로써, 피해 객체의 안정성을 보다 확보할 수 있게 된다.These embodiments are configured to avoid collapse patterns that are more risky and dangerous to the victim object, thereby ensuring greater safety for the victim object. Even if there is a possibility of error in judging the collapse pattern, by making a decision based on such relevance to the victim object, the stability of the victim object can be further secured.

이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고 후술하는 특허청구범위에 의해 한정되며, 본 발명의 구성은 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 그 구성을 다양하게 변경 및 개조할 수 있다는 것을 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 쉽게 알 수 있다.The present invention described above is not limited by the above-described embodiments and the attached drawings, but is limited by the scope of the patent claims described below, and those skilled in the art will readily appreciate that the configuration of the present invention can be variously changed and modified within a scope that does not depart from the technical spirit of the present invention.

100 : 센서 장치 200 : 카메라 장치
300 : 엣지 서버
110 : 축전 판넬 120 : 배터리
130 : 표시부 140 : 센서부
141 : 지중 변위센서 142 : 지상 변위센서
151 : 온도 센서 152 : 습도센서
160 : 무선 통신부 170 : 발광 표시부
180 : 제어부
190 : 저장부
210 : 축전 판넬 220 : 배터리
230 : 카메라부 240 : 무선 통신부
250 : 제어부
301 : 시스템 메모리 302 : 운영체제
303 : 제어부 304 : 저장부
305 : 입력부 306 : 출력부
307 : 통신부
310 : 데이터 수집모듈 320 : 변위 기반 분석모듈
330 : 영상 기반 분석모듈 340 : 붕괴 판단모듈
350 : 상황 전파모듈
100 : Sensor device 200 : Camera device
300 : Edge Server
110 : Battery panel 120 : Battery
130: Display section 140: Sensor section
141: Ground displacement sensor 142: Ground displacement sensor
151: Temperature sensor 152: Humidity sensor
160: Wireless communication unit 170: Light-emitting display unit
180 : Control Unit
190 : Storage
210 : Battery panel 220 : Battery
230: Camera section 240: Wireless communication section
250 : Control Unit
301: System memory 302: Operating system
303: Control unit 304: Storage unit
305: Input section 306: Output section
307 : Communication Department
310: Data collection module 320: Displacement-based analysis module
330: Image-based analysis module 340: Collapse judgment module
350: Situation propagation module

Claims (15)

경사지에 배치되어 센싱 데이터를 제공하는 복수의 센서 장치 및 상기 경사지에 대한 영상 데이터를 제공하는 카메라 장치와 연동하여 동작하는 엣지 서버에서 수행되는 경사지 상태 분석 방법으로서,
상기 복수의 센싱 데이터에 포함된 변위 데이터를 기초로, 센싱 변위 측정에 기반한 제1 붕괴 판단 요소를 결정하는 단계;
영상 데이터를 기초로, 영상 분석에 기반한 제2 붕괴 판단 요소를 결정하는 단계;
상기 제1 붕괴 판단 요소 및 상기 제2 붕괴 판단 요소를 기초로, 상기 경사지에서 발생하는 붕괴 패턴을 결정하는 단계; 및
상기 경사지에 대한 영상 데이터에 대해 제1 딥 러닝 인공지능 모델을 이용하여 상기 영상 데이터 내에 표시된 적어도 하나의 객체를 식별하고, 상기 붕괴 패턴과 피해 객체 간의 위치적인 관련성을 바탕으로 객체 위험도를 설정하는 단계; 를 포함하고,
상기 경사지에서 발생하는 붕괴 패턴을 결정하는 단계는,
사전 학습된 제2 딥 러닝 인공지능 모델을 이용하여 붕괴 패턴에 따른 예상 위험 영역을 설정하는 단계;
각각의 피해 객체의 기존의 이동 히스토리를 바탕으로 피해 객체의 예측 이동 동선을 설정하고, 피해 객체의 예측 이동 동선을 이용하여 피해 객체를 대상으로 하는 위험 감지 영역을 변경하여 설정하는 단계;
붕괴 패턴 딥 러닝 모델을 이용하여 연속하는 프레임의 상기 위험 감지 영역에 대해 붕괴 패턴을 식별하는 단계; 및
각 붕괴 패턴 별 예상 위험 영역과, 피해 객체의 예측 이동 동선 간의 관련성을 바탕으로 피해 객체 별로 객체 위험도를 설정하는 단계; 를 포함하는,
아이오티 및 영상분석 기반의 경사지 상태 분석 방법.
A method for analyzing the condition of a slope performed on an edge server that operates in conjunction with a plurality of sensor devices that are placed on a slope and provide sensing data and a camera device that provides image data for the slope,
A step of determining a first collapse judgment factor based on a sensing displacement measurement based on displacement data included in the plurality of sensing data;
A step of determining a second collapse judgment factor based on image analysis based on image data;
A step of determining a collapse pattern occurring on the slope based on the first collapse judgment element and the second collapse judgment element; and
A step of identifying at least one object displayed in the image data for the above-mentioned slope using a first deep learning artificial intelligence model, and setting the object risk level based on the positional relationship between the collapse pattern and the damaged object; including;
The step of determining the collapse pattern occurring on the above slope is:
A step of setting an expected risk area according to a collapse pattern using a pre-trained second deep learning artificial intelligence model;
A step of setting a predicted movement path of the damaged object based on the existing movement history of each damaged object, and changing and setting a risk detection area targeting the damaged object by using the predicted movement path of the damaged object;
A step of identifying a collapse pattern for the above-mentioned risk detection area of consecutive frames using a collapse pattern deep learning model; and
A step of setting the object risk level for each damaged object based on the relationship between the expected risk area for each collapse pattern and the predicted movement path of the damaged object; including;
Slope condition analysis method based on IoT and image analysis.
제1항에 있어서,
상기 영상 데이터를 기초로, 영상 분석에 기반한 제2 붕괴 판단 요소를 결정하는 단계는,
상기 영상 데이터에서 센서 장치의 위치를 식별하는 단계;
상기 영상 데이터에서 상기 센서 장치의 위치를 바탕으로 위험 위험 감지 영역으로 설정하는 단계; 및
상기 영상 데이터의 연속하는 프레임에 대해 상기 위험 위험 감지 영역에서의 영상 변화를 기초로 제2 붕괴 판단 요소를 결정하는 단계; 를 포함하는,
아이오티 및 영상분석 기반의 경사지 상태 분석 방법.
In the first paragraph,
Based on the above image data, the step of determining the second collapse judgment factor based on image analysis is:
A step of identifying the location of a sensor device in the above image data;
A step of setting a risk detection area based on the location of the sensor device in the image data; and
A step of determining a second collapse judgment element based on an image change in the risk detection area for successive frames of the image data; comprising;
Slope condition analysis method based on IoT and image analysis.
제2항에 있어서,
상기 영상 데이터의 연속하는 프레임에 대해 상기 위험 감지 영역에서의 영상 변화를 기초로 제2 붕괴 판단 요소를 결정하는 단계는,
붕괴 패턴 -상기 붕괴 패턴은 평면 파괴, 쐐기 파괴, 복합 파괴, 원형 파괴 및 원호 파괴를 포함함-의 각 파괴 종류 별로 구분된 복수의 경사지 학습 영상을 기초로 붕괴 패턴 딥 러닝 모델을 학습하는 단계; 및
상기 붕괴 패턴 딥 러닝 모델을 이용하여 상기 연속하는 프레임의 상기 위험 감지 영역에 대해 붕괴 패턴을 식별하는 단계; 를 포함하는,
아이오티 및 영상분석 기반의 경사지 상태 분석 방법.
In the second paragraph,
The step of determining the second collapse judgment factor based on the image change in the risk detection area for the consecutive frames of the image data is as follows.
A step of learning a collapse pattern deep learning model based on multiple slope learning images classified by each type of collapse pattern - the collapse pattern includes plane collapse, wedge collapse, compound collapse, circular collapse and arc collapse; and
A step of identifying a collapse pattern for the risk detection area of the continuous frames using the collapse pattern deep learning model; comprising;
Slope condition analysis method based on IoT and image analysis.
삭제delete 삭제delete 제1항에 있어서,
상기 센서 장치는,
지중에 위치되어 지중 변위를 감지하여 지중 변위 데이터를 생성하는 지중 변위 센서; 및
지상에 위치되어 지상 변위를 감지하여 지상 변위 데이터를 생성하는 지상 변위 센서;를 포함하고,
상기 센싱 데이터는,
상기 지중 변위 데이터 및 상기 지상 변위 데이터를 포함하는,
아이오티 및 영상분석 기반의 경사지 상태 분석 방법.
In the first paragraph,
The above sensor device,
A ground displacement sensor located underground to detect ground displacement and generate ground displacement data; and
A ground displacement sensor positioned on the ground to detect ground displacement and generate ground displacement data;
The above sensing data is,
Including the above-mentioned ground displacement data and the above-mentioned ground displacement data,
Slope condition analysis method based on IoT and image analysis.
제6항에 있어서,
상기 변위 측정에 기반한 제1 붕괴 판단 요소를 결정하는 단계는,
상기 복수의 센서 장치로부터 수신된 복수의 변위 데이터 셋 각각에 대하여, 그와 연관된 센서 장치의 위치를 반영하여 지상 변위 맵 및 지중 변위 맵을 생성하는 단계;
지상 변위 및 지하 변위 간의 변위 임계 범위를 이용하여, 지상 변위 맵과 지중 변위 맵 간의 변위 데이터의 오차를 보정하는 단계; 및
보정된 지상 변위 맵 및 보정된 지중 변위 맵을 붕괴 패턴 데이터와 비교하여 제1 붕괴 판단 요소를 결정하는 단계; 를 포함하는,
아이오티 및 영상분석 기반의 경사지 상태 분석 방법.
In Article 6,
The step of determining the first collapse judgment factor based on the above displacement measurement is:
A step of generating a ground displacement map and an underground displacement map by reflecting the positions of the sensor devices associated with each of the plurality of displacement data sets received from the plurality of sensor devices;
A step of correcting the error of displacement data between the ground displacement map and the ground displacement map by using the displacement critical range between the ground displacement and the ground displacement; and
A step of comparing the corrected ground displacement map and the corrected ground displacement map with the collapse pattern data to determine a first collapse judgment factor; including;
Slope condition analysis method based on IoT and image analysis.
경사지에 배치되어 센싱 데이터를 제공하는 복수의 센서 장치;
상기 경사지에 대한 영상 데이터를 제공하는 카메라 장치; 및
상기 복수의 센서 장치 및 상기 카메라 장치와 연동하여 동작하는 엣지 서버로서, 상기 센싱 데이터에 포함된 변위 데이터의 변화를 기초로 제1 붕괴 판단 요소를 결정하고, 상기 영상 데이터를 기초로 영상 분석에 기반한 제2 붕괴 판단 요소를 결정하고, 상기 제1 붕괴 판단 요소 및 상기 제2 붕괴 판단 요소를 기초로, 상기 경사지에서 발생하는 붕괴 패턴을 결정하되, 상기 영상 데이터 내의 피해 객체를 식별하고, 상기 붕괴 패턴과 피해 객체 간의 위치적인 관련성을 바탕으로 객체 위험도를 설정하는 엣지 서버; 를 포함하고,
상기 엣지 서버는,
상기 복수의 센서 장치 및 상기 카메라 장치와 근거리 무선 통신 채널을 형성하는 통신부; 및
상기 통신부를 통하여 수신된 상기 센싱 데이터에 포함된 변위 데이터의 변화 및 상기 영상 데이터에서의 영상 변화를 조합적으로 이용하여 상기 경사지에 대한 붕괴 패턴을 결정하는 제어부; 를 포함하고,
상기 제어부는,
상기 복수의 센서 장치로부터 각각 상기 복수의 센싱 데이터를 수집하고, 상기 카메라 장치로부터 상기 경사지에 대한 영상 데이터를 수집하는 데이터 수집모듈;
상기 복수의 센싱 데이터에 포함된 변위 데이터를 기초로, 변위 측정에 기반한 제1 붕괴 판단 요소를 결정하는 변위 기반 분석모듈;
상기 경사지에 대한 영상 데이터를 기초로, 영상 분석에 기반한 제2 붕괴 판단 요소를 결정하고, 상기 영상 데이터 내에 표시된 적어도 하나의 객체를 식별하는 영상 기반 분석모듈; 및
상기 제1 붕괴 판단 요소 및 상기 제2 붕괴 판단 요소를 기초로 상기 경사지에서 발생하는 붕괴 패턴을 결정하고, 상기 붕괴 패턴과 피해 객체 간의 위치적인 관련성을 바탕으로 객체 위험도를 설정하는 붕괴 판단모듈; 을 포함하고,
상기 붕괴 판단모듈은,
사전 학습된 제2 딥 러닝 인공지능 모델을 이용하여 붕괴 패턴에 따른 예상 위험 영역을 설정하고, 붕괴 패턴 딥 러닝 모델을 이용하여 연속하는 프레임의 위험 감지 영역에 대해 붕괴 패턴을 식별하는 붕괴 패턴 판단모듈;
각각의 피해 객체의 기존의 이동 히스토리를 바탕으로 피해 객체의 예측 이동 동선을 설정하고, 피해 객체의 예측 이동 동선을 이용하여 피해 객체를 대상으로 하는 위험 감지 영역을 변경하여 설정하고, 각 붕괴 패턴 별 예상 위험 영역과, 피해 객체의 예측 이동 동선 간의 관련성을 바탕으로 피해 객체 별로 객체 위험도를 설정하는 감지 영역 설정모듈;을 포함하는,
아이오티 및 영상분석 기반의 경사지 상태 분석 시스템.
A plurality of sensor devices arranged on a slope and providing sensing data;
A camera device providing image data for the above slope; and
An edge server that operates in conjunction with the plurality of sensor devices and the camera device, the edge server determining a first collapse determination factor based on a change in displacement data included in the sensing data, determining a second collapse determination factor based on image analysis based on the image data, and determining a collapse pattern occurring in the slope based on the first collapse determination factor and the second collapse determination factor, while identifying a damaged object in the image data and setting an object risk level based on a positional relationship between the collapse pattern and the damaged object; including:
The above edge server,
A communication unit forming a short-range wireless communication channel with the plurality of sensor devices and the camera device; and
A control unit that determines a collapse pattern for the slope by combining changes in displacement data included in the sensing data received through the communication unit and changes in image data;
The above control unit,
A data collection module that collects the plurality of sensing data from the plurality of sensor devices and collects image data for the slope from the camera device;
A displacement-based analysis module that determines a first collapse judgment factor based on displacement measurement based on displacement data included in the plurality of sensing data;
An image-based analysis module that determines a second collapse judgment factor based on image analysis based on image data for the above-mentioned slope and identifies at least one object displayed in the image data; and
A collapse judgment module that determines a collapse pattern occurring on the slope based on the first collapse judgment element and the second collapse judgment element, and sets the object risk level based on the positional relationship between the collapse pattern and the damaged object;
The above collapse judgment module is,
A collapse pattern judgment module that sets an expected risk area according to a collapse pattern using a pre-learned second deep learning artificial intelligence model, and identifies a collapse pattern for a risk detection area of consecutive frames using a collapse pattern deep learning model;
A detection area setting module that sets a predicted movement path of each damaged object based on the existing movement history of each damaged object, changes and sets a risk detection area targeting the damaged object using the predicted movement path of the damaged object, and sets an object risk level for each damaged object based on the correlation between the predicted risk area for each collapse pattern and the predicted movement path of the damaged object; including;
Slope condition analysis system based on IoT and image analysis.
삭제delete 제8항에 있어서,
상기 제어부는,
상기 붕괴 판단모듈에 의하여 결정된 붕괴 패턴에 대응하여 전파 대상을 확인하고, 확인된 전파 대상에게 붕괴 상황에 대한 데이터를 전송하는 상황 전파모듈; 을 더 포함하는,
아이오티 및 영상분석 기반의 경사지 상태 분석 시스템.
In Article 8,
The above control unit,
A situation propagation module that confirms a transmission target in response to a collapse pattern determined by the collapse judgment module and transmits data on a collapse situation to the confirmed transmission target; further comprising;
Slope condition analysis system based on IoT and image analysis.
제8항에 있어서,
상기 센서 장치는,
지중에 위치되어 지중 변위를 감지하여 지중 변위 데이터를 생성하는 지중 변위 센서; 및
지상에 위치되어 지상 변위를 감지하여 지상 변위 데이터를 생성하는 지상 변위 센서;를 포함하고,
상기 센싱 데이터는,
상기 지중 변위 데이터 및 상기 지상 변위 데이터를 포함하는,
아이오티 및 영상분석 기반의 경사지 상태 분석 시스템.
In Article 8,
The above sensor device,
A ground displacement sensor located underground to detect ground displacement and generate ground displacement data; and
A ground displacement sensor positioned on the ground to detect ground displacement and generate ground displacement data;
The above sensing data is,
Including the above-mentioned ground displacement data and the above-mentioned ground displacement data,
Slope condition analysis system based on IoT and image analysis.
제11항에 있어서,
상기 변위 기반 분석모듈은,
상기 복수의 센서 장치로부터 수신된 복수의 변위 데이터 셋 각각에 대하여, 그와 연관된 센서 장치의 위치를 반영하여 지상 변위 맵 및 지중 변위 맵을 생성하고, 지상 변위 및 지하 변위 간의 변위 임계 범위를 이용하여, 지상 변위 맵과 지중 변위 맵 간의 변위 데이터의 오차를 보정한 후, 보정된 지상 변위 맵 및 보정된 지중 변위 맵을 붕괴 패턴 데이터와 비교하여 제1 붕괴 판단 요소를 결정하는,
아이오티 및 영상분석 기반의 경사지 상태 분석 시스템.
In Article 11,
The above displacement-based analysis module,
For each of the plurality of displacement data sets received from the plurality of sensor devices, a ground displacement map and an underground displacement map are generated by reflecting the positions of the sensor devices associated therewith, and an error in displacement data between the ground displacement map and the underground displacement map is corrected by using a displacement critical range between the ground displacement and the underground displacement, and then the corrected ground displacement map and the corrected underground displacement map are compared with the collapse pattern data to determine a first collapse judgment factor.
Slope condition analysis system based on IoT and image analysis.
제8항에 있어서,
상기 영상 기반 분석모듈은,
상기 붕괴 패턴 -상기 붕괴 패턴은 평면 파괴, 쐐기 파괴, 복합 파괴, 원형 파괴 및 원호 파괴를 포함함-의 각 파괴 종류 별로 구분된 복수의 경사지 학습 영상을 기초로 붕괴 패턴 딥 러닝 모델을 학습하고, 상기 붕괴 패턴 딥 러닝 모델을 이용하여 연속하는 프레임의 위험 감지 영역에 대해 붕괴 패턴을 식별하는,
아이오티 및 영상분석 기반의 경사지 상태 분석 시스템.
In Article 8,
The above image-based analysis module,
A collapse pattern deep learning model is trained based on multiple slope learning images classified by each type of collapse pattern - the collapse pattern includes plane collapse, wedge collapse, compound collapse, circular collapse, and arc collapse - and the collapse pattern deep learning model is used to identify the collapse pattern for the risk detection area of consecutive frames.
Slope condition analysis system based on IoT and image analysis.
제8항에 있어서,
상기 붕괴 판단모듈은,
상기 붕괴 패턴에 따른 예상 위험 영역을 설정하고, 상기 피해 객체의 예측 이동 동선을 설정한 후, 상기 예상 위험 영역과 상기 피해 객체의 예측 이동 동선 간의 관련성을 바탕으로 상기 객체 위험도를 설정하는,
아이오티 및 영상분석 기반의 경사지 상태 분석 시스템.
In Article 8,
The above collapse judgment module is,
Setting the expected risk area according to the above collapse pattern, setting the expected movement path of the damaged object, and then setting the object risk level based on the correlation between the expected risk area and the expected movement path of the damaged object.
Slope condition analysis system based on IoT and image analysis.
컴퓨터 판독 가능한 인스트럭션들(instructions)을 저장하고 있는 저장 매체에 있어서,
상기 인스트럭션들은, 컴퓨팅 장치에 의해 실행될 때, 상기 컴퓨팅 장치로 하여금,
복수의 센싱 데이터에 포함된 변위 데이터를 기초로, 센싱 변위 측정에 기반한 제1 붕괴 판단 요소를 결정하는 동작;
영상 데이터를 기초로, 영상 분석에 기반한 제2 붕괴 판단 요소를 결정하는 단계;
상기 제1 붕괴 판단 요소 및 상기 제2 붕괴 판단 요소를 기초로, 경사지에서 발생하는 붕괴 패턴을 결정하는 동작;
상기 경사지에 대한 영상 데이터에 대해 제1 딥 러닝 인공지능 모델을 이용하여 상기 영상 데이터 내에 표시된 적어도 하나의 객체를 식별하는 동작; 및
상기 붕괴 패턴과 피해 객체 간의 위치적인 관련성을 바탕으로 객체 위험도를 설정하는 동작; 을 수행하도록 하고,
상기 경사지에서 발생하는 붕괴 패턴을 결정하는 동작은,
사전 학습된 제2 딥 러닝 인공지능 모델을 이용하여 붕괴 패턴에 따른 예상 위험 영역을 설정하는 동작;
각각의 피해 객체의 기존의 이동 히스토리를 바탕으로 피해 객체의 예측 이동 동선을 설정하고, 피해 객체의 예측 이동 동선을 이용하여 피해 객체를 대상으로 하는 위험 감지 영역을 변경하여 설정하는 동작;
붕괴 패턴 딥 러닝 모델을 이용하여 연속하는 프레임의 상기 위험 감지 영역에 대해 붕괴 패턴을 식별하는 동작; 및
각 붕괴 패턴 별 예상 위험 영역과, 피해 객체의 예측 이동 동선 간의 관련성을 바탕으로 피해 객체 별로 객체 위험도를 설정하는 동작; 을 포함하는,
저장 매체.
In a storage medium storing computer-readable instructions,
The above instructions, when executed by a computing device, cause the computing device to:
An operation of determining a first collapse judgment factor based on a sensing displacement measurement based on displacement data included in a plurality of sensing data;
A step of determining a second collapse judgment factor based on image analysis based on image data;
An operation for determining a collapse pattern occurring on a slope based on the first collapse determination element and the second collapse determination element;
An operation of identifying at least one object displayed in the image data for the above slope using a first deep learning artificial intelligence model; and
An operation to set the object risk based on the positional relationship between the above collapse pattern and the damaged object;
The action that determines the collapse pattern occurring on the above slope is:
Actions to set expected risk areas based on collapse patterns using a pre-trained second deep learning artificial intelligence model;
An action of setting a predicted movement path of a damaged object based on the existing movement history of each damaged object, and changing and setting a risk detection area targeting the damaged object using the predicted movement path of the damaged object;
An operation of identifying a collapse pattern for the above-mentioned risk detection area of consecutive frames using a collapse pattern deep learning model; and
An operation for setting the object risk level for each damaged object based on the relationship between the expected risk area for each collapse pattern and the predicted movement path of the damaged object; including;
Storage medium.
KR1020230187407A 2023-12-20 2023-12-20 System and method for analyzing slope condition based on internet on things technique and image analysis KR102694202B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230187407A KR102694202B1 (en) 2023-12-20 2023-12-20 System and method for analyzing slope condition based on internet on things technique and image analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230187407A KR102694202B1 (en) 2023-12-20 2023-12-20 System and method for analyzing slope condition based on internet on things technique and image analysis

Publications (1)

Publication Number Publication Date
KR102694202B1 true KR102694202B1 (en) 2024-08-13

Family

ID=92395024

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230187407A KR102694202B1 (en) 2023-12-20 2023-12-20 System and method for analyzing slope condition based on internet on things technique and image analysis

Country Status (1)

Country Link
KR (1) KR102694202B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140007709A (en) * 2012-07-10 2014-01-20 삼성전자주식회사 Transparent display apparatus for displaying an information of danger element and method thereof
KR102241254B1 (en) 2020-10-29 2021-04-16 주식회사 이에스피 Slope real-time unmanned monitoring system with power condition management function
KR102246462B1 (en) * 2020-06-15 2021-04-30 주식회사 스칼라웍스 Intelligent edge-based road traffic situation recognition method
KR102516005B1 (en) * 2022-11-02 2023-03-31 대한민국 Method and apparatus for assessing the risk of building collapse using an indoor positioning investigation robot
KR20230124801A (en) * 2022-02-18 2023-08-28 (주)채움종합건설 Construction site monitoring system to prevent serious disasters.
KR102595365B1 (en) * 2022-11-14 2023-10-30 한국건설기술연구원 System and method for analyzing slope condition based on internet on things technique

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140007709A (en) * 2012-07-10 2014-01-20 삼성전자주식회사 Transparent display apparatus for displaying an information of danger element and method thereof
KR102246462B1 (en) * 2020-06-15 2021-04-30 주식회사 스칼라웍스 Intelligent edge-based road traffic situation recognition method
KR102241254B1 (en) 2020-10-29 2021-04-16 주식회사 이에스피 Slope real-time unmanned monitoring system with power condition management function
KR20230124801A (en) * 2022-02-18 2023-08-28 (주)채움종합건설 Construction site monitoring system to prevent serious disasters.
KR102516005B1 (en) * 2022-11-02 2023-03-31 대한민국 Method and apparatus for assessing the risk of building collapse using an indoor positioning investigation robot
KR102595365B1 (en) * 2022-11-14 2023-10-30 한국건설기술연구원 System and method for analyzing slope condition based on internet on things technique

Similar Documents

Publication Publication Date Title
Webb et al. Categories of SHM deployments: Technologies and capabilities
KR102595365B1 (en) System and method for analyzing slope condition based on internet on things technique
US10011960B2 (en) Method of detecting road surface degradation, information process apparatus, and non-transitory computer-readable recording medium
Azim et al. Damage detection of steel girder railway bridges utilizing operational vibration response
JP2024014948A (en) Road monitoring system, road monitoring device, road monitoring method, and program
CN111679675B (en) Gas inspection method for unmanned vehicle and unmanned vehicle
Alamdari et al. Non-contact structural health monitoring of a cable-stayed bridge: Case study
KR102114683B1 (en) Method for large sructures safety diagnosis using drone, device and computer readable medium for performing the method
KR102616571B1 (en) System and method for providing road traffic information based on image analysis using artificial intelligence
EA201401091A1 (en) METHOD OF MANAGEMENT MONITORING SYSTEM AND SYSTEM FOR ITS IMPLEMENTATION
KR20240109236A (en) Disaster response system that detects and responds to disaster situations in real time
KR102694202B1 (en) System and method for analyzing slope condition based on internet on things technique and image analysis
Praticò et al. Innovative smart road management systems in the urban context: Integrating smart sensors and miniaturized sensing systems
KR102363760B1 (en) Electronic device to monitor load surface in real time and operating method thereof, and system comprising the same
CN116906837A (en) State monitoring system and monitoring method for underground pipeline
KR102190269B1 (en) Disaster control system and method for power tunnel
CN114286086B (en) Camera detection method and related device
KR20190127546A (en) Method and apparatus for managing traffic infrastructure using internet of things
JP6093596B2 (en) Moving object monitoring system
KR101962921B1 (en) System and method for managing construction
US20230025986A1 (en) Systems and methods for identifying deployed cables
KR102342929B1 (en) Device and method for analyzing accident vulnerability area by analyzing accident occurrence pattern
KR102420090B1 (en) Method of drawing map by identifying moving object and robot implementing thereof
Ergen et al. Blockage assessment of buildings during emergency using multiple types of sensors
KR20200145124A (en) Vibration detection system using environmental information or quxiliary sensor

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant