KR102618069B1 - Method and apparatus for analyasing indoor building disaster information using point cloud data and visual information from ground survey robot - Google Patents

Method and apparatus for analyasing indoor building disaster information using point cloud data and visual information from ground survey robot Download PDF

Info

Publication number
KR102618069B1
KR102618069B1 KR1020230100677A KR20230100677A KR102618069B1 KR 102618069 B1 KR102618069 B1 KR 102618069B1 KR 1020230100677 A KR1020230100677 A KR 1020230100677A KR 20230100677 A KR20230100677 A KR 20230100677A KR 102618069 B1 KR102618069 B1 KR 102618069B1
Authority
KR
South Korea
Prior art keywords
crack
information
visual
facility
robot
Prior art date
Application number
KR1020230100677A
Other languages
Korean (ko)
Inventor
김성삼
석재욱
정용한
임언택
구슬
이철규
Original Assignee
대한민국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국 filed Critical 대한민국
Priority to KR1020230100677A priority Critical patent/KR102618069B1/en
Application granted granted Critical
Publication of KR102618069B1 publication Critical patent/KR102618069B1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8861Determining coordinates of flaws
    • G01N2021/8864Mapping zones of defects

Abstract

본 발명은 조사로봇과 연결된 컴퓨터 장치에 의해 실행되는 시설물의 재난정보 분석 방법에 있어서, 상기 조사로봇에 구비되며, 라이다 센서, IMU(Inertial Measurement Unit) 센서 및 하나 이상의 비전 센서 중 적어도 어느 하나를 포함하는 센서 모듈을 이용하여, 상기 시설물의 정보 분석을 위한 상기 조사로봇의 위치를 제1 위치로 이동시키는 단계; 상기 제1 위치에 대응하는 센싱 정보를 SLAM(Simultaneous Localization And Mapping) 기반으로 획득하는 단계; 상기 센싱 정보에 기초하여 실내 공간의 시설물 세그먼트를 식별하는 단계; 상기 시설물 세그먼트에 대응하여, 상기 센싱 정보의 비전 영상 정보로부터 분석되는 시각적 크랙 식별 정보와, 상기 시각적 크랙 식별 정보에 대응하는 깊이 센싱 정보에 의해 판별되는 크랙 깊이 변화 정보를 획득하는 단계; 상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보에 기초하여 획득되는 크랙의 유무 및 크랙의 규모에 따라, 상기 시설물 세그먼트의 손상 정도를 추정 연산하는 단계; 및 상기 손상 정도에 기초한 상기 시설물 세그먼트의 시설물 정보 분석 결과 데이터를 구성하여, 하나 이상의 디바이스로 출력하는 단계를 포함한다.The present invention relates to a method for analyzing disaster information of a facility executed by a computer device connected to an investigation robot, which is provided on the investigation robot and includes at least one of a LiDAR sensor, an Inertial Measurement Unit (IMU) sensor, and one or more vision sensors. moving the location of the investigation robot to a first location for analyzing information on the facility using a sensor module including; Obtaining sensing information corresponding to the first location based on Simultaneous Localization And Mapping (SLAM); Identifying a facility segment in an indoor space based on the sensing information; Corresponding to the facility segment, acquiring visual crack identification information analyzed from vision image information of the sensing information and crack depth change information determined by depth sensing information corresponding to the visual crack identification information; estimating the degree of damage to the facility segment according to the presence or absence of a crack and the size of the crack obtained based on the visual crack identification information and the crack depth change information; and configuring facility information analysis result data of the facility segment based on the degree of damage, and outputting it to one or more devices.

Description

지상조사 로봇의 점군 자료와 시각정보를 이용한 실내 건물 재난정보 분석 방법 및 장치{METHOD AND APPARATUS FOR ANALYASING INDOOR BUILDING DISASTER INFORMATION USING POINT CLOUD DATA AND VISUAL INFORMATION FROM GROUND SURVEY ROBOT}Method and device for analyzing indoor building disaster information using point cloud data and visual information of ground survey robot {METHOD AND APPARATUS FOR ANALYASING INDOOR BUILDING DISASTER INFORMATION USING POINT CLOUD DATA AND VISUAL INFORMATION FROM GROUND SURVEY ROBOT}

본 발명의 실시 예들은 재난정보 분석 방법 및 그 장치에 관한 것으로, 보다 상세하게는 다중 센싱 기반 실내 측위에서 활용되는 지상조사 로봇의 점군 자료와 시각정보를 이용한 실내 건물 재난정보 분석 기술에 관한 것이다.Embodiments of the present invention relate to a disaster information analysis method and device, and more specifically, to an indoor building disaster information analysis technology using point cloud data and visual information of a ground survey robot used in multi-sensing-based indoor positioning.

재난사고 현장의 객관적인 원인규명 및 피해조사는 재난의 예방과 대응에 굉장히 중요하다.Objective cause identification and damage investigation at the scene of a disaster accident are very important in preventing and responding to disasters.

이러한 재난사고 현장의 객관적인 원인규명 및 피해조사를 위해 드론, 로봇, 특수차량 등 첨단기술 장비가 활용되고 있으며, 특히 궤도형 지상 조사로봇은 지진 및 시설물 붕괴 현장에 대한 실내 조사 자료 취득과 시설물 붕괴 위험지역에서 조사 임무를 대체할 수 있는 재난조사 로봇으로서 유용하게 활용되고 있다.To objectively determine the cause and investigate damage at the scene of such a disaster, cutting-edge technology equipment such as drones, robots, and special vehicles are being used. In particular, orbital ground investigation robots are used to acquire indoor investigation data on earthquake and facility collapse sites and the risk of facility collapse. It is being usefully used as a disaster investigation robot that can replace investigation missions in the region.

이러한 재난현장 등을 조사하는 조사로봇은 측위 모듈, 라이다 센서, 카메라 센서, 통신 모듈 등을 구비하며, 실내외 측위와 라이다 센싱을 통해 시설물의 붕괴 위험 등을 예측하고, 보고하는 역할을 수행한다.The investigation robot that investigates these disaster sites is equipped with a positioning module, LiDAR sensor, camera sensor, and communication module, and plays a role in predicting and reporting the risk of facility collapse through indoor and outdoor positioning and LiDAR sensing. .

그러나, 라이다 센서는 빛(레이저 빔)을 발사하여 대상체로부터 반사되는 신호를 받아 물체와의 거리와 위치를 측정하는 센서로서, 센서 모듈에 가해지는 진동에 대한 안정성 등이 보장되어야만 정확한 측정이 가능하므로 제약된 현장에서의 측정이 용이하지 않다는 문제점이 있다.However, a LiDAR sensor is a sensor that measures the distance and position of an object by emitting light (laser beam) and receiving signals reflected from the object. Accurate measurement is possible only when stability against vibration applied to the sensor module is guaranteed. Therefore, there is a problem that it is not easy to measure in a restricted field.

또한, 시설물의 손상을 판별하는데 있어서 가장 중요한 요소인 크랙 또는 균열을 분석함에 있어서, 현재까지는 카메라 이미지의 특징점을 점 군(Point Cloud)으로 추출하여 균열의 전체적인 형태 윤곽 등을 파악하는 방식이 이용되고 있는데, 이러한 방식들은 크랙 자체의 시작점이나 끝점 등을 파악할 수 없으며, 이로 인해 실제 크랙인지 여부나 정확한 크랙 위치, 규모 등을 정확하게는 파악하기 어려운 문제점들이 있다.In addition, when analyzing cracks or fissures, which are the most important elements in determining damage to facilities, the method used to date is to extract the feature points of the camera image as a point cloud and identify the overall shape and outline of the crack. However, these methods cannot identify the starting or ending point of the crack itself, which makes it difficult to accurately determine whether it is an actual crack or the exact location and size of the crack.

특히, 실제 재난환경에서 실내 시설물의 실시간 붕괴 위험이나 복구 작업시 추가 붕괴 위험 등은 큰 피해를 야기할 수 있으므로 정확한 파악 및 규모 분석과, 신속한 분석 결과의 제공 기술이 필요한 실정이다.In particular, in an actual disaster environment, the risk of real-time collapse of indoor facilities or the risk of additional collapse during recovery work can cause significant damage, so accurate identification and scale analysis, as well as technology to quickly provide analysis results, are needed.

본 발명은 상기한 바와 같은 문제점을 해결하고자 안출된 것으로, 조사로봇의 센서 모듈에서 관측된 센싱 정보를 비전 센서 정보의 시각적 특징에 따라 세그먼트화여 크랙을 식별하고, 이에 대응하는 라이다 센서 기반의 깊이 변화를 판별함에 따라 보다 정확한 크랙의 위치, 유무 및 각 크랙별 규모 등을 산출하며, 시각화하여 출력할 수 있는 재난정보 분석 방법 및 장치를 제공하는 데 그 목적이 있다.The present invention was developed to solve the problems described above, and identifies cracks by segmenting the sensing information observed from the sensor module of the investigation robot according to the visual characteristics of the vision sensor information, and detects the corresponding lidar sensor-based depth. The purpose is to provide a disaster information analysis method and device that can visualize and output the more accurate location, presence or absence of cracks, and the size of each crack by calculating changes as changes are determined.

본 명세서의 해결하고자 하는 과제는 상술한 바에 한정되지 아니하고, 하기에서 설명하는 발명의 실시예들에 의해 도출될 수 있는 다양한 사항들로 확장될 수 있다.The problem to be solved by this specification is not limited to the above, and can be expanded to various matters that can be derived by the embodiments of the invention described below.

상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 조사로봇과 연결된 컴퓨터 장치에 의해 실행되는 시설물의 재난정보 분석 방법에 있어서, 상기 조사로봇에 구비되며, 라이다 센서, IMU(Inertial Measurement Unit, 관성 측정 센서) 센서 및 하나 이상의 비전 센서 중 적어도 어느 하나를 포함하는 센서 모듈을 이용하여, 상기 시설물의 정보 분석을 위한 상기 조사로봇의 위치를 제1 위치로 이동시키는 단계; 상기 제1 위치에 대응하는 센싱 정보를 SLAM(Simultaneous Localization And Mapping) 기반으로 획득하는 단계; 상기 센싱 정보에 기초하여 실내 공간의 시설물 세그먼트를 식별하는 단계; 상기 시설물 세그먼트에 대응하여, 상기 센싱 정보의 비전 영상 정보로부터 분석되는 시각적 크랙 식별 정보와, 상기 시각적 크랙 식별 정보에 대응하는 깊이 센싱 정보에 의해 판별되는 크랙 깊이 변화 정보를 획득하는 단계; 상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보에 기초하여 획득되는 크랙의 유무 및 크랙의 규모에 따라, 상기 시설물 세그먼트의 손상 정도를 추정 연산하는 단계; 및 상기 손상 정도에 기초한 상기 시설물 세그먼트의 시설물 정보 분석 결과 데이터를 구성하여, 하나 이상의 디바이스로 출력하는 단계를 포함한다.The method according to an embodiment of the present invention for solving the above-described problem is a method of analyzing disaster information of a facility executed by a computer device connected to a survey robot, and is provided in the survey robot, and includes a lidar sensor, an IMU Using a sensor module including at least one of an (Inertial Measurement Unit, inertial measurement sensor) sensor and one or more vision sensors, moving the position of the survey robot to a first position for analyzing information on the facility; Obtaining sensing information corresponding to the first location based on Simultaneous Localization And Mapping (SLAM); Identifying a facility segment in an indoor space based on the sensing information; Corresponding to the facility segment, acquiring visual crack identification information analyzed from vision image information of the sensing information and crack depth change information determined by depth sensing information corresponding to the visual crack identification information; estimating the degree of damage to the facility segment according to the presence or absence of a crack and the size of the crack obtained based on the visual crack identification information and the crack depth change information; and configuring facility information analysis result data of the facility segment based on the degree of damage, and outputting it to one or more devices.

또한 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 상기 방법을 컴퓨터에서 실행시키기 위해 컴퓨터 판독 가능한 매체에 저장되는 컴퓨터프로그램으로 구현될 수 있다.Additionally, the method according to an embodiment of the present invention for solving the above-mentioned problem may be implemented as a computer program stored in a computer-readable medium in order to execute the method on a computer.

또한, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 장치는, 컴퓨팅 장치를 포함하는 조사로봇에 있어서, 상기 조사로봇에 구비되며, 라이다 센서, 관성 측정 센서 및 하나 이상의 비전 센서 중 적어도 어느 하나를 포함하는 센서 모듈을 이용하여, 상기 시설물의 정보 분석을 위한 상기 조사로봇의 위치를 제1 위치로 이동시키도록, 이동 장치의 구동을 제어하는 조사로봇 구동부; 및 상기 제1 위치에 대응하는 센싱 정보를 SLAM(Simultaneous Localization And Mapping) 기반으로 획득하고, 상기 센싱 정보에 기초하여 실내 공간의 시설물 세그먼트를 식별하며, 상기 시설물 세그먼트에 대응하여, 상기 센싱 정보의 비전 영상 정보로부터 분석되는 시각적 크랙 식별 정보와, 상기 시각적 크랙 식별 정보에 대응하는 깊이 센싱 정보에 의해 판별되는 크랙 깊이 변화 정보를 획득하고, 상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보에 기초하여 획득되는 크랙의 유무 및 크랙의 규모에 따라, 상기 시설물 세그먼트의 손상 정도를 추정 연산하는 크랙 분석부; 및 상기 손상 정도에 기초한 상기 시설물 세그먼트의 시설물 정보 분석 결과 데이터를 구성하여 하나 이상의 디바이스로 출력하는 출력부를 포함하는 조사로봇으로 구성될 수 있다.In addition, a device according to an embodiment of the present invention for solving the problems described above is provided in a research robot including a computing device, and is provided in the research robot, a lidar sensor, an inertial measurement sensor, and one or more vision sensors. a survey robot driving unit that controls the driving of the mobile device to move the position of the survey robot to a first position for analyzing information on the facility, using a sensor module including at least one of the following; and acquire sensing information corresponding to the first location based on SLAM (Simultaneous Localization And Mapping), identify a facility segment of the indoor space based on the sensing information, and, in response to the facility segment, create a vision of the sensing information. Obtaining visual crack identification information analyzed from image information and crack depth change information determined by depth sensing information corresponding to the visual crack identification information, and obtained based on the visual crack identification information and the crack depth change information. A crack analysis unit that estimates and calculates the degree of damage to the facility segment according to the presence or absence of a crack and the size of the crack; and an investigation robot that includes an output unit that configures facility information analysis result data of the facility segment based on the degree of damage and outputs it to one or more devices.

본 발명의 실시 예에 따르면, 시설물의 정보 분석을 위한 상기 조사로봇의 위치를 제1 위치로 이동시키고, 비전 영상 정보로부터 시설물 세그먼트의 시각적 크랙 식별 정보를 추출하며, 상기 시각적 크랙 식별 정보에 대응하는 깊이 센싱 정보에 의해 판별되는 크랙 깊이 변화 정보를 획득함에 따라, 크랙의 유무 및 크랙의 규모를 판별하고, 이에 기초한 상기 시설물 세그먼트의 손상 정도를 추정 연산할 수 있다.According to an embodiment of the present invention, the position of the investigation robot for analyzing facility information is moved to the first position, visual crack identification information of the facility segment is extracted from vision image information, and visual crack identification information corresponding to the visual crack identification information is extracted. By obtaining crack depth change information determined by depth sensing information, the presence or absence of a crack and the size of the crack can be determined, and the degree of damage to the facility segment can be estimated and calculated based on this.

이에 따라, 본 발명은 크랙 예측 정확도를 향상시키면서도, 작업자에게 직관적인 방식으로 쉽게 인지시킬 수 있는 시각화된 시설물의 손상 정도와 크랙 분석 결과를 제공할 수 있다.Accordingly, the present invention can improve crack prediction accuracy while providing visualized facility damage levels and crack analysis results that can be easily recognized by workers in an intuitive manner.

본 명세서의 효과는 위 기재된 사항에 한정되지 아니하며, 아래 발명의 실시예들에 대한 상세한 설명으로부터 도출될 수 있는 다양한 내용들로 확장될 수 있음이 이해되어야 한다.It should be understood that the effect of the present specification is not limited to the matters described above, and can be expanded to various contents that can be derived from the detailed description of the embodiments of the invention below.

도 1은 본 명세서의 일 실시 예에 따른 시스템의 동작 환경의 예를 도시한 도면이다.
도 2는 본 명세서의 일 실시 예에 있어서 컴퓨팅 장치(200)의 내부 구성을 설명하기 위한 블록도이다.
도 3은 본 발명의 실시 예에 따른 컴퓨팅 장치와 연결된 조사로봇의 하드웨어적 구성을 설명하기 위한 도면이다.
도 4는 본 발명의 실시 예에 따른 센서 모듈의 예시도이다.
도 5는 본 발명의 실시 예에 따른 손상 정보 처리부의 예시도이다.
도 6은 본 발명의 실시 예에 따른 크랙 분석부를 보다 구체적으로 도시한 블록도이다.
도 7은 본 발명의 실시 예에 따른 서비스 처리부를 보다 구체적으로 도시한 블록도이다.
도 8은 본 발명의 실시 예에 따른 컴퓨팅 장치의 동작을 설명하기 위한 흐름도이다.
도 9는 본 발명의 실시 예에 따른 손상 탐지 알고리즘을 보다 구체적으로 설명하기 위한 흐름도이다.
도 10는 본 발명의 실시 예에 따른 손상 정보 제공 프로세스의 구현예를 설명하기 위한 도면이다.
도 11은 본 발명의 실시 예에 따른 크랙 스켈레톤화 및 규모 추정 방법을 설명하기 위한 분석 예시도이다.
도 12 및 도 13은 본 발명의 실시 예에 따른 크랙 검출 성능을 각 시야각 및 크랙과의 거리에 따라 테스트한 실험예이다.
1 is a diagram illustrating an example of an operating environment of a system according to an embodiment of the present specification.
FIG. 2 is a block diagram for explaining the internal configuration of the computing device 200 according to an embodiment of the present specification.
Figure 3 is a diagram for explaining the hardware configuration of a survey robot connected to a computing device according to an embodiment of the present invention.
Figure 4 is an exemplary diagram of a sensor module according to an embodiment of the present invention.
Figure 5 is an exemplary diagram of a damage information processing unit according to an embodiment of the present invention.
Figure 6 is a block diagram illustrating in more detail a crack analysis unit according to an embodiment of the present invention.
Figure 7 is a block diagram showing the service processing unit in more detail according to an embodiment of the present invention.
Figure 8 is a flowchart for explaining the operation of a computing device according to an embodiment of the present invention.
Figure 9 is a flowchart to explain in more detail the damage detection algorithm according to an embodiment of the present invention.
Figure 10 is a diagram for explaining an implementation example of a process for providing damage information according to an embodiment of the present invention.
Figure 11 is an analysis diagram to explain the crack skeletonization and size estimation method according to an embodiment of the present invention.
Figures 12 and 13 are experimental examples in which crack detection performance according to an embodiment of the present invention was tested according to each viewing angle and distance from the crack.

본 명세서의 실시예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 실시예의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 명세서의 실시예에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. In describing the embodiments of the present specification, if it is determined that a detailed description of a known configuration or function may obscure the gist of the embodiments of the present specification, the detailed description thereof will be omitted. In addition, in the drawings, parts that are not related to the description of the embodiments of the present specification are omitted, and similar parts are given similar reference numerals.

본 명세서의 실시예에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다. In the embodiments of the present specification, when a component is said to be “connected,” “coupled,” or “connected” to another component, this refers not only to a direct connection relationship, but also to an indirect relationship where another component exists in between. Connection relationships may also be included. In addition, when a component is said to "include" or "have" another component, this does not mean excluding the other component, but may further include another component, unless specifically stated to the contrary. .

본 명세서의 실시예에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 명세서의 실시예의 범위 내에서 실시예에서의 제1 구성요소는 다른 실시예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 실시예에서의 제2 구성요소를 다른 실시예에서 제1 구성요소라고 칭할 수도 있다. In the embodiments of this specification, terms such as first, second, etc. are used only for the purpose of distinguishing one component from other components, and do not limit the order or importance of components unless specifically mentioned. No. Therefore, within the scope of the embodiments of the present specification, the first component in an embodiment may be referred to as a second component in another embodiment, and similarly, the second component in the embodiment may be referred to as the first component in another embodiment. It may also be called.

본 명세서의 실시예에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시예도 본 명세서의 실시예의 범위에 포함된다. In the embodiments of the present specification, distinct components are intended to clearly explain each feature, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to form one hardware or software unit, or one component may be distributed to form a plurality of hardware or software units. Therefore, even if not specifically mentioned, such integrated or distributed embodiments are also included in the scope of the embodiments of the present specification.

본 명세서에서 네트워크는 유무선 네트워크를 모두 포함하는 개념일 수 있다. 이때, 네트워크는 디바이스와 시스템 및 디바이스 상호 간의 데이터 교환이 수행될 수 있는 통신망을 의미할 수 있으며, 특정 네트워크로 한정되는 것은 아니다. In this specification, a network may be a concept that includes both wired and wireless networks. At this time, the network may refer to a communication network in which data exchange between devices, systems, and devices can be performed, and is not limited to a specific network.

본 명세서에 기술된 실시예는 전적으로 하드웨어이거나, 부분적으로 하드웨어이고 부분적으로 소프트웨어이거나, 또는 전적으로 소프트웨어인 측면을 가질 수 있다. 본 명세서에서 "부(unit)", "장치" 또는 "시스템" 등은 하드웨어, 하드웨어와 소프트웨어의 조합, 또는 소프트웨어 등 컴퓨터 관련 엔티티(entity)를 지칭한다. 예를 들어, 본 명세서에서 부, 모듈, 장치 또는 시스템 등은 실행중인 프로세스, 프로세서, 객체(object), 실행 파일(executable), 실행 스레드(thread of execution), 프로그램(program), 및/또는 컴퓨터(computer)일 수 있으나, 이에 제한되는 것은 아니다. 예를 들어, 컴퓨터에서 실행중인 애플리케이션(application) 및 컴퓨터의 양쪽이 모두 본 명세서의 부, 모듈, 장치 또는 시스템 등에 해당할 수 있다. Embodiments described herein may have aspects that are entirely hardware, partly hardware and partly software, or entirely software. In this specification, “unit,” “device,” or “system” refers to computer-related entities such as hardware, a combination of hardware and software, or software. For example, in this specification, a part, module, device, or system refers to a running process, processor, object, executable, thread of execution, program, and/or computer. It may be a (computer), but is not limited thereto. For example, both an application running on a computer and the computer may correspond to a part, module, device, or system in the present specification.

또한, 본 명세서에서 디바이스는 스마트폰, 태블릿 PC, 웨어러블 디바이스 및 HMD(Head Mounted Display)와 같이 모바일 디바이스뿐만 아니라, PC나 디스플레이 기능을 구비한 가전처럼 고정된 디바이스일 수 있다. 또한, 일 예로, 디바이스는 차량 내 클러스터 또는 IoT (Internet of Things) 디바이스일 수 있다. 즉, 본 명세서에서 디바이스는 어플리케이션 동작이 가능한 기기들을 지칭할 수 있으며, 특정 타입으로 한정되지 않는다. 하기에서는 설명의 편의를 위해 어플리케이션이 동작하는 기기를 디바이스로 지칭한다.Additionally, in this specification, the device may be a mobile device such as a smartphone, tablet PC, wearable device, and HMD (Head Mounted Display), as well as a fixed device such as a PC or a home appliance with a display function. Additionally, as an example, the device may be a cluster within a vehicle or an Internet of Things (IoT) device. That is, in this specification, a device may refer to devices capable of operating an application, and is not limited to a specific type. In the following, for convenience of explanation, the device on which the application runs is referred to as a device.

본 명세서에 있어서 네트워크의 통신 방식은 제한되지 않으며, 각 구성요소간 연결이 동일한 네트워크 방식으로 연결되지 않을 수도 있다. 네트워크는, 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망, 위성망 등)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크는, 객체와 객체가 네트워킹 할 수 있는 모든 통신 방법을 포함할 수 있으며, 유선 통신, 무선 통신, 3G, 4G, 5G, 혹은 그 이외의 방법으로 제한되지 않는다. 예를 들어, 유선 및/또는 네트워크는 LAN(Local Area Network), MAN(Metropolitan Area Network), GSM(Global System for Mobile Network), EDGE(Enhanced Data GSM Environment), HSDPA(High Speed Downlink Packet Access), W-CDMA(Wideband Code Division Multiple Access), CDMA(Code Division Multiple Access), TDMA(Time Division Multiple Access), 블루투스(Bluetooth), 지그비(Zigbee), 와이-파이(Wi-Fi), VoIP(Voice over Internet Protocol), LTE Advanced, IEEE802.16m, WirelessMAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX (IEEE 802.16e), UMB (formerly EV-DO Rev. C), Flash-OFDM, iBurst and MBWA (IEEE 802.20) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), Wi-MAX(World Interoperability for Microwave Access) 및 초음파 활용 통신으로 이루어진 군으로부터 선택되는 하나 이상의 통신 방법에 의한 통신 네트워크를 지칭할 수 있으나, 이에 한정되는 것은 아니다.In this specification, the network communication method is not limited, and connections between each component may not be connected through the same network method. The network may include not only a communication method utilizing a communication network (for example, a mobile communication network, wired Internet, wireless Internet, broadcasting network, satellite network, etc.), but also short-range wireless communication between devices. For example, a network can include objects and any communication method through which objects can be networked, and is not limited to wired communication, wireless communication, 3G, 4G, 5G, or other methods. For example, wired and/or networks include Local Area Network (LAN), Metropolitan Area Network (MAN), Global System for Mobile Network (GSM), Enhanced Data GSM Environment (EDGE), High Speed Downlink Packet Access (HSDPA), W-CDMA (Wideband Code Division Multiple Access), CDMA (Code Division Multiple Access), TDMA (Time Division Multiple Access), Bluetooth, Zigbee, Wi-Fi, VoIP (Voice over Internet Protocol), LTE Advanced, IEEE802.16m, WirelessMAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX (IEEE 802.16e), UMB (formerly EV-DO Rev. C), Flash-OFDM, iBurst and It may refer to a communication network using one or more communication methods selected from the group consisting of MBWA (IEEE 802.20) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), Wi-MAX (World Interoperability for Microwave Access), and ultrasonic communication. However, it is not limited to this.

다양한 실시예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 실시예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시예도 본 명세서의 실시예의 범위에 포함된다. 또한, 다양한 실시예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시예도 본 명세서의 실시예의 범위에 포함된다.Components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, embodiments consisting of a subset of the elements described in the embodiments are also included in the scope of the embodiments of the present specification. In addition, embodiments that include other components in addition to the components described in the various embodiments are also included in the scope of the embodiments of the present specification.

이하에서, 도면을 참조하여 본 명세서의 실시예들에 대하여 상세히 살펴본다.Hereinafter, embodiments of the present specification will be examined in detail with reference to the drawings.

도 1은 본 명세서의 일실시예에 따른 시스템의 동작 환경의 예를 도시한 도면이다. 도 1을 참조하면 사용자 디바이스(110), 하나 이상의 서버(120, 130, 140)가 네트워크(1)를 통해 연결되어 있다. 이러한 도 1은 발명의 설명을 위한 일례로 사용자 디바이스의 수나 서버의 수가 도 1과 같이 한정되는 것은 아니다.1 is a diagram illustrating an example of the operating environment of a system according to an embodiment of the present specification. Referring to FIG. 1, a user device 110 and one or more servers 120, 130, and 140 are connected through a network 1. Figure 1 is an example for explaining the invention, and the number of user devices or servers is not limited as in Figure 1.

사용자 디바이스(110)는 컴퓨터 시스템으로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 사용자 디바이스(110)는 예를 들면, 스마트폰(smart phone), 휴대폰, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC, 게임 콘솔(game console), 웨어러블 디바이스(wearable device), IoT(internet of things) 디바이스, VR(virtual reality) 디바이스, AR(augmented reality) 디바이스 등이 있다. 일례로 실시예들에서 사용자 디바이스(110)는 실질적으로 무선 또는 유선 통신 방식을 이용하여 네트워크(1)를 통해 다른 서버들(120 - 140)과 통신할 수 있는 다양한 물리적인 컴퓨터 시스템들 중 하나를 의미할 수 있다.The user device 110 may be a fixed terminal implemented with a computer system or a mobile terminal. The user device 110 includes, for example, a smart phone, a mobile phone, a navigation device, a computer, a laptop, a digital broadcasting terminal, a Personal Digital Assistant (PDA), a Portable Multimedia Player (PMP), a tablet PC, or a game console. consoles, wearable devices, IoT (internet of things) devices, VR (virtual reality) devices, AR (augmented reality) devices, etc. For example, in embodiments, user device 110 may be one of a variety of physical computer systems capable of communicating with other servers 120 - 140 over network 1 using substantially wireless or wired communication methods. It can mean.

각 서버는 사용자 디바이스(110)와 네트워크(1)를 통해 통신하여 명령, 코드, 파일, 콘텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 예를 들어, 서버는 네트워크(1)를 통해 접속한 사용자 디바이스(110)로 각각의 서비스를 제공하는 시스템일 수 있다. 보다 구체적인 예로, 서버는 사용자 디바이스(110)에 설치되어 구동되는 컴퓨터 프로그램으로서의 어플리케이션을 통해, 해당 어플리케이션이 목적하는 서비스(일례로, 정보 제공 등)를 사용자 디바이스(110)로 제공할 수 있다. 다른 예로, 서버는 상술한 어플리케이션의 설치 및 구동을 위한 파일을 사용자 디바이스(110)로 배포하고 사용자 입력 정보를 수신해 대응하는 서비스를 제공할 수 있다.Each server may be implemented as a computer device or a plurality of computer devices that communicate with the user device 110 and the network 1 to provide commands, codes, files, content, services, etc. For example, the server may be a system that provides each service to the user device 110 connected through the network 1. As a more specific example, the server may provide a service (for example, provision of information, etc.) targeted by the application to the user device 110 through an application as a computer program installed and running on the user device 110. As another example, the server may distribute files for installing and running the above-described application to the user device 110, receive user input information, and provide a corresponding service.

도 2는 본 명세서의 일실시예에 있어서 컴퓨팅 장치(200)의 내부 구성을 설명하기 위한 블록도이다. 이러한 컴퓨팅 장치(200)는 도1을 참조하여 상술한 사용자 디바이스(110) 또는 서버(120-140)에 적용될 수 있으며, 각 장치와 서버들은 일부 구성요소를 더 하거나 제외하여 구성됨으로써 동일하거나 유사한 내부 구성을 가질 수 있다. Figure 2 is a block diagram for explaining the internal configuration of the computing device 200 in one embodiment of the present specification. This computing device 200 can be applied to the user device 110 or the server 120-140 described above with reference to FIG. 1, and each device and server is configured by adding or excluding some components to have the same or similar internal structure. It can have a configuration.

도 2를 참조하면 컴퓨팅 장치(200)는 메모리(210), 프로세서(220), 통신 모듈(230) 그리고 송수신부(240)를 포함할 수 있다. 메모리(210)는 비-일시적인 컴퓨터 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory), 디스크 드라이브, SSD(solid state drive), 플래시 메모리(flash memory) 등과 같은 비소멸성 대용량 저장 장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM, SSD, 플래시 메모리, 디스크 드라이브 등과 같은 비소멸성 대용량 저장 장치는 메모리(210)와는 구분되는 별도의 영구 저장 장치로서 상술한 장치나 서버에 포함될 수도 있다. 또한, 메모리(210)에는 운영체제와 적어도 하나의 프로그램 코드(일례로 사용자 디바이스(110) 등에 설치되어 구동되는 브라우저나 특정 서비스의 제공을 위해 사용자 디바이스(110) 등에 설치된 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(210)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. Referring to FIG. 2 , the computing device 200 may include a memory 210, a processor 220, a communication module 230, and a transceiver 240. The memory 210 is a non-transitory computer-readable recording medium, and is a non-perishable large capacity device such as random access memory (RAM), read only memory (ROM), disk drive, solid state drive (SSD), flash memory, etc. It may include a permanent mass storage device. Here, non-perishable mass storage devices such as ROM, SSD, flash memory, disk drive, etc. may be included in the above-mentioned device or server as a separate persistent storage device that is distinct from the memory 210. In addition, the memory 210 stores an operating system and at least one program code (for example, code for a browser installed and running on the user device 110, etc., or an application installed on the user device 110 to provide a specific service, etc.). It can be. These software components may be loaded from a computer-readable recording medium separate from the memory 210. Such separate computer-readable recording media may include computer-readable recording media such as floppy drives, disks, tapes, DVD/CD-ROM drives, and memory cards.

다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(230)을 통해 메모리(210)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로, 상술한 서버)이 네트워크(1)를 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램(일례로 상술한 어플리케이션)에 기반하여 메모리(210)에 로딩될 수 있다.In another embodiment, software components may be loaded into the memory 210 through the communication module 230 rather than a computer-readable recording medium. For example, at least one program is a computer program (for example, installed by files provided through the network 1) by developers or a file distribution system (for example, the server described above) that distributes the installation file of the application. It may be loaded into the memory 210 based on the above-described application).

프로세서(220)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(210) 또는 통신 모듈(230)에 의해 프로세서(220)로 제공될 수 있다. 예를 들어 프로세서(220)는 메모리(210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The processor 220 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations. Commands may be provided to the processor 220 by the memory 210 or the communication module 230. For example, processor 220 may be configured to execute received instructions according to program code stored in a recording device such as memory 210.

통신 모듈(230)은 네트워크(1)를 통해 사용자 기기(110)와 서버(120 -140)가 서로 통신하기 위한 기능을 제공할 수 있으며, 장치(110) 및/또는 서버(120 - 140) 각각이 다른 전자 기기와 통신하기 위한 기능을 제공할 수 있다. The communication module 230 may provide a function for the user device 110 and the servers 120 - 140 to communicate with each other through the network 1, and the device 110 and/or the servers 120 - 140, respectively. This can provide functions for communicating with other electronic devices.

송수신부(240)는 외부 입력/출력장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 외부 입력장치는 키보드, 마우스, 마이크로폰, 카메라 등의 장치를, 그리고 외부 출력 장치는 디스플레이, 스피커, 햅틱 피드백 디바이스(haptic feedback device) 등과 같은 장치를 포함할 수 있다. The transceiver unit 240 may be a means for interfacing with an external input/output device (not shown). For example, external input devices may include devices such as a keyboard, mouse, microphone, and camera, and external output devices may include devices such as a display, speaker, and haptic feedback device.

다른 예로 송수신부(240)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. As another example, the transceiver 240 may be a means for interfacing with a device that integrates input and output functions, such as a touch screen.

또한, 다른 실시예들에서 컴퓨팅 장치(200)는 적용되는 장치의 성질에 따라서 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 예를 들어, 컴퓨팅 장치(200)가 사용자 디바이스(110)에 적용되는 경우 상술한 입출력 장치 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GNSS(Global Navigation Satellite System), 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 사용자 디바이스가 스마트폰인 경우, 일반적으로 스마트폰이 포함하고 있는 가속도 센서나 자이로 센서, 카메라 모듈, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 더 포함되도록 구현될 수 있다.Additionally, in other embodiments, computing device 200 may include more components than those of FIG. 2 depending on the nature of the device to which it is applied. For example, when the computing device 200 is applied to the user device 110, it is implemented to include at least some of the above-described input/output devices, or includes a transceiver, a GNSS (Global Navigation Satellite System), a camera, various sensors, It may further include other components such as a database, etc. As a more specific example, if the user device is a smartphone, the smartphone generally includes various devices such as acceleration sensors, gyro sensors, camera modules, various physical buttons, buttons using a touch panel, input/output ports, and vibrators for vibration. It can be implemented to include more components.

하기에서 도 1 및 도 2에 기초하여 동작하는 컴퓨팅 장치를 기준으로 서술한다. 일 예로, 하기에서 사용자는 컴퓨팅 장치(200)에 기초하여 로봇(300)과 통신을 수행할 수 있다. 또한, 하기에서 로봇(300)은 하나의 컴퓨팅 장치(200)와 연결되어 외부와 통신을 수행하는 장치일 수 있다. 구체적인 일 예로, 로봇(300)은 네트워크를 통해 다른 장치 또는 서버와 통신을 수행하고, 도 2의 컴퓨팅 장치(200)가 포함하는 구성들로 구성될 수 있다. 또한, 로봇(300)은 주변 이미지 또는 영상을 식별하기 위한 센서를 포함할 수 있으며, 이와 관련하여 후술한다.The following description will be made based on a computing device operating based on FIGS. 1 and 2. As an example, in the following, a user may communicate with the robot 300 based on the computing device 200. Additionally, as described below, the robot 300 may be a device that is connected to one computing device 200 and communicates with the outside. As a specific example, the robot 300 communicates with another device or server through a network and may be configured with components included in the computing device 200 of FIG. 2 . Additionally, the robot 300 may include a sensor for identifying surrounding images or images, which will be described later.

도 3은 본 발명의 실시 예에 따른 컴퓨팅 장치와 연결된 조사로봇의 하드웨어적 구성을 설명하기 위한 도면이다.Figure 3 is a diagram for explaining the hardware configuration of a survey robot connected to a computing device according to an embodiment of the present invention.

도 3을 참조하면, 로봇(300)은 적어도 하나 이상의 센서를 포함하는 다중 센서(320)가, 미세 조정 및 광원 형성이 가능한 헤더(330)에 의해 결합되며, 다중 센서(320)는 별도의 연결 수단에 의해 로봇 팔(310)에 연결되어, 실내 구조물 분석을 수행할 수 있다.Referring to FIG. 3, the robot 300 has multiple sensors 320 including at least one sensor combined by a header 330 capable of fine adjustment and light source formation, and the multiple sensors 320 are connected separately. By being connected to the robot arm 310, indoor structure analysis can be performed.

여기서, 로봇 팔(310)은 360도 회전 가능하게 설계되고 폴딩(Folding)과 펼침(Extending)이 가능한 형태로 구비될 수 있다.Here, the robot arm 310 is designed to be able to rotate 360 degrees and may be provided in a form capable of folding and extending.

또한, 로봇(300)의 하단에는 로봇의 하드웨어 및 전원과 통신을 제어하는 제어부(340)와, 이동에 따른 이동 수단을 제어하는 이동부(350)가 구비될 수 있어 재난 등 실내 환경에서의 구조물 손상 분석을 위한 이동을 가능하게 한다. 이동부(350)는, 일 예로, 이동부는 바퀴 또는 그 밖의 실내 공간을 이동하는 기능을 수행하는 구성일 수 있으며, 특정 형태로 한정되지 않는다.In addition, the bottom of the robot 300 may be provided with a control unit 340 that controls the hardware, power, and communication of the robot, and a moving unit 350 that controls the means of movement according to movement, so that it can be used as a structure in indoor environments such as disasters. Allows movement for damage analysis. As an example, the moving unit 350 may be a wheel or other component that performs the function of moving in an indoor space, and is not limited to a specific form.

이와 같이, 로봇(300)은 실내 공간에서 이동 가능하도록 구성되고, 다양한 정보를 취합하여 다른 장치 또는 서버로 전송하는 통신 기능을 구비할 수 있다. 또한, 로봇(300)은 다중 센서(320)와 결합하여 센싱 정보를 획득할 수 있다. 여기서, 다중 센서(320)는 라이더 센서, IMU(Inertial Measurement Unit) 센서, 비전 카메라, 깊이 카메라, 자이로 센서 및 그 밖의 주변 정보를 센싱하기 위한 다양한 센서를 포함할 수 있으며, 특정 센서로 한정되지 않는다.In this way, the robot 300 is configured to be able to move in an indoor space and may be equipped with a communication function to collect various information and transmit it to another device or server. Additionally, the robot 300 can acquire sensing information by combining with multiple sensors 320. Here, the multi-sensor 320 may include a lidar sensor, an IMU (Inertial Measurement Unit) sensor, a vision camera, a depth camera, a gyro sensor, and other various sensors for sensing surrounding information, and is not limited to a specific sensor. .

라이다(LIDAR/LiDAR) 센서는 레이저 펄스를 쏘고 반사되어 돌아오는 시간을 측정하여 반사체의 위치 좌표를 측정하는 센서일 수 있다. 또한, IMU 센서는 동작 센서로 속도계, 자이로스코프, 자력계를 통해 속도, 방향, 자성을 측정하여 장치의 방향, 가속도 및 위치를 측정하는 센서일 수 있다. 또한, 비전 카메라는 주변 이미지의 영상 정보를 센싱할 수 있으며, 깊이 카메라는 스테레오 방식 또는 ToF(time of flight) 방식에 기초하여 주변 사물에 대한 3D 이미지(즉, 깊이 이미지)를 측정 또는 센싱하는 센서일 수 있다. 그 밖의 센서는 온도나 기압 및 기타 주변 센싱을 위한 센서들을 포함할 수 있으며, 특정 실시예로 한정되지 않는다.A LIDAR/LiDAR sensor may be a sensor that measures the location coordinates of a reflector by shooting a laser pulse and measuring the time it takes for it to reflect and return. Additionally, the IMU sensor is a motion sensor and may be a sensor that measures the direction, acceleration, and position of the device by measuring speed, direction, and magnetism through a speedometer, gyroscope, and magnetometer. In addition, a vision camera can sense video information from surrounding images, and a depth camera is a sensor that measures or senses 3D images (i.e. depth images) of surrounding objects based on stereo or ToF (time of flight) methods. It can be. Other sensors may include sensors for temperature, pressure, and other ambient sensing, and are not limited to specific embodiments.

일 예로, 로봇(300)은 실내 측위 및 매핑용 라이다 센서(또는 모듈)을 포함할 수 있다. 여기서, 라이더 센서는 소형으로 제작되어 로봇(300)과 결합될 수 있다. 특히, 라이더 센서는 SLAM(Simultaneous Localization And Mapping) 기반으로 동작하여 실시간으로 실내 지도를 생성할 수 있으며, 이를 통해 실내 구조물을 인지할 수 있다.As an example, the robot 300 may include a LiDAR sensor (or module) for indoor positioning and mapping. Here, the lidar sensor can be manufactured in a small size and combined with the robot 300. In particular, the lidar sensor operates based on SLAM (Simultaneous Localization And Mapping) and can generate indoor maps in real time, through which indoor structures can be recognized.

또한, 일 예로, 재난 현장에서 실내외 측위를 위해 위성항법시스템(GNSS, Global Navigation Satellite System)이 활용될 수 있다. 다만, 재난 현장으로 실내에서 건물 차폐와 파손으로 외부로부터 통신 및 전파 연결이 원활하지 않은 경우에 실내 공간에서 스스로 위치를 인식하고 매핑을 수행할 필요성이 있으며, 이를 위해 로봇(300)은 다중 센서(320)로서 카메라 및 라이다를 포함할 수 있다. 이때, 일 예로, 라이다 센서는 ToF 방식에 기초하여 시간을 측정하기 때문에 외부 요인에 의한 진동에 민감할 수 있다. 상술한 점을 고려하여, 다중 센서(320)는 IMU 센서를 포함할 수 있으며, 이를 통해 로봇(300)의 이동 및 진동에 대한 값들을 센싱할 수 있고, 진동 및 분석 정확도 등을 고려한 위치 이동을 수행하여, 안정적인 크랙 검출과 손상 정보 분석을 수행할 수 있다.Additionally, as an example, a Global Navigation Satellite System (GNSS) can be used for indoor and outdoor positioning at a disaster site. However, in cases where communication and radio wave connections from the outside are not smooth due to building shielding and damage indoors at a disaster site, there is a need to recognize the location and perform mapping on its own in the indoor space. For this purpose, the robot 300 uses multiple sensors ( 320) and may include cameras and lidar. At this time, as an example, the LiDAR sensor may be sensitive to vibration caused by external factors because it measures time based on the ToF method. In consideration of the above, the multi-sensor 320 may include an IMU sensor, through which values for movement and vibration of the robot 300 can be sensed, and position movement considering vibration and analysis accuracy, etc. By performing this, stable crack detection and damage information analysis can be performed.

이와 같이, 다중 센서(320)는 로봇(300)이 지진에 의해 붕괴된 실내 구조물에서 센싱을 원활하게 수행하기 위한 센서들을 포함할 수 있으며, 센싱 정보는 특정 실시예로 한정되지 않는다. 하기에서는 설명의 편의를 위해 로봇(300)에 다중 센서(320)가 결합되어 있고, 로봇(300)이 실내 구조물을 분석하기 위해 다중 센서(320)를 통해 센싱을 수행하는 동작을 기준으로 서술한다. 즉, 하기에서 서술하는 로봇(300)은 다중 센서(320)를 구비한 로봇(300)일 수 있으며, 특정 실시예로 한정되지 않을 수 있다.As such, the multiple sensors 320 may include sensors for the robot 300 to smoothly perform sensing in an indoor structure collapsed by an earthquake, and the sensing information is not limited to a specific embodiment. In the following, for convenience of explanation, the robot 300 is coupled with multiple sensors 320, and the robot 300 performs sensing through the multiple sensors 320 to analyze the indoor structure. . That is, the robot 300 described below may be a robot 300 equipped with multiple sensors 320, and may not be limited to a specific embodiment.

도 4는 본 발명의 실시 예에 따라 로봇(300)에 탑재된 센서 모듈의 예시도로서, 다중 센서(320)를 하드웨어적으로 도시한 도면이다.Figure 4 is an exemplary diagram of a sensor module mounted on the robot 300 according to an embodiment of the present invention, and is a diagram showing the multiple sensors 320 in hardware.

도 4를 참조하면, 본 발명의 실시 예에 따른 다중 센서(320)는, 상단에 위치되는 카메라 센서(321), 그 하단에 축 결합되는 IMU 센서(322) 및 그 하단에 축 결합되는 라이다 센서(323)를 포함할 수 있다.Referring to FIG. 4, the multiple sensors 320 according to an embodiment of the present invention include a camera sensor 321 located at the top, an IMU sensor 322 axially coupled to the bottom, and a lidar axially coupled to the bottom. It may include a sensor 323.

여기서, 다중 센서(320)의 각 센서 모듈은 하드웨어적으로 결합 구성되되, 각 모듈을 수직으로 관통하는 하나의 메인 축(320a)을 중심으로 결합됨에 따라, 그 3차원 공간 센싱 좌표축이 동기화될 수 있다.Here, each sensor module of the multiple sensor 320 is combined in hardware, and is combined around one main axis 320a that passes vertically through each module, so that the three-dimensional space sensing coordinate axes can be synchronized. there is.

이러한 다중 센서(320)의 좌표축 동기화에 따라, 로봇(300)의 이동 및 경사구간 진입 등에 의한 측위 및 회전 정보가 실시간으로 처리되어 다중 센서(320)의 센싱 정보 획득시 반영될 수 있다. 예를 들어, 좌표축 동기화에 따라 획득되는 각 센서 모듈의 출력은 동기화된 메인 좌표축 정보를 중심으로 하는 위치 정보와 매핑될 수 있으며, 각 센서 모듈로부터 동기화되어 획득되는 영상 정보, 깊이 센싱 정보, 회전 정보, 각도 정보, 가속도 정보, 진동 정보가 상기 위치 정보와 매핑되어, 로봇(300)의 위치 추적 및 실내 공간 시설물의 손상 감지 처리에 이용될 수 있다.According to the synchronization of the coordinate axes of the multiple sensors 320, positioning and rotation information due to the movement of the robot 300 and entry into an inclined section, etc. can be processed in real time and reflected when acquiring sensing information of the multiple sensors 320. For example, the output of each sensor module acquired according to coordinate axis synchronization can be mapped with position information centered on the synchronized main coordinate axis information, and the image information, depth sensing information, and rotation information obtained by synchronization from each sensor module. , angle information, acceleration information, and vibration information are mapped with the location information and can be used to track the location of the robot 300 and detect damage to indoor space facilities.

또한, 이러한 다중 센서(320)의 센싱 정보 처리를 용이하게 하기 위해, 알려진 SLAM(Simultaneous Localization And Mapping) 기술 기반의 데이터 처리가 활용되는 것이 바람직하다. SLAM은, 알려지지 않은 환경에 대한 다양한 센서들을 이용하여 위치를 추정하고 환경에 대한 3차원 지도를 생성하는 기술로서, 컴퓨터 처리 속도가 개선되고 카메라와 라이다 등의 센서 기술이 발전함에 따라 다양한 분야에서 응용되고 있는 기술이며, 특히 재난 현장과 같이 기존 맵(map)이 없는 경우의 실내 측위 및 매핑에 이용되는 기술로, 라이더 및 카메라 기반 스캐닝, 데이터 구조화 및 3차원 실내 지도 가시화를 통해 공간 정보를 구축하게 한다.Additionally, in order to facilitate processing of sensing information from these multiple sensors 320, it is desirable to utilize data processing based on the known SLAM (Simultaneous Localization And Mapping) technology. SLAM is a technology that uses various sensors for an unknown environment to estimate location and create a 3D map of the environment. As computer processing speeds improve and sensor technologies such as cameras and lidar develop, it is being used in various fields. This is a technology that is being applied, especially for indoor positioning and mapping in cases where there is no existing map, such as at a disaster site. It builds spatial information through lidar and camera-based scanning, data structuring, and 3D indoor map visualization. Let's do it.

이에 따라, 로봇(300)은 다중 센서(320)로부터 센싱된 정보를 데이터화하여 3차원 실내 지도를 구축할 수 있으며, 구축된 실내 지도 내부에서 추정되는 시설물과, 그 시설물 별 손상 정도를 크랙 분석을 기반으로 검출하여, 이를 공유하도록 할수 있게 된다. 예를 들어, 로봇(300)은 지진에 의해 붕괴된 실내 구조물에 투입되어 실내의 로봇 위치에 기초하여 공간 정보를 구축하고, 그 시설물별 손상 정도를 분석하여 출력할 수 있는 것이다.Accordingly, the robot 300 can construct a 3D indoor map by converting information sensed from the multiple sensors 320 into data, and perform crack analysis on the estimated facilities inside the constructed indoor map and the degree of damage to each facility. Based on this, it can be detected and shared. For example, the robot 300 can be inserted into an indoor structure that collapsed due to an earthquake, build spatial information based on the robot's position indoors, analyze the degree of damage to each facility, and output it.

이 때, 일 예로, 지진에 의해 붕괴된 실내 구조물은 험지 환경일 수 있으며, 하기 사전 설정된 험지 조건에서의 데이터를 활용하여 센싱에 대한 정확도를 높일 수 있다. 즉, 로봇(300)은 지진에 의해 붕괴된 실내 구조물의 환경을 고려하여 실내에 투입되어 센서를 통해 센싱을 수행할 수 있다. 여기서, 험지 조건은 예를 들어, 평균가속도와 최대가속도 센싱에 따라 검출되는 평지, 방지턱, 자갈 등의 분류 조건이 예시될 수 있다.At this time, as an example, an indoor structure that collapsed due to an earthquake may be in a rough terrain environment, and the accuracy of sensing can be increased by using data from the rough terrain conditions preset below. That is, the robot 300 can be introduced indoors and perform sensing through a sensor, taking into account the environment of indoor structures collapsed by an earthquake. Here, the rough terrain conditions may be, for example, classification conditions such as flat land, bumps, gravel, etc. detected according to average acceleration and maximum acceleration sensing.

이와 같이 구성된 로봇(300) 및 다중 센서(320)는, 본 발명의 실시 예에 따른 컴퓨팅 장치(200)에 의해 제어될 수 있다. 일 예로, 로봇(300)은 상술한 다중 센서(320)에 기초하여 SLAM을 활용하여 실내 측위 및 매핑과 손상 분석을 수행할 수 있으며, 로봇(300)에 대한 제어는 연결된 컴퓨팅 장치(200)에 의해 수행될 수 있다. 일 예로, 로봇(300)과 컴퓨팅 장치(200)는, 상호 간의 통신 연결을 통해 정보를 교환할 수 있다. 이때, 로봇(300)은, 컴퓨팅 장치(200)의 제어 동작에 기초하여 실내 공간에서 센싱을 수행할 수 있으며, 컴퓨팅 장치(200)는 크랙 검출의 정확도를 높일 수 있도록 다중 센서(320)의 위치나 이동부(350)의 이동을 실시간으로 제어할 수 있다.The robot 300 and the multiple sensors 320 configured in this way can be controlled by the computing device 200 according to an embodiment of the present invention. As an example, the robot 300 can perform indoor positioning, mapping, and damage analysis using SLAM based on the above-described multiple sensors 320, and control of the robot 300 is performed by the connected computing device 200. It can be performed by As an example, the robot 300 and the computing device 200 may exchange information through a mutual communication connection. At this time, the robot 300 can perform sensing in an indoor space based on the control operation of the computing device 200, and the computing device 200 determines the positions of the multiple sensors 320 to increase the accuracy of crack detection. The movement of the moving unit 350 can be controlled in real time.

예를 들어, 라이다 센서의 감도를 위한 진동이나, 카메라 촬영을 위한 광원 환경 등은 재난 현장의 상황에 따라 상이할 수 있다. 따라서, 센싱 정보에는 왜곡이 발생할 수 있으며, 이를 최소화하기 위한 다양한 컴퓨팅 프로세스를 컴퓨팅 장치(200)에서 처리하여 로봇(300)을 위한 제어 신호로서 구성할 수 있다.For example, vibration for the sensitivity of the LiDAR sensor or light source environment for camera shooting may vary depending on the situation at the disaster site. Therefore, distortion may occur in the sensing information, and various computing processes to minimize this can be processed in the computing device 200 and configured as a control signal for the robot 300.

일 예로, 로봇(300)에 구비된 다중 센서(320)의 내부 위치 및 회전이 제어될 수 있는 바, 이는 컴퓨팅 장치(200)에 의한 로봇 팔(310)의 구동 제어에 의해 이루어질 수 있다.As an example, the internal position and rotation of the multiple sensors 320 provided in the robot 300 can be controlled, and this can be achieved by controlling the operation of the robot arm 310 by the computing device 200.

또한, 일 예로, 컴퓨팅 장치(200)는, 다중 센서(320)와 결합된 헤더(330)의 구동 제어를 수행할 수 있으며, 이는 다중 센서(320)에 구비된 센서 모듈들의 위치 미세조정과, 헤더(330)에 부착된 LED 조명의 광원 제어 등을 수행하여 보다 정확한 센싱 동작을 가능하게 하는 역할을 수행한다.Additionally, as an example, the computing device 200 may control the operation of the header 330 combined with the multiple sensors 320, which includes fine-tuning the positions of sensor modules provided in the multiple sensors 320, It performs a role of enabling more accurate sensing operations by controlling the light source of the LED lighting attached to the header 330.

나아가, 컴퓨팅 장치(200)는, 로봇(300)의 이동 위치 및 이동 속도를 제어할 수 있는 바, 이동 위치 및 이동 속도는 실내 환경 변화에 따른 진동 센싱과 비전센서의 인식률 등을 고려하여 왜곡이나 오차를 방지하는 방향으로 최적화될 수 있다.Furthermore, the computing device 200 can control the moving position and moving speed of the robot 300, and the moving position and moving speed are adjusted to prevent distortion or movement by taking into account vibration sensing due to changes in the indoor environment and the recognition rate of the vision sensor. It can be optimized to prevent errors.

도 5는 본 발명의 실시 예에 따른 로봇(300)을 구동시켜 실내 공간 3차원 분석에 대응하는 시설물 분석 정보를 출력하하기 위한 컴퓨팅 장치(200)의 서비스 처리부(250)를 보다 구체적으로 도시한 블록도이며, 도 6은 이 중 크랙 분석부를 보다 구체적으로 도시한 블록도이고, 도 7은 이 중 분석 정보 출력부를 보다 구체적으로 도시한 블록도이다.Figure 5 shows in more detail the service processing unit 250 of the computing device 200 for driving the robot 300 according to an embodiment of the present invention to output facility analysis information corresponding to 3D analysis of indoor space. It is a block diagram, and FIG. 6 is a block diagram showing the crack analysis unit in more detail, and FIG. 7 is a block diagram showing the analysis information output unit in more detail.

도 5를 참조하면, 본 발명의 실시 예에 따른 컴퓨팅 장치(200)는, 서비스 처리부(250)를 더 포함할 수 있다. 서비스 처리부(250)는, 프로세서(220)에서 처리되는 로직 및 입출력 연산 중 본 발명의 실시 예에 따른 크랙 분석, 손상 검출 및 로봇(300) 제어 데이터 처리를 위한 다양한 서비스 프로세스를 수행하는 프로세서 모듈들로 구성될 수 있다. 컴퓨팅 장치(200)는, 프로세서(220) 내부에 서비스 처리부(250)를 구성하거나, 서비스 처리부(250)가 외부 프로세서로 구비된 장치로부터 처리된 데이터를 이용하여 서비스 처리를 수행함으로써, 생성된 서비스 처리 결과를 사용자 디바이스(110) 또는 하나 이상의 서버(120, 130, 140)로 제공할 수 있다.Referring to FIG. 5, the computing device 200 according to an embodiment of the present invention may further include a service processing unit 250. The service processing unit 250 is a processor module that performs various service processes for crack analysis, damage detection, and robot 300 control data processing according to an embodiment of the present invention among the logic and input/output operations processed by the processor 220. It can be composed of: The computing device 200 configures the service processing unit 250 inside the processor 220, or the service processing unit 250 performs service processing using data processed from a device equipped with an external processor, thereby creating a service. Processing results may be provided to the user device 110 or one or more servers 120, 130, and 140.

이러한 처리에 따라, 사용자 디바이스(110) 또는 하나 이상의 서버(120, 130, 140)는 본 발명의 실시 예에 따른 서비스 처리부(250) 동작에 의해 구성된 분석 정보를 제공받아 디스플레이 장치를 통해 표시 출력하거나, 외부 네트워크를 통해 데이터를 송수신하는 데 이용할 수 있다.According to this processing, the user device 110 or one or more servers 120, 130, and 140 receive the analysis information formed by the operation of the service processing unit 250 according to an embodiment of the present invention and display or output it through a display device. , can be used to send and receive data through an external network.

보다 구체적으로, 먼저 도 5를 참조하면, 서비스 처리부(250)는 로봇 구동부(251), 센서 모듈 구동부(253), 크랙 분석부(255), 분석 정보 출력부(257)를 포함한다.More specifically, referring to FIG. 5 , the service processing unit 250 includes a robot driving unit 251, a sensor module driving unit 253, a crack analysis unit 255, and an analysis information output unit 257.

로봇 구동부(251)는, 전술한 도 3 및 도 4에 도시된 로봇(300)의 위치 이동 및 센싱 동작 제어를 위해, 하드웨어적 구동 제어를 수행하기 위한 제어 신호를 생성하여 로봇(300)으로 전달하며, 그 응답을 수신하여 구동 제어를 수행한다.The robot driver 251 generates a control signal to perform hardware drive control and transmits it to the robot 300 in order to control the position movement and sensing operation of the robot 300 shown in FIGS. 3 and 4 described above. Then, the response is received and drive control is performed.

여기서, 로봇 구동부(251)는, 전술한 로봇(300)의 다중 센서(320), 헤더(330), 로봇 팔(310), 제어부(340) 및 이동부(350) 각각의 구동 제어를 수행할 수 있으며, 이에 따라, 로봇(300)의 이동, 다중 센서(320)의 내부 위치 및 센싱 제어가 이루어질 수 있다.Here, the robot driving unit 251 performs driving control of each of the multiple sensors 320, header 330, robot arm 310, control unit 340, and moving unit 350 of the robot 300 described above. Accordingly, the movement of the robot 300 and the internal position and sensing control of the multiple sensors 320 can be performed.

그리고, 센서 모듈 구동부(253)는, 다중 센서(320)에 구비된 각 센서의 센서 신호를 획득하고, SLAM(Simultaneous Localization And Mapping) 기반으로 각 위치별로 동기화된 센싱 정보로 구성하여, 크랙 분석부(255)로 전달하는 데이터 처리를 수행한다.In addition, the sensor module driver 253 acquires the sensor signal of each sensor provided in the multiple sensor 320, configures it with sensing information synchronized for each location based on SLAM (Simultaneous Localization And Mapping), and crack analysis unit. Perform data processing transmitted to (255).

여기서, 상기 센서 신호는, 라이다 센서(323)의 센서 신호와, IMU 센서(322)의 센서 신호와, 카메라 센서(321)의 비전센싱 신호를 포함할 수 있다. 그리고, 센서 모듈 구동부(253)는, 다중 센서(320)의 각 센서 모듈로부터 획득된 신호를 상호 매핑 및 변환 처리하여 SLAM 데이터로 구성하며, 구성된 SLAM 데이터는 크랙 분석부(255)로 전달될 수 있다.Here, the sensor signal may include a sensor signal from the lidar sensor 323, a sensor signal from the IMU sensor 322, and a vision sensing signal from the camera sensor 321. In addition, the sensor module driver 253 mutually maps and converts the signals obtained from each sensor module of the multiple sensor 320 to configure SLAM data, and the composed SLAM data can be transmitted to the crack analysis unit 255. there is.

여기서, 상기 SLAM 데이터는 기본적인 라이다 센서(323), IMU 센서(322), 카메라 센서(321)의 센서 신호뿐만 아니라, 3차원 공간 데이터로 구성하기 위하여 변환 처리된 정보를 더 포함할 수 있다.Here, the SLAM data may include not only sensor signals from the basic LiDAR sensor 323, IMU sensor 322, and camera sensor 321, but also information converted to be converted into three-dimensional spatial data.

예를 들어, SLAM 데이터는, IMU 센서(322)로부터 연산되는 실내 위치 좌표 정보와, 카메라 센서(321)로부터 획득되는 원(RAW) 영상 매핑 이미지와, IMU 센서(322)에서 연산되는 카메라 및 라이다의 포즈(POSE) 정보와, 원 영상 이미지로부터 획득되는 특징점 클라우드(Point Cloud) 정보를 더 포함할 수 있다.For example, SLAM data includes indoor location coordinate information calculated from the IMU sensor 322, RAW image mapping image obtained from the camera sensor 321, and camera and camera data calculated from the IMU sensor 322. It may further include Ida's pose information and point cloud information obtained from the original video image.

그리고, 센서 모듈 구동부(253)는, 이러한 각 센서 정보의 센싱 정확도가 임계치 이하인 경우, 그 향상을 위해, 로봇(300)의 위치 이동이나, 다중 센서(320)의 정밀 위치 제어를 로봇 구동부(251)로 요청할 수도 있다.In order to improve the sensing accuracy of each sensor information, the sensor module driver 253 moves the position of the robot 300 or precisely controls the position of the multiple sensors 320 to the robot driver 251. ) can also be requested.

그리고, 크랙 분석부(255)는, 전술한 센서 모듈 구동부(253)에 의해 변환 처리된 정보를 획득하고, 획득된 센싱 정보를 이용한 3차원 실내 지도 구축 및 시설물 손상 검출을 처리한다. 여기서, 크랙 분석부(255)는, 손상 검출 처리를 위해, 상기 센싱 정보에 기초하여 실내 공간의 시설물 세그먼트를 식별할 수 있으며, 상기 시설물 세그먼트에 대응하여, 상기 센싱 정보의 비전 영상 정보로부터 분석되는 시각적 크랙 식별 정보와, 상기 시각적 크랙 식별 정보에 대응하는 깊이 센싱 정보에 의해 판별되는 크랙 깊이 변화 정보를 획득할 수 있고, 상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보에 기초하여 획득되는 크랙의 유무 및 크랙의 규모에 따라, 상기 시설물 세그먼트의 손상 정도를 추정 연산할 수 있다.In addition, the crack analysis unit 255 acquires the information converted and processed by the above-described sensor module driving unit 253, and processes the construction of a 3D indoor map and detection of facility damage using the obtained sensing information. Here, the crack analysis unit 255 may identify a facility segment in the indoor space based on the sensing information for damage detection processing, and, in response to the facility segment, analyze the vision image information of the sensing information. It is possible to obtain visual crack identification information and crack depth change information determined by depth sensing information corresponding to the visual crack identification information, and the presence or absence of cracks obtained based on the visual crack identification information and the crack depth change information. And depending on the size of the crack, the degree of damage to the facility segment can be estimated.

이에 따라, 분석 정보 출력부(257)는, 상기 손상 정도에 기초한 상기 시설물 세그먼트의 시설물 정보 분석 결과 데이터를 구성하고, 구축된 3차원 실내 지도 정보와 결합하여, 하나 이상의 디바이스로 출력할 수 있다. 이러한 하나 이상의 디바이스는 예를 들어, 사용자 디바이스(110)이거나, 하나 이상의 서버(120, 130, 140)를 포함할 수 있다.Accordingly, the analysis information output unit 257 may configure facility information analysis result data of the facility segment based on the degree of damage, combine it with the constructed 3D indoor map information, and output it to one or more devices. Such one or more devices may be, for example, a user device 110, or may include one or more servers 120, 130, 140.

보다 구체적으로, 도 6을 참조하면, 크랙 분석부(255)는 시설물 세그먼트 식별부(2551), 시각적 크랙 세그먼트 분석부(2533), 깊이 변화 정보 매핑부(2535) 및 손상 정보 검출부(2537)를 포함한다.More specifically, referring to FIG. 6, the crack analysis unit 255 includes a facility segment identification unit 2551, a visual crack segment analysis unit 2533, a depth change information mapping unit 2535, and a damage information detection unit 2537. Includes.

시설물 세그먼트 식별부(2551)는, 센싱 정보로부터 획득되는 비전 영상 정보로부터, 시설물 세그먼트를 분할하여, 식별 및 분류 처리를 수행한다.The facility segment identification unit 2551 divides facility segments from vision image information obtained from sensing information and performs identification and classification processing.

여기서, 시설물 세그먼트 식별부(2551)는, 사전 구축된 인공신경망 딥러닝 기반의 이미지 분류 모델을 이용하여, 로봇(300)에서 촬영된 비전 영상 정보에 포함된 각 시설물들을 이미지 분류 처리하고, 분류된 시설물 이미지를 분리하여 개별 시설물 세그먼트로 구성할 수 있다.Here, the facility segment identification unit 2551 uses a pre-built artificial neural network deep learning-based image classification model to classify and process the images of each facility included in the vision image information captured by the robot 300, and the classified Facility images can be separated into individual facility segments.

예를 들어, 비전 영상 이미지는 각 시설물에 따라, 대분류, 중분류, 소분류 및 세부항목으로 구분될 수 있다. 예를 들어 이미지 내 특정 시설물은, 건축(대분류), 구조물(중분류), 문(소분류), 창문(세부항목) 등의 세부 분류 처리될 수 있으며, 각 항목으로 분류된 시설물 이미지 부분은 원 영상으로부터 분리되어 개별 시설물 세그먼트로 구성될 수 있고, 분류 정보가 라벨링될 수 있다.For example, vision video images can be divided into major categories, medium categories, minor categories, and detailed categories depending on each facility. For example, specific facilities in an image can be classified into detailed categories such as architecture (major category), structure (middle category), door (small category), and window (detailed category), and the portion of the facility image classified into each category is extracted from the original image. They can be separated into individual facility segments and labeled with classification information.

그리고, 시각적 크랙 세그먼트 분석부(2533)는, 센싱 정보로부터 획득되는 비전 영상 정보로부터, 시각적 크랙 식별 정보를 획득하며, 획득된 시각적 크랙 식별 정보와 시설물 세그먼트 식별부(2551)에서 식별된 시설물 세그먼트를 매핑함에 따라, 각 시설물 세그먼트별 시각적 크랙 식별 정보를 구성할 수 있다.In addition, the visual crack segment analysis unit 2533 acquires visual crack identification information from the vision image information obtained from the sensing information, and uses the obtained visual crack identification information and the facility segment identified in the facility segment identification unit 2551 to By mapping, visual crack identification information can be constructed for each facility segment.

여기서, 시각적 크랙 식별 정보는, 시설물 이미지와 크랙 검출 결과가 사전 학습된 인공신경망 기반의 학습 모델에 대해, 센서 모듈 구동부(253)로부터 인가된 원 영상을 입력함으로서 검출될 수 있다. 여기서, 학습 모델은 시설물의 손상 중 특히 균열에 의해 발생된 크랙 세그먼트를 우선적으로 분리 구성하는 모델로서, 이러한 학습에는 DCNN 등의 인공신경망 학습 모델이 이용될 수 있다.Here, visual crack identification information can be detected by inputting the raw image applied from the sensor module driver 253 to an artificial neural network-based learning model in which facility images and crack detection results are pre-trained. Here, the learning model is a model that preferentially separates and configures crack segments, especially those caused by cracks, among damage to the facility. An artificial neural network learning model such as DCNN may be used for such learning.

그리고, 시각적 크랙 세그먼트 분석부(2533)는, 이러한 방식으로 원 영상에서 추출된 크랙 세그먼트와 시설물 세그먼트를 매핑할 수 있으며, 크랙 세그먼트는 각 시설물 별 크랙 세그먼트로 구성되어 시설물의 크랙을 나타내는데 이용될 수 있다.In addition, the visual crack segment analysis unit 2533 can map the crack segment and facility segment extracted from the original image in this way, and the crack segment is composed of crack segments for each facility and can be used to represent the crack of the facility. there is.

여기서, 본 발명의 실시 예에 따른 시각적 크랙 세그먼트 분석부(2533)는, 기존의 이미지 특징점 군에 대한 분석을 수행함에 있어서, 고해상도로 촬영된 원 영상에 대응하는 픽셀 정보 분석을 수행하고, 픽셀들을 연결하는 크랙의 벡터 이미지 정보를 구성함으로써, 기존의 점 군에 대한 모양 데이터보다 정확한 크랙의 시작점과 끝점 정의를 가능하게 한다.Here, when performing analysis on a group of existing image feature points, the visual crack segment analysis unit 2533 according to an embodiment of the present invention performs analysis of pixel information corresponding to the original image captured at high resolution and selects pixels. By constructing vector image information of connecting cracks, it is possible to define the start and end points of cracks more accurately than the shape data for existing point groups.

이에 따라, 시각적 크랙 세그먼트 분석부(2533)는, 시각적 크랙 식별 정보로서의 크랙 세그먼트를 검출함에 있어서, 비전영상 이미지로부터 크랙으로 추정된 시각적 크랙 객체 영역을 검출하되, 해당 객체 영역을 시작점 및 끝점 정보를 포함하는 객체 정보로서 구성할 수 있다. 이러한 객체 정보는 다중 센서(320)로부터 센싱된 3차원 공간 좌표 정보를 이용하여, 3차원 객체 정보로서 구성될 수 있는 바, 크랙 세그먼트를 나타내는 3차원 모델 데이터가 구성되는데 이용될 수 있다.Accordingly, when detecting a crack segment as visual crack identification information, the visual crack segment analysis unit 2533 detects a visual crack object area estimated to be a crack from a vision image, and provides start and end point information for the corresponding object area. It can be configured as included object information. This object information can be configured as 3D object information using 3D spatial coordinate information sensed from the multiple sensors 320, and can be used to construct 3D model data representing the crack segment.

또한, 크랙 세그먼트는 각 픽셀에 컬러 정보가 매핑되어 시각화된 컬러 이미지로 구성될 수 있는 바, 시각적 크랙 세그먼트 분석부(2533)는, 상기 시각적 크랙 객체에 대응하는 기하학적 변환 정보를 이용하여 픽셀 위치별 색상 변환이 처리된 컬러 이미지를 상기 크랙 세그먼트에 매핑할 수 있다.In addition, the crack segment may be composed of a color image visualized by mapping color information to each pixel, and the visual crack segment analysis unit 2533 uses geometric transformation information corresponding to the visual crack object to determine each pixel location. A color image that has undergone color conversion can be mapped to the crack segment.

여기서, 상기 기하학적 변환 정보는, 상기 시각적 크랙 객체에 대응하는 IMU 센서(322)의 회전 정보와, 로봇(300)의 거리 이동 정보에 따라 획득될 수 있다. 예를 들어, 카메라의 2차원 RGB 정보는, 3차원 회전 정보와 거리 이동 정보 등에 따라 보정될 수 있으며, 이는 광원 위치 등을 고려하여 보다 현실과 유사한 컬러 정보를 갖게 함으로써, 직관적인 가시화가 가능하게 된다.Here, the geometric transformation information may be obtained according to rotation information of the IMU sensor 322 corresponding to the visual crack object and distance movement information of the robot 300. For example, the camera's 2D RGB information can be corrected according to 3D rotation information and distance movement information, which allows for intuitive visualization by having color information more similar to reality by considering the light source location, etc. do.

또한, 시각적 크랙 세그먼트 분석부(2533)는, 크랙 세그먼트 검출의 정확도를 높이기 위한 센서 모듈 구동부(253)의 다양한 구동을 요청할 수 있다.Additionally, the visual crack segment analysis unit 2533 may request various drives of the sensor module driver 253 to increase the accuracy of crack segment detection.

일 예로, 시각적 크랙 세그먼트 분석부(2533)는, 검출된 크랙 세그먼트의 예측 정확도가 제1 임계치 이하이면서 제2 임계치 이상인 경우, 다중 센서(320)의 카메라 줌인 또는 줌아웃 제어를 센서 모듈 구동부(253)로 요청할 수 있다. 이에 따라 크랙이 있는 것으로 추정되는 영역에 대한 크랙 유무 및 규모가 보다 정확하게 판별될 수 있다.For example, when the prediction accuracy of the detected crack segment is less than the first threshold and more than the second threshold, the visual crack segment analysis unit 2533 controls the camera zoom-in or zoom-out of the multiple sensors 320 by the sensor module driver 253. You can request it with . Accordingly, the presence and size of cracks in the area estimated to have cracks can be more accurately determined.

또한, 시각적 크랙 세그먼트 분석부(2533)는, 검출된 크랙 세그먼트의 예측 정확도가 제1 임계치 이하이면서 제2 임계치 이상인 경우, 로봇(300)의 이동부(350) 제어에 따른 제1 위치로의 이동을 로봇 구동부(251)로 요청할 수도 있다. 이는 크랙의 유무 및 규모를 정확히 판별하기 위한 것으로, 크랙으로 추정되는 객체가 멀리서 보여서 정확하지 않거나, 진동 센싱으로 인한 깊이 오차 예상치가 높은 경우에, 이를 고려한 안정적이면서 고화질 이미지를 획득할 수 있는 상기 제1 위치로 이동시킬 수 있다. 이에 따라, 크랙이 있는 것으로 추정되는 영역에 대한 위치 이동을 통해, 크랙 유무 및 규모가 보다 정확하게 판별될 수 있다.In addition, the visual crack segment analysis unit 2533 moves to the first position according to the control of the moving unit 350 of the robot 300 when the prediction accuracy of the detected crack segment is less than the first threshold and more than the second threshold. may be requested from the robot driving unit 251. This is to accurately determine the presence and size of a crack. In cases where the object presumed to be a crack is not accurate because it is visible from a distance, or when the depth error estimate due to vibration sensing is high, the above product can acquire stable and high-quality images taking this into account. It can be moved to position 1. Accordingly, the presence and size of a crack can be more accurately determined by moving the position of the area where the crack is estimated to exist.

그리고, 크랙의 유무 및 규모에 대응하는 3차원 분석을 위하여, 깊이 변화 정보 매핑부(2535)는, 크랙 객체에 대응하는 크랙 세그먼트의 시각화와 깊이 변화 정보 매핑을 수행할 수 있다.Additionally, for three-dimensional analysis corresponding to the presence or absence and size of a crack, the depth change information mapping unit 2535 may perform visualization of the crack segment corresponding to the crack object and mapping of the depth change information.

여기서, 깊이 변화 정보 매핑부(2535)는, 상기 시각적 크랙 객체에 대응하는 크랙영역 이미지를 획득할 수 있으며, 상기 크랙영역 이미지에 대응하여 다중 센서(320)로부터 획득되는 각 픽셀 별 깊이 변화 정보를 획득하여 매핑 처리할 수 있다.Here, the depth change information mapping unit 2535 can acquire a crack area image corresponding to the visual crack object, and depth change information for each pixel obtained from the multiple sensor 320 in response to the crack area image. It can be acquired and mapped.

여기서, 상기 깊이 변화 정보는 라이다 센서(323)의 거리 정보 또는 깊이 카메라를 이용한 거리 정보로부터 판별될 수 있다.Here, the depth change information may be determined from distance information of the LiDAR sensor 323 or distance information using a depth camera.

여기서, 깊이 카메라의 경우, 동일 대상을 2 이상의 위치에서 동시 촬영하는 2 이상의 카메라일 수 있다. 이 경우 제1 카메라는 로봇(300)의 이동을 위해 구비된 전면 카메라일 수 있으며, 제2 카메라는 다중 센서(320)에 구비된 카메라 센서로 구성되는 것이 바람직할 수 있다.Here, in the case of a depth camera, it may be two or more cameras that simultaneously photograph the same object from two or more locations. In this case, the first camera may be a front camera provided for movement of the robot 300, and the second camera may preferably be comprised of a camera sensor provided in the multi-sensor 320.

또한, 깊이 카메라의 경우 2 이상의 서로 다른 위치를 이동하여 순차적으로 촬영하고 그 차이를 이용하여 깊이를 검출하기 위한 통상의 카메라로 구성될 수도 있다. 이 경우 다중 센서(320)의 내부 위치 또는 로봇(300)의 위치 이동이 제어되어, 2 이상의 서로 다른 위치로부터 크랙영역 이미지에 대응하는 깊이 이미지가 순차적으로 촬영되고, 깊이 이미지로부터 깊이 정보가 연산되도록 처리할 수 있다.Additionally, in the case of a depth camera, it may be configured as a regular camera that moves to two or more different locations, sequentially photographs them, and uses the difference to detect depth. In this case, the internal position of the multiple sensors 320 or the positional movement of the robot 300 are controlled so that depth images corresponding to the crack area images are sequentially photographed from two or more different positions, and depth information is calculated from the depth images. It can be handled.

한편, 크랙 분석부(255)는, 다중 센서(320)의 비전 센서로부터 상기 크랙으로 추정되는 객체가 식별되는 경우, 상기 크랙에 대응하는 상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보를 획득하기 위한 최적 위치를 탐색하게 할 수 있다. 즉, 크랙 분석부(255)는, 로봇(300)이 크랙 유무와 크기를 판별하기 적합한 위치를 원거리에서 미리 확인할 수 있으며, 이를 판별할 수 있는 최적 위치(예를 들어, 가장 가까우면서도 진동이 적게 예상되는 위치)를 결정할 수 있고, 해당 위치로 이동하여 센싱을 수행하기 위한 이동 제어 요청을 로봇 구동부(251)로 전달할 수 있다.Meanwhile, the crack analysis unit 255 is configured to obtain the visual crack identification information and the crack depth change information corresponding to the crack when an object presumed to be the crack is identified from the vision sensor of the multi-sensor 320. You can search for the optimal location. In other words, the crack analysis unit 255 can check in advance from a distance a suitable location for the robot 300 to determine the presence and size of a crack, and the optimal location for determining this (for example, the closest location with less vibration) expected location) can be determined, and a movement control request to move to the corresponding location and perform sensing can be transmitted to the robot driver 251.

예를 들어, 크랙 분석부(255)는, 다중 센서(320)의 센서 모듈의 센싱 안정성 예측에 따라 산출된 상기 조사로봇의 이동 가능한 위치들 중, 상기 크랙으로 추적되는 객체의 상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보를 임계치 이상 식별할 수 있는 것으로 예측되는 하나 이상의 위치를 이동 후보 위치로 탐색할 수 있다. 그리고, 로봇 구동부(251)는, 상기 탐색된 위치 중에서 결정된 상기 제1 위치로 상기 조사로봇을 이동시킬 수 있는 것이다.For example, the crack analysis unit 255 may determine the visual crack identification information of the object tracked by the crack among the movable positions of the investigation robot calculated according to the sensing stability prediction of the sensor module of the multiple sensor 320. And one or more locations predicted to be able to identify the crack depth change information above a threshold may be searched as movement candidate locations. And, the robot driving unit 251 can move the investigation robot to the first location determined from among the searched locations.

한편, 손상 정보 검출부(2537)는, 상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보에 기초하여 획득되는 크랙의 유무 및 크랙의 규모에 따라, 상기 시설물 세그먼트의 손상 정도를 추정 연산한다. 이에 따라, 크랙 분석부(255)는 연산된 손상 정도를 포함하는 크랙 분석 정보를 구성하여 분석 정보 출력부(257)로 전달할 수 있다. 이에 따라, 분석 정보 출력부(257)는, 상기 손상 정도에 기초한 상기 시설물 세그먼트의 시설물 정보 분석 결과 데이터를 구성하여, 하나 이상의 디바이스로 출력할 수 있다.Meanwhile, the damage information detection unit 2537 estimates and calculates the degree of damage to the facility segment according to the presence or absence of a crack and the size of the crack obtained based on the visual crack identification information and the crack depth change information. Accordingly, the crack analysis unit 255 may construct crack analysis information including the calculated degree of damage and transmit it to the analysis information output unit 257. Accordingly, the analysis information output unit 257 may configure facility information analysis result data of the facility segment based on the degree of damage and output it to one or more devices.

보다 구체적으로, 도 7을 참조하면, 손상 정보 검출부(2537)는, 3차원 측위 모델 구성부(2537a)와, 손상 분석 정보 시각화부(2537b)를 포함한다.More specifically, referring to FIG. 7 , the damage information detection unit 2537 includes a 3D positioning model configuration unit 2537a and a damage analysis information visualization unit 2537b.

여기서, 3차원 측위 모델 구성부(2537a)는, 다중 센서(320)로부터 획득된 SLAM 데이터 기반 센싱 정보를 이용하여 실내 공간의 3차원 측위 모델을 구성한다.Here, the 3D positioning model constructor 2537a constructs a 3D positioning model of the indoor space using SLAM data-based sensing information obtained from the multiple sensors 320.

그리고, 손상 분석 정보 시각화부(2537b)는, 상기 추정 연산된 상기 시설물 세그먼트의 손상 정도를 각 상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보에 기초하여, 상기 3차원 측위 모델상에 표시하는 시각화 처리를 수행할 수 있다.In addition, the damage analysis information visualization unit 2537b displays the estimated damage degree of the facility segment on the three-dimensional positioning model based on the visual crack identification information and the crack depth change information. can be performed.

보다 구체적으로, 손상 분석 정보 시각화부(2537b)는, 크랙 객체로 판별된 크랙 세그먼트에 대응하여, 크랙을 형성하는 크랙 스켈레톤화(Skeletonize) 정보를 추출하고, 추출된 크랙 스켈레톤화 정보로부터 추정되는 크랙의 평균 길이 및 두께 정보를 이용하여, 상기 크랙의 규모를 판별할 수 있고, 판별된 크랙의 규모를 3차원 측위 모델상에 표시 처리할 수 있다.More specifically, the damage analysis information visualization unit 2537b extracts crack skeletonization information forming a crack in response to a crack segment determined as a crack object, and cracks estimated from the extracted crack skeletonization information. Using the average length and thickness information, the size of the crack can be determined, and the size of the determined crack can be displayed on the three-dimensional positioning model.

도 8은 본 발명의 실시 예에 따른 컴퓨팅 장치의 동작을 설명하기 위한 흐름도이다.Figure 8 is a flowchart for explaining the operation of a computing device according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 실시 예에 따른 서비스 처리부(250)를 포함하는 컴퓨팅 장치(200)는, 먼저 로봇 구동부(251)를 통해, 시설물의 정보 분석을 위한 조사로봇(300)의 위치를 제1 위치로 이동시킨다(S101).Referring to FIG. 8, the computing device 200 including the service processing unit 250 according to an embodiment of the present invention first determines the location of the survey robot 300 for analyzing information on the facility through the robot driving unit 251. Move to the first position (S101).

그리고, 컴퓨팅 장치(200)는, 센서 모듈 구동부(253)를 통해, 상기 제1 위치에 대응하는 센싱 정보를 SLAM(Simultaneous Localization And Mapping) 기반으로 획득한다(S103).Then, the computing device 200 obtains sensing information corresponding to the first location through the sensor module driver 253 based on Simultaneous Localization And Mapping (SLAM) (S103).

이후, 컴퓨팅 장치(200)는, 크랙 분석부(255)를 통해, 상기 센싱 정보에 기초하여 실내 공간의 시설물 세그먼트를 식별한다(S105).Thereafter, the computing device 200 identifies a facility segment in the indoor space based on the sensing information through the crack analysis unit 255 (S105).

그리고, 컴퓨팅 장치(200)는, 크랙 분석부(255)를 통해, 상기 시설물 세그먼트에 대응하여 분석되는 시각적 크랙 식별 정보를 획득하며(S107), 시각적 크랙 식별 정보에 대응하는 크랙 깊이 변화 정보를 획득한다(S109).Then, the computing device 200 acquires visual crack identification information analyzed corresponding to the facility segment through the crack analysis unit 255 (S107), and acquires crack depth change information corresponding to the visual crack identification information. Do it (S109).

이에 따라, 컴퓨팅 장치(200)는, 크랙 분석부(255)를 통해, 상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보에 기초하여, 크랙의 유무 및 규모를 산출하고(S111), 이후 크랙의 유무 및 규모에 기초한 시설물 세그먼트의 손상 정도를 추정 연산한다(S113).Accordingly, the computing device 200 calculates the presence or absence and size of a crack based on the visual crack identification information and the crack depth change information through the crack analysis unit 255 (S111), and then determines the presence or absence of a crack. And the degree of damage to the facility segment is estimated and calculated based on the scale (S113).

이후, 컴퓨팅 장치(200)는, 분석 정보 출력부(257)를 통해, 추정 연산된 시설물 세그먼트의 손상 정보를 이용한 시설물 정보 분석 결과 데이터를 구성하여 하나 이상의 디바이스로 출력한다(S115).Thereafter, the computing device 200 configures facility information analysis result data using the estimated damage information of the facility segment through the analysis information output unit 257 and outputs it to one or more devices (S115).

도 9는 본 발명의 실시 예에 따른 손상 탐지 알고리즘을 보다 구체적으로 설명하기 위한 흐름도이다.Figure 9 is a flowchart to explain in more detail the damage detection algorithm according to an embodiment of the present invention.

도 9는 세부적인 손상 탐지 알고리즘에 관한 것으로, 먼저 컴퓨팅 장치(200)는, 센서 영상 이미지 내에서 추출되는 시설물 세그먼트와, 실제 크랙 검출 정보를 인공신경망 기반으로 사전 연관 학습된 학습 모델을 구축한다(S200).Figure 9 relates to a detailed damage detection algorithm. First, the computing device 200 builds a pre-associative learning model based on an artificial neural network between facility segments extracted from sensor video images and actual crack detection information ( S200).

여기서 시설물 세그먼트의 추출 및 분류를 위한 연관 학습에는 DeepLab 등의 인공신경망 딥러닝 기반 이미지 분류 학습 방식이 예시될 수 있으며, 크랙 검출을 위한 연관 학습에는 ResNet을 기반으로 하여, 시설물로부터 크랙 세그먼트 이미지와 크랙 객체를 추출하도록 학습하는 DCNN 기반의 인공신경망 학습 방식이 예시될 수 있다. 이에 따라, 시설물 세그먼트 검출을 위한 제1 학습 모델과, 크랙 세그먼트를 추출하기 위한 제2 학습 모델이 각각 미리 구성될 수 있다.Here, for association learning for extracting and classifying facility segments, an image classification learning method based on artificial neural network deep learning such as DeepLab can be used as an example, and for association learning for crack detection, crack segment images and cracks can be extracted from the facility based on ResNet. An example may be a DCNN-based artificial neural network learning method that learns to extract objects. Accordingly, a first learning model for detecting facility segments and a second learning model for extracting crack segments may each be configured in advance.

그리고, 컴퓨팅 장치(200)는 크랙 분석부(255)로 센싱 정보가 입력되면(S201), 먼저 실내 공간의 시설물 세그먼트 이미지를 전술한 제1 학습 모델을 이용하여 분할 처리한다(S203).When sensing information is input to the crack analysis unit 255 (S201), the computing device 200 first divides and processes the facility segment image of the indoor space using the above-described first learning model (S203).

이후, 컴퓨팅 장치(200)는, 크랙 분석부(255)를 통해 전술한 크랙 위치를 제2 학습 모델을 이용하여 검출하고(S205), 시설물 세그먼트별 크랙 세그먼트 이미지로 분할 처리한다(S207).Thereafter, the computing device 200 detects the above-described crack location using the second learning model through the crack analysis unit 255 (S205), and divides and processes the crack segment image into a crack segment image for each facility segment (S207).

그리고, 컴퓨팅 장치(200)는, 크랙 분석부(255)의 손상 정도 검출부(2537)를 통해, 크랙 세그먼트별 손상 정도를 추정하며(S209), 실내 공간의 시설물별 손상 정도를 종합적으로 시각화 처리하여 출력한다(S211).In addition, the computing device 200 estimates the degree of damage for each crack segment through the damage degree detection unit 2537 of the crack analysis unit 255 (S209), and comprehensively visualizes the degree of damage for each facility in the indoor space. Output (S211).

도 10는 본 발명의 실시 예에 따른 손상 정보 제공 프로세스의 구현예를 설명하기 위한 도면이다.Figure 10 is a diagram for explaining an implementation example of a process for providing damage information according to an embodiment of the present invention.

도 10에 도시된 바와 같이, 센서 모듈 구동부(253)로부터 원 영상 정보가 획득되면, 크랙 분석부(255)는 원 영상의 색상 정보를 기하학적 변환 처리하고, 각 시설물 세그먼트에 대응하는 크랙 세그먼트를 검출하여 표시하는 크랙 분석을 수행할 수 있다. 이러한 각 분석 결과는 도 10에 도시된 바와 같이 각각 시각화 처리될 수 있으며, 분석 결과는 3차원 모델로 구성되어 각 사용자 디바이스(110) 또는 하나 이상의 서버(120, 130, 140)로 제공될 수 있다.As shown in FIG. 10, when raw image information is acquired from the sensor module driver 253, the crack analysis unit 255 performs geometric conversion on the color information of the original image and detects crack segments corresponding to each facility segment. You can perform crack analysis to indicate this. Each of these analysis results can be visualized as shown in FIG. 10, and the analysis results can be configured as a three-dimensional model and provided to each user device 110 or one or more servers 120, 130, and 140. .

특히, 도 10에 도시된 바와 같이, 인식된 시설물별 손상 위치와 손상 정도는 3차원 위치 좌표로서 구성되어 시각화된 3차원 분석 결과 데이터상에 매핑될 수 있는 바, 시설물 세그먼트 모델(401)상에 크랙 검출 영역(402)이 표시될 수 있고, 크랙 검출 영역(402)내에는 크랙 객체로서 검출된 크랙 객체 위치좌표(403)이 매핑될 수 있다. 이러한 검출 정보는 검출 로그 데이터와 각 개별 크랙 세그먼트 이미지 데이터로서 매핑되어 컴퓨팅 장치(200)에서 저장 및 관리될 수 있다.In particular, as shown in FIG. 10, the damage location and degree of damage for each recognized facility are configured as 3D position coordinates and can be mapped onto the visualized 3D analysis result data on the facility segment model 401. A crack detection area 402 may be displayed, and crack object location coordinates 403 detected as a crack object may be mapped within the crack detection area 402. This detection information may be mapped as detection log data and each individual crack segment image data and stored and managed in the computing device 200.

도 11은 본 발명의 실시 예에 따른 크랙 스켈레톤화 및 규모 추정 방법을 설명하기 위한 분석 예시도이다.Figure 11 is an analysis diagram to explain the crack skeletonization and size estimation method according to an embodiment of the present invention.

도 11에 도시된 바와 같이, 검출된 크랙 객체 정보는, 균열의 평균 길이와 두께를 측정하여 손상 정도를 파악할 수 있도록 변환 처리될 수 있는 바, 변환 방식은 스켈레톤화(Skeletonize) 방식이 바람직할 수 있다. 이는 원본 크랙 이미지보다 정확한 크랙의 유무 및 규모를 파악할 수 있으며, 추정된 값을 이용한 손상 정도가 신속하게 파악될 수 있도록 한다. 이와 같은 크랙의 규모 추정을 위해 크랙 세그먼트 이미지의 이진변환 및 벡터화 프로세스가 이용될 수 있으며, 추세선 예측 등의 알고리즘이 활용될 수 있다.As shown in Figure 11, the detected crack object information can be converted to determine the degree of damage by measuring the average length and thickness of the crack, and a skeletonization method may be preferable as the conversion method. there is. This allows the presence and size of cracks to be identified more accurately than the original crack image, and the degree of damage can be quickly identified using the estimated value. To estimate the size of such cracks, binary conversion and vectorization processes of crack segment images can be used, and algorithms such as trend line prediction can be used.

도 12 및 도 13은 본 발명의 실시 예에 따른 크랙 검출 성능을 각 시야각 및 크랙과의 거리에 따라 테스트한 실험예이다.Figures 12 and 13 are experimental examples in which crack detection performance according to an embodiment of the present invention was tested according to each viewing angle and distance from the crack.

도 12를 참조하면, 거리가 가까워짐에 따라 크랙 세그먼트의 형태가 보다 정확하게 검출되는 것을 확인할 수 있으며, 도 13을 참조하면, 시선 각도가 대상을 정면으로 바라보도록 조정됨에 따라, 크랙 세그먼트의 형태 검출과 색상 변환 매핑이 보다 정확하게 수행되는 것을 확인할 수 있다. 이와 같이, 컴퓨팅 장치(200)는, 크랙 세그먼트의 형태를 보다 정확하게 검출하면서도 진동이 최소화되는 위치를 고려하여, 크랙 추정 객체가 검출될 시 최적화된 제1 위치를 결정하고, 해당 위치로 로봇(300)을 이동시킬 수 있으며, 이에 따라 보다 정확한 크랙 세그먼트가 검출되고, 이에 기초한 보다 정확한 크랙 객체 구성 및 손상 정도 분석이 가능하게 된다.Referring to Figure 12, it can be seen that the shape of the crack segment is detected more accurately as the distance becomes closer. Referring to Figure 13, as the gaze angle is adjusted to look directly at the object, the shape of the crack segment is detected and You can see that color conversion mapping is performed more accurately. In this way, the computing device 200 determines the optimized first position when the crack estimation object is detected, considering the position where vibration is minimized while detecting the shape of the crack segment more accurately, and moves the robot 300 to that position. ) can be moved, and as a result, more accurate crack segments are detected, and more accurate crack object configuration and damage level analysis based on this becomes possible.

이상에서 설명한 실시예들은 적어도 부분적으로 컴퓨터 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 실시예들을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다.The embodiments described above can be implemented at least partially as a computer program and recorded on a computer-readable recording medium. Computer-readable recording media on which programs for implementing the embodiments are recorded include all types of recording devices that store data that can be read by a computer. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, and optical data storage devices. Additionally, computer-readable recording media may be distributed across computer systems connected to a network, and computer-readable codes may be stored and executed in a distributed manner. Additionally, functional programs, codes, and code segments for implementing this embodiment can be easily understood by those skilled in the art to which this embodiment belongs.

이상에서 살펴본 본 명세서는 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 명세서의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 명세서의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해서 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 포함하도록 정해져야 할 것이다.Although the above-described specification has been described with reference to the embodiments shown in the drawings, these are merely illustrative examples, and those skilled in the art will understand that various modifications and modifications of the embodiments are possible therefrom. However, such modifications should be considered within the scope of technical protection of this specification. Therefore, the true technical protection scope of the present specification should be determined to include other implementations, other embodiments, and those equivalent to the claims according to the technical spirit of the appended claims.

Claims (15)

지상조사로봇의 점군 자료와 시각정보를 이용한 실내 건물 조사로봇재난정보 분석 방법에 있어서,
상기 조사로봇에 구비되며, 라이다 센서, IMU(Inertial Measurement Unit) 센서 및 하나 이상의 비전 센서 중 적어도 어느 하나를 포함하는 센서 모듈을 이용하여, 상기 시설물의 정보 분석을 위한 상기 조사로봇의 위치를 제1 위치로 이동시키는 단계;
상기 제1 위치에 대응하는 센싱 정보를 SLAM(Simultaneous Localization And Mapping) 기반으로 획득하는 단계;
상기 센싱 정보에 기초하여 실내 공간의 시설물 세그먼트를 식별하는 단계;
상기 시설물 세그먼트에 대응하여, 상기 센싱 정보의 비전 영상 정보로부터 분석되는 시각적 크랙 식별 정보와, 상기 시각적 크랙 식별 정보에 대응하는 깊이 센싱 정보에 의해 판별되는 크랙 깊이 변화 정보를 획득하는 단계;
상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보에 기초하여 획득되는 크랙의 유무 및 크랙의 규모에 따라, 상기 시설물 세그먼트의 손상 정도를 추정 연산하는 단계; 및
상기 손상 정도에 기초한 상기 시설물 세그먼트의 시설물 정보 분석 결과 데이터를 구성하여, 하나 이상의 디바이스로 출력하는 단계를 포함하고,
상기 이동시키는 단계는,
상기 비전 센서로부터 상기 크랙으로 추정되는 객체가 식별되는 경우, 상기 크랙에 대응하는 상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보를 획득하기 위한 최적 위치를 탐색하는 단계; 및
상기 탐색된 위치 중에서 결정된 상기 제1 위치로 상기 조사로봇을 이동시키는 단계를 포함하며,
상기 위치를 탐색하는 단계는,
상기 센서 모듈의 센싱 안정성 예측에 따라 산출된 상기 조사로봇의 이동 가능한 위치들 중, 상기 크랙으로 추적되는 객체의 상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보를 임계치 이상 식별할 수 있는 것으로 예측되는 하나 이상의 위치를 이동 후보 위치로 탐색하는 단계를 포함하는,
재난정보 분석 방법.
In the indoor building investigation robot disaster information analysis method using the point cloud data and visual information of the ground investigation robot,
It is provided in the investigation robot and uses a sensor module that includes at least one of a LiDAR sensor, an IMU (Inertial Measurement Unit) sensor, and one or more vision sensors to determine the location of the investigation robot for information analysis of the facility. moving to position 1;
Obtaining sensing information corresponding to the first location based on Simultaneous Localization And Mapping (SLAM);
Identifying a facility segment in an indoor space based on the sensing information;
Corresponding to the facility segment, acquiring visual crack identification information analyzed from vision image information of the sensing information and crack depth change information determined by depth sensing information corresponding to the visual crack identification information;
estimating the degree of damage to the facility segment according to the presence or absence of a crack and the size of the crack obtained based on the visual crack identification information and the crack depth change information; and
Comprising the step of configuring facility information analysis result data of the facility segment based on the degree of damage and outputting it to one or more devices,
The moving step is,
When an object presumed to be the crack is identified from the vision sensor, searching for an optimal location for obtaining the visual crack identification information and the crack depth change information corresponding to the crack; and
It includes moving the investigation robot to the first location determined among the searched locations,
The step of searching for the location is,
Among the movable positions of the investigation robot calculated according to the sensing stability prediction of the sensor module, one predicted to be able to identify the visual crack identification information and the crack depth change information of the object tracked by the crack above a threshold value Comprising the step of searching the above locations as movement candidate locations,
Disaster information analysis method.
제1항에 있어서,
상기 시각적 크랙 영역 식별 정보는,
상기 비전 센서의 센싱 정보에 포함된 하나 이상의 카메라 이미지를 이용한, 상기 시설물 세그먼트에 대응하는 픽셀 정보 분석 수행에 따라 획득되는 시각적 크랙 객체의 시작점 및 끝점 정보를 포함하는
재난정보 분석 방법.
According to paragraph 1,
The visual crack area identification information is,
Containing start and end point information of a visual crack object obtained by performing pixel information analysis corresponding to the facility segment using one or more camera images included in the sensing information of the vision sensor
Disaster information analysis method.
제2항에 있어서,
상기 시각적 크랙 영역 식별 정보는 상기 시각적 크랙 객체에 대응하는 크랙영역 이미지를 포함하고,
상기 크랙 영역 이미지는,
상기 시각적 크랙 객체에 대응하는 기하학적 변환 정보를 이용하여 픽셀 위치별 색상 변환이 처리된 컬러 이미지를 포함하며,
상기 기하학적 변환 정보는, 상기 시각적 크랙 객체에 대응하는 상기 IMU 센서의 회전 정보 및 상기 제1 위치로의 거리 이동 정보 중 적어도 하나에 기초하여 획득되는
재난정보 분석 방법.
According to paragraph 2,
The visual crack area identification information includes a crack area image corresponding to the visual crack object,
The crack area image is,
Contains a color image in which color conversion for each pixel position has been processed using geometric conversion information corresponding to the visual crack object,
The geometric transformation information is obtained based on at least one of rotation information of the IMU sensor corresponding to the visual crack object and distance movement information to the first position.
Disaster information analysis method.
제3항에 있어서,
상기 크랙 깊이 변화 정보는,
상기 크랙 영역 이미지에 대응하는 깊이 센싱 정보에 따라 검출되는 깊이 변화 정보를 포함하고,
상기 깊이 센싱 정보는 상기 라이다 센서, 스테레오 카메라 또는 서로 다른 위치에서 촬영된 복수의 카메라 이미지로부터 연산되어 상기 크랙 영역 이미지상에 매핑되는
재난정보 분석 방법.
According to paragraph 3,
The crack depth change information is,
Contains depth change information detected according to depth sensing information corresponding to the crack area image,
The depth sensing information is calculated from the lidar sensor, a stereo camera, or a plurality of camera images taken at different locations and mapped onto the crack area image.
Disaster information analysis method.
제1항에 있어서,
상기 손상 정도를 추정 연산하는 단계는,
상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보에 기초하여, 크랙의 연결선으로 구성된 크랙 스켈레톤화 정보를 추출하는 단계; 및
상기 크랙 스켈레톤화 정보로부터 추정되는 크랙의 평균 길이 및 두께 정보를 이용하여, 상기 크랙의 규모를 판별하는 단계를 포함하는
재난정보 분석 방법.
According to paragraph 1,
The step of estimating the degree of damage is,
Extracting crack skeletonization information consisting of crack connection lines based on the visual crack identification information and the crack depth change information; and
Comprising the step of determining the size of the crack using the average length and thickness information of the crack estimated from the crack skeletonization information.
Disaster information analysis method.
삭제delete 제1항에 있어서,
상기 위치를 탐색하는 단계는,
상기 센서 모듈의 센싱 안정성 예측에 따라 산출된 상기 조사로봇의 이동 가능한 위치들 중, 상기 크랙으로 추적되는 객체의 상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보를 임계치 이상 식별할 수 있는 것으로 예측되는 둘 이상의 위치를 이동 후보 위치로 탐색하는 단계를 포함하는
재난정보 분석 방법.
According to paragraph 1,
The step of searching for the location is,
Among the movable positions of the investigation robot calculated according to the sensing stability prediction of the sensor module, two are predicted to be able to identify the visual crack identification information and the crack depth change information of the object tracked by the crack above a threshold value. Including the step of searching for more than one location as a candidate location for movement.
Disaster information analysis method.
제1항에 있어서,
상기 시각적 크랙 식별 정보는,
미리 분류된 시설물 이미지들에 대응하는 크랙 탐지 결과 정보가 인공신경망 학습 알고리즘을 기반으로 미리 학습된 학습 모듈을 이용하여, 상기 실내 공간의 시설물 세그먼트 이미지로부터 분할 획득되는
재난정보 분석 방법.
According to paragraph 1,
The visual crack identification information is,
Crack detection result information corresponding to pre-classified facility images is obtained by dividing the facility segment image of the indoor space using a pre-trained learning module based on an artificial neural network learning algorithm.
Disaster information analysis method.
제1항 내지 제5항 및 제7항 중 어느 한 항에 기재된 방법을 컴퓨터에서 실행시키기 위해 컴퓨터 판독 가능한 매체에 저장되는 컴퓨터프로그램.A computer program stored in a computer-readable medium to execute the method according to any one of claims 1 to 5 and 7 on a computer. 컴퓨팅 장치를 포함하는 조사로봇에 있어서,
상기 조사로봇에 구비되며, 라이다 센서, 관성 측정 센서 및 하나 이상의 비전 센서 중 적어도 어느 하나를 포함하는 센서 모듈을 이용하여, 상기 시설물의 정보 분석을 위한 상기 조사로봇의 위치를 제1 위치로 이동시키도록, 이동 장치의 구동을 제어하는 조사로봇 구동부; 및
상기 제1 위치에 대응하는 센싱 정보를 SLAM(Simultaneous Localization And Mapping) 기반으로 획득하고, 상기 센싱 정보에 기초하여 실내 공간의 시설물 세그먼트를 식별하며, 상기 시설물 세그먼트에 대응하여, 상기 센싱 정보의 비전 영상 정보로부터 분석되는 시각적 크랙 식별 정보와, 상기 시각적 크랙 식별 정보에 대응하는 깊이 센싱 정보에 의해 판별되는 크랙 깊이 변화 정보를 획득하고, 상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보에 기초하여 획득되는 크랙의 유무 및 크랙의 규모에 따라, 상기 시설물 세그먼트의 손상 정도를 추정 연산하는 크랙 분석부; 및
상기 손상 정도에 기초한 상기 시설물 세그먼트의 시설물 정보 분석 결과 데이터를 구성하여 하나 이상의 디바이스로 출력하는 출력부를
포함하고,
상기 시각적 크랙 영역 식별 정보는,
상기 비전 센서의 센싱 정보에 포함된 하나 이상의 카메라 이미지를 이용한, 상기 시설물 세그먼트에 대응하는 픽셀 정보 분석 수행에 따라 획득되는 시각적 크랙 객체의 시작점 및 끝점 정보를 포함하고,
상기 시각적 크랙 영역 식별 정보는 상기 시각적 크랙 객체에 대응하는 크랙영역 이미지를 포함하며,
상기 크랙 영역 이미지는,
상기 시각적 크랙 객체에 대응하는 기하학적 변환 정보를 이용하여 픽셀 위치별 색상 변환이 처리된 컬러 이미지를 포함하고,
상기 기하학적 변환 정보는, 상기 시각적 크랙 객체에 대응하는 상기 IMU 센서의 회전 정보 및 상기 제1 위치로의 거리 이동 정보 중 적어도 하나에 기초하여 획득되며,
상기 조사로봇 구동부는,
상기 비전 센서로부터 상기 크랙으로 추정되는 객체가 식별되는 경우, 상기 크랙에 대응하는 상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보를 획득하기 위한 최적 위치를 탐색하며, 상기 탐색된 위치 중에서 결정된 상기 제1 위치로 상기 조사로봇을 이동시키는 제어 신호를 출력하고,
상기 조사로봇 구동부는,
상기 센서 모듈의 센싱 안정성 예측에 따라 산출된 상기 조사로봇의 이동 가능한 위치들 중, 상기 크랙으로 추적되는 객체의 상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보를 임계치 이상 식별할 수 있는 것으로 예측되는 하나 이상의 위치를 이동 후보 위치로 탐색하는,
조사로봇.
In a research robot including a computing device,
Using a sensor module provided in the survey robot and including at least one of a lidar sensor, an inertial measurement sensor, and one or more vision sensors, the position of the survey robot is moved to a first position for analyzing information on the facility. A survey robot driving unit that controls the operation of the mobile device to do so; and
Obtain sensing information corresponding to the first location based on SLAM (Simultaneous Localization And Mapping), identify a facility segment in an indoor space based on the sensing information, and generate a vision image of the sensing information in response to the facility segment. Acquire visual crack identification information analyzed from information and crack depth change information determined by depth sensing information corresponding to the visual crack identification information, and obtain cracks based on the visual crack identification information and the crack depth change information. A crack analysis unit that estimates and calculates the degree of damage to the facility segment according to the presence or absence of and the size of the crack; and
An output unit that configures the facility information analysis result data of the facility segment based on the degree of damage and outputs it to one or more devices.
Contains,
The visual crack area identification information is,
Contains start and end point information of a visual crack object obtained by performing pixel information analysis corresponding to the facility segment using one or more camera images included in the sensing information of the vision sensor,
The visual crack area identification information includes a crack area image corresponding to the visual crack object,
The crack area image is,
Contains a color image in which color conversion for each pixel position has been processed using geometric conversion information corresponding to the visual crack object,
The geometric transformation information is obtained based on at least one of rotation information of the IMU sensor corresponding to the visual crack object and distance movement information to the first position,
The survey robot driving unit,
When an object estimated to be the crack is identified from the vision sensor, the optimal location for obtaining the visual crack identification information and the crack depth change information corresponding to the crack is searched, and the first location determined from among the searched locations Outputting a control signal to move the survey robot to a location,
The survey robot driving unit,
Among the movable positions of the investigation robot calculated according to the sensing stability prediction of the sensor module, one predicted to be able to identify the visual crack identification information and the crack depth change information of the object tracked by the crack above a threshold value Searching the above locations as movement candidate locations,
Investigation robot.
제10항에 있어서,
상기 기하학적 변환 정보는, 상기 시각적 크랙 객체에 대응하는 상기 IMU 센서의 회전 정보 및 상기 제1 위치로의 거리 이동 정보 중 적어도 둘에 기초하여 획득되는
조사로봇.
According to clause 10,
The geometric transformation information is obtained based on at least two of rotation information of the IMU sensor corresponding to the visual crack object and distance movement information to the first position.
Investigation robot.
제10에 있어서,
상기 크랙 깊이 변화 정보는,
상기 크랙 영역 이미지에 대응하는 깊이 센싱 정보에 따라 검출되는 깊이 변화 정보를 포함하고,
상기 깊이 센싱 정보는 상기 라이다 센서, 스테레오 카메라 또는 서로 다른 위치에서 촬영된 복수의 카메라 이미지로부터 연산되어 상기 크랙 영역 이미지상에 매핑되는
조사로봇.
In article 10,
The crack depth change information is,
Contains depth change information detected according to depth sensing information corresponding to the crack area image,
The depth sensing information is calculated from the lidar sensor, a stereo camera, or a plurality of camera images taken at different locations and mapped onto the crack area image.
Investigation robot.
제11항에 있어서,
상기 크랙 분석부는,
상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보에 기초하여, 크랙의 연결선으로 구성된 크랙 스켈레톤화 정보를 추출하고, 상기 크랙 스켈레톤화 정보로부터 추정되는 크랙의 평균 길이 및 두께 정보를 이용하여, 상기 크랙의 규모를 판별하는
조사로봇.
According to clause 11,
The crack analysis unit,
Based on the visual crack identification information and the crack depth change information, crack skeletonization information consisting of crack connection lines is extracted, and the average length and thickness information of the crack estimated from the crack skeletonization information is used to determine the size of the crack. determining the size
Investigation robot.
삭제delete 제10항에 있어서,
상기 조사로봇 구동부는,
상기 센서 모듈의 센싱 안정성 예측에 따라 산출된 상기 조사로봇의 이동 가능한 위치들 중, 상기 크랙으로 추적되는 객체의 상기 시각적 크랙 식별 정보 및 상기 크랙 깊이 변화 정보를 임계치 이상 식별할 수 있는 것으로 예측되는 둘 이상의 위치를 이동 후보 위치로 탐색하는
조사로봇.
According to clause 10,
The survey robot driving unit,
Among the movable positions of the investigation robot calculated according to the sensing stability prediction of the sensor module, two are predicted to be able to identify the visual crack identification information and the crack depth change information of the object tracked by the crack above a threshold value. Search for the above locations as candidate locations for movement
Investigation robot.
KR1020230100677A 2023-08-01 2023-08-01 Method and apparatus for analyasing indoor building disaster information using point cloud data and visual information from ground survey robot KR102618069B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230100677A KR102618069B1 (en) 2023-08-01 2023-08-01 Method and apparatus for analyasing indoor building disaster information using point cloud data and visual information from ground survey robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230100677A KR102618069B1 (en) 2023-08-01 2023-08-01 Method and apparatus for analyasing indoor building disaster information using point cloud data and visual information from ground survey robot

Publications (1)

Publication Number Publication Date
KR102618069B1 true KR102618069B1 (en) 2023-12-27

Family

ID=89377789

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230100677A KR102618069B1 (en) 2023-08-01 2023-08-01 Method and apparatus for analyasing indoor building disaster information using point cloud data and visual information from ground survey robot

Country Status (1)

Country Link
KR (1) KR102618069B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150128300A (en) * 2014-05-09 2015-11-18 한국건설기술연구원 method of making three dimension model and defect analysis using camera and laser scanning
JP2017116453A (en) * 2015-12-25 2017-06-29 俊雄 小泉 Inspection method of structure using drone
WO2020145004A1 (en) * 2019-01-10 2020-07-16 日本電気株式会社 Photography guide device
KR102516002B1 (en) * 2022-11-02 2023-03-31 대한민국 Survey robot-based indoor space positioning and mapping method and appartus
KR102559586B1 (en) * 2022-10-17 2023-07-26 (주)유디엔에스 Structural appearance inspection system and method using artificial intelligence

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150128300A (en) * 2014-05-09 2015-11-18 한국건설기술연구원 method of making three dimension model and defect analysis using camera and laser scanning
JP2017116453A (en) * 2015-12-25 2017-06-29 俊雄 小泉 Inspection method of structure using drone
WO2020145004A1 (en) * 2019-01-10 2020-07-16 日本電気株式会社 Photography guide device
KR102559586B1 (en) * 2022-10-17 2023-07-26 (주)유디엔에스 Structural appearance inspection system and method using artificial intelligence
KR102516002B1 (en) * 2022-11-02 2023-03-31 대한민국 Survey robot-based indoor space positioning and mapping method and appartus

Similar Documents

Publication Publication Date Title
US11127203B2 (en) Leveraging crowdsourced data for localization and mapping within an environment
US11915502B2 (en) Systems and methods for depth map sampling
US10726264B2 (en) Object-based localization
CN112567201B (en) Distance measuring method and device
US10810734B2 (en) Computer aided rebar measurement and inspection system
US10949712B2 (en) Information processing method and information processing device
US10937214B2 (en) System and method for merging maps
US10531065B2 (en) Coarse relocalization using signal fingerprints
US10937191B2 (en) Predictive simultaneous localization and mapping system using prior user session positional information
CN109461208B (en) Three-dimensional map processing method, device, medium and computing equipment
JP6658001B2 (en) Position estimation device, program, position estimation method
JP7017689B2 (en) Information processing equipment, information processing system and information processing method
US11062475B2 (en) Location estimating apparatus and method, learning apparatus and method, and computer program products
KR101880185B1 (en) Electronic apparatus for estimating pose of moving object and method thereof
WO2020000395A1 (en) Systems and methods for robust self-relocalization in pre-built visual map
JP2021530821A (en) Methods, equipment and computer programs for performing 3D wireless model construction
KR102006291B1 (en) Method for estimating pose of moving object of electronic apparatus
US11674807B2 (en) Systems and methods for GPS-based and sensor-based relocalization
KR102516002B1 (en) Survey robot-based indoor space positioning and mapping method and appartus
KR102618069B1 (en) Method and apparatus for analyasing indoor building disaster information using point cloud data and visual information from ground survey robot
KR102516005B1 (en) Method and apparatus for assessing the risk of building collapse using an indoor positioning investigation robot
Lakshan Blind navigation in outdoor environments: Head and torso level thin-structure based obstacle detection
CN109325962B (en) Information processing method, device, equipment and computer readable storage medium
JP2023131258A (en) Information processing device and control method
KR20230108997A (en) Method for visual localization, control server and buiding using the same

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant