KR102589483B1 - System and method for inspecting road facilities using artificial intelligence - Google Patents

System and method for inspecting road facilities using artificial intelligence Download PDF

Info

Publication number
KR102589483B1
KR102589483B1 KR1020220121474A KR20220121474A KR102589483B1 KR 102589483 B1 KR102589483 B1 KR 102589483B1 KR 1020220121474 A KR1020220121474 A KR 1020220121474A KR 20220121474 A KR20220121474 A KR 20220121474A KR 102589483 B1 KR102589483 B1 KR 102589483B1
Authority
KR
South Korea
Prior art keywords
data
sensing data
scanning
time
viewpoint
Prior art date
Application number
KR1020220121474A
Other languages
Korean (ko)
Inventor
강태욱
Original Assignee
한국건설기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국건설기술연구원 filed Critical 한국건설기술연구원
Priority to KR1020220121474A priority Critical patent/KR102589483B1/en
Application granted granted Critical
Publication of KR102589483B1 publication Critical patent/KR102589483B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Abstract

본 발명은 건설 인프라 스캔 작업 지원용 로버 기반 3차원 스캔 모바일 맵핑 시스템 및 방법에 관한 것으로, 위치 센싱데이터를 획득하는 GPS 센서와, 움직임 센싱데이터를 획득하는 IMU 센서와, 건설 현장을 실시간으로 3차원 스캐닝하여 시점 별 스캐닝 데이터를 획득하는 스캐너와, 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 융합(Fusion)하고, SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 모바일 맵핑 모듈을 포함할 수 있다. The present invention relates to a rover-based 3D scanning mobile mapping system and method for supporting construction infrastructure scanning work, which includes a GPS sensor for acquiring location sensing data, an IMU sensor for acquiring motion sensing data, and 3D scanning of a construction site in real time. It may include a scanner that acquires scanning data for each viewpoint, and a mobile mapping module that fuses location sensing data, motion sensing data, and scanning data for each viewpoint, and performs real-time PCD registration by applying the SLAM algorithm.

Description

건설 인프라 스캔 작업 지원용 로버 기반 3차원 스캔 모바일 맵핑 시스템 및 방법{System and method for inspecting road facilities using artificial intelligence}Rover-based 3D scanning mobile mapping system and method for supporting construction infrastructure scanning operations {System and method for inspecting road facilities using artificial intelligence}

본 발명은 로버 기반 3차원 스캔 모바일 맵핑 시스템 및 방법에 관한 것으로서, 보다 상세하게는, 실시간으로 데이터 정합이 가능한 모바일 맵핑과 지상형 로버 기술을 활용해, 스캔 작업 생산성을 높일 수 있는 건설 인프라 스캔 작업 지원용 로버 기반 3차원 스캔 모바일 맵핑 시스템 및 방법에 관한 것이다.The present invention relates to a rover-based 3D scanning mobile mapping system and method. More specifically, construction infrastructure scanning work that can increase scanning productivity by utilizing mobile mapping capable of real-time data matching and ground rover technology. It relates to a support rover-based 3D scanning mobile mapping system and method.

최근 건설 산업에서 스마트 건설 기술의 필요성이 높아지고 있다. 스마트 건설 기술이 구현되기 위해서는 건설 현장 데이터 수집이 필수적이다. Recently, the need for smart construction technology has been increasing in the construction industry. In order for smart construction technology to be implemented, construction site data collection is essential.

건설 현장 데이터는 목적에 맞는 다양한 센서 등을 이용해 취득할 수 있다. 취득되는 건설 현장 데이터 중, 3차원 스캔 데이터는 다른 센서 데이터들에 비해 다양한 목적으로 활용될 수 있다. Construction site data can be acquired using various sensors suitable for the purpose. Among the acquired construction site data, 3D scan data can be used for various purposes compared to other sensor data.

3차원 스캔 데이터는 현장 상황을 3차원 그대로 재현하므로, 데이터 수집된 후에는 매번 작업자의 현장 방문과 조사 없이도 3차원 디지털 모델에서 건설 시설물의 정확한 위치, 크기, 부피 등을 필요할 때마다 얻을 수 있다. 3D scan data reproduces the site situation in 3D, so after data collection, the exact location, size, and volume of construction facilities can be obtained from the 3D digital model whenever necessary without the need for workers to visit and investigate the site each time.

특히 3차원 스캔 데이터는 유용한 데이터를 포함하고 있어, 정밀시공, 무인 자율차, 로보틱스, 3차원 지도 생성 등 다양한 어플리케이션에서 사용되고 있다. In particular, 3D scan data contains useful data and is used in various applications such as precision construction, unmanned autonomous vehicles, robotics, and 3D map creation.

이러한 스캔 데이터 취득에는 고정형 LiDAR(Light Detection and Ranging) 기술과 이동식 LiDAR 기술이 있다. 고정형 LiDAR 기술은 이동식 LiDAR에 비해 정확도와 밀도가 높으나 스캔할 때마다 매번 작업자가 무거운 센서 장비를 재설치하여 스캔하고, 스캔 후 데이터 정합을 위해 후처리하고, 정합하는데 오랜 시간이 걸린다. There are two types of scan data acquisition: fixed LiDAR (Light Detection and Ranging) technology and mobile LiDAR technology. Fixed LiDAR technology has higher accuracy and density than mobile LiDAR, but it takes a long time for workers to reinstall heavy sensor equipment every time they scan, and to post-process and match data after scanning.

따라서, 상대적으로 높지 않은 정확도를 필요로 하는 건축물 관리 분야에서 공간을 자유롭게 이동하면서 스캐닝하고, 스캐닝 결과를 정합하여 공간정보를 제공할 수 있는 기술이 필요하다.Therefore, in the field of building management, which requires relatively high accuracy, there is a need for technology that can scan space while freely moving and match the scanning results to provide spatial information.

국내 공개특허 제10-2019-0045006호Domestic Public Patent No. 10-2019-0045006

전술한 문제점을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, 실시간으로 데이터 정합이 가능한 모바일 맵핑과 지상형 로버 기술을 활용해, 스캔 작업 생산성을 높일 수 있는 로버 기반 3차원 스캔 모바일 맵핑 시스템(R-MMS(Rover-based Mobile Mapping System)) 및 방법을 제시하는 데 있다.In order to solve the above-mentioned problems, the technical problem that the present invention aims to achieve is a rover-based 3D scanning mobile mapping system (R) that can increase scanning productivity by utilizing mobile mapping capable of real-time data matching and ground-type rover technology. -To present MMS (Rover-based Mobile Mapping System) and method.

본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

전술한 기술적 과제를 해결하기 위한 수단으로서, 본 발명의 실시 예에 따른 로버 기반 3차원 스캔 데이터 모바일 맵핑 장치는 위치 센싱데이터를 획득하는 GPS 센서; 움직임 센싱데이터를 획득하는 IMU 센서(Inertial Measurement Unit); 건설 현장을 실시간으로 3차원 스캐닝하여 시점 별 스캐닝 데이터를 획득하는 스캐너; 및 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 융합(Fusion)하고, SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 모바일 맵핑 모듈;을 포함하고, 상기 GPS 센서, IMU 센서, 스캐너 및 모바일 맵핑 모듈은 건설 현장을 이동하는 로버에 장착될 수 있다. As a means to solve the above-described technical problem, a rover-based 3D scan data mobile mapping device according to an embodiment of the present invention includes a GPS sensor for acquiring location sensing data; IMU sensor (Inertial Measurement Unit) that acquires motion sensing data; A scanner that 3D scans the construction site in real time to obtain scanning data at each point in time; and a mobile mapping module that fuses location sensing data, motion sensing data, and scanning data for each viewpoint, and performs real-time PCD matching by applying the SLAM algorithm. It includes the GPS sensor, IMU sensor, scanner, and mobile mapping. The module can be mounted on a rover that moves around the construction site.

상기 모바일 맵핑 모듈은, 상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 필터링하는 필터링부; 상기 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 동기화한 후 융합하여 스캔데이터셋을 생성하는 SDF(Sensor Data Fusion)부; 상기 스캐너가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 SLAM부; 및 상기 SDF부에서 생성되는 스캔데이터셋을 DB에 저장 및 관리하는 데이터 관리부;를 포함할 수 있다.The mobile mapping module includes a filtering unit that filters the location sensing data, motion sensing data, and scanning data for each viewpoint; An SDF (Sensor Data Fusion) unit that generates a scan data set by synchronizing and fusing data acquisition points of the filtered position sensing data, motion sensing data, and scanning data for each viewpoint; A SLAM unit that performs real-time PCD registration by applying a SLAM algorithm to scanning data for each viewpoint acquired while the scanner moves; and a data management unit that stores and manages the scan data set generated in the SDF unit in a DB.

상기 SDF부는, 상기 데이터 취득 시점을 동기화하기 위하여, 상기 필터링된 시점 별 스캐닝 데이터를 기준으로 상기 필터링된 위치 센싱데이터와 움직임 센싱데이터를 동기화할 수 있다.In order to synchronize the data acquisition time, the SDF unit may synchronize the filtered position sensing data and motion sensing data based on the filtered scanning data for each time point.

한편, 본 발명의 다른 실시 예에 따른 로버 기반 3차원 스캔 데이터 모바일 맵핑 방법은, (A) 로버가 스캔 이동 경로를 따라 건설 현장을 이동하는 동안, GPS 센서가 위치 센싱데이터를 획득하는 단계; (B) IMU 센서 (Inertial Measurement Unit)가 움직임 센싱데이터를 획득하는 단계; (C) 스캐너가 상기 건설 현장을 실시간으로 3차원 스캐닝하여 시점 별 스캐닝 데이터를 획득하는 단계; 및 (D) 모바일 맵핑 모듈이, 상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 융합(Fusion)하고, SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 단계;를 포함할 수 있다.Meanwhile, a rover-based 3D scan data mobile mapping method according to another embodiment of the present invention includes the steps of: (A) a GPS sensor acquiring location sensing data while the rover moves around the construction site along a scan movement path; (B) a step in which an IMU sensor (Inertial Measurement Unit) acquires motion sensing data; (C) obtaining scanning data for each viewpoint by using a scanner to 3D scan the construction site in real time; and (D) the mobile mapping module fusing the location sensing data, motion sensing data, and scanning data for each viewpoint, and performing real-time PCD matching by applying a SLAM algorithm.

상기 (D) 단계는, (D1) 상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 필터링하는 단계; (D2) 상기 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 동기화한 후 융합하여 스캔데이터셋을 생성하는 단계; (D3) 상기 스캐너가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 단계; 및 (D4) 상기 (D2) 단계에서 생성되는 스캔데이터셋을 DB에 저장 및 관리하는 단계;를 포함할 수 있다.The step (D) includes (D1) filtering the location sensing data, motion sensing data, and scanning data for each viewpoint; (D2) synchronizing the data acquisition time points of the filtered position sensing data, motion sensing data, and scanning data for each viewpoint and fusing them to create a scan data set; (D3) performing real-time PCD registration by applying the SLAM algorithm to scanning data for each viewpoint acquired while the scanner moves; and (D4) storing and managing the scan data set generated in step (D2) in a DB.

상기 (D2) 단계는, 상기 데이터 취득 시점을 동기화하기 위하여, 상기 필터링된 시점 별 스캐닝 데이터를 기준으로 상기 필터링된 위치 센싱데이터와 움직임 센싱데이터를 동기화할 수 있다.In step (D2), in order to synchronize the data acquisition time, the filtered location sensing data and the motion sensing data may be synchronized based on the filtered scanning data for each time point.

한편, 본 발명의 다른 실시 예에 따른 로버 기반 3차원 스캔 데이터 모바일 맵핑 시스템은, 스캔 이동 경로를 따라 건설 현장을 이동하는 로버; 및 상기 로버의 위치 센싱데이터, 움직임 센싱데이터, 건설 현장을 실시간으로 3차원 스캐닝하여 획득한 시점 별 스캐닝 데이터를 융합(Fusion)하고, 상기 스캐너가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 모바일 맵핑 장치;를 포함할 수 있다.Meanwhile, a rover-based 3D scan data mobile mapping system according to another embodiment of the present invention includes a rover that moves around a construction site along a scanned path; And the rover's position sensing data, motion sensing data, and scanning data for each viewpoint acquired by 3D scanning the construction site in real time are fused, and a SLAM algorithm is applied to the scanning data for each viewpoint acquired while the scanner moves. It may include a mobile mapping device that performs real-time PCD matching.

상기 모바일 맵핑 장치는, 상기 위치 센싱데이터를 획득하는 GPS 센서; 상기 움직임 센싱데이터를 획득하는 IMU 센서(Inertial Measurement Unit); 상기 건설 현장을 실시간으로 3차원 스캐닝하여 시점 별 스캐닝 데이터를 획득하는 스캐너; 및 상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 융합(Fusion)하고, SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 모바일 맵핑 모듈;을 포함하고, 상기 GPS 센서, IMU 센서, 스캐너 및 모바일 맵핑 모듈은 건설 현장을 이동하는 로버에 장착될 수 있다.The mobile mapping device includes a GPS sensor that acquires the location sensing data; An IMU sensor (Inertial Measurement Unit) that acquires the motion sensing data; A scanner that 3D scans the construction site in real time to obtain scanning data for each viewpoint; And a mobile mapping module that fuses the location sensing data, motion sensing data, and scanning data for each viewpoint, and performs real-time PCD matching by applying the SLAM algorithm; including, the GPS sensor, IMU sensor, scanner, and mobile The mapping module can be mounted on a rover moving around a construction site.

상기 모바일 맵핑 모듈은, 상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 필터링하는 필터링부; 상기 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 동기화한 후 융합하여 스캔데이터셋을 생성하는 SDF(Sensor Data Fusion)부; 상기 스캐너가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 SLAM부; 및 상기 SDF부에서 생성되는 스캔데이터셋을 DB에 저장 및 관리하는 데이터 관리부;를 포함할 수 있다.The mobile mapping module includes a filtering unit that filters the location sensing data, motion sensing data, and scanning data for each viewpoint; An SDF (Sensor Data Fusion) unit that generates a scan data set by synchronizing and fusing data acquisition points of the filtered position sensing data, motion sensing data, and scanning data for each viewpoint; A SLAM unit that performs real-time PCD registration by applying a SLAM algorithm to scanning data for each viewpoint acquired while the scanner moves; and a data management unit that stores and manages the scan data set generated in the SDF unit in a DB.

상기 SDF부는, 상기 데이터 취득 시점을 동기화하기 위하여, 상기 필터링된 시점 별 스캐닝 데이터를 기준으로 상기 필터링된 위치 센싱데이터와 움직임 센싱데이터를 동기화할 수 있다.In order to synchronize the data acquisition time, the SDF unit may synchronize the filtered position sensing data and motion sensing data based on the filtered scanning data for each time point.

본 발명에 따르면, 로버를 이용하여 현장을 이동하면서 실시간으로 현장을 스캐닝하고, 스캐닝에 의해 획득되는 PCD와 GPS 센싱데이터와 IMU 센싱데이터를 실시간으로 융합하고, 이후 SLAM 정합하여 확인가능하도록 함으로써 저비용으로도 공간정보를 실시간으로 제공할 수 있다.According to the present invention, the site is scanned in real time while moving around the site using a rover, the PCD, GPS sensing data, and IMU sensing data obtained through scanning are fused in real time, and then SLAM is matched to enable confirmation at low cost. Spatial information can also be provided in real time.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 실시 예에 따른 로버 기반 3차원 스캔 데이터 모바일 맵핑 시스템을 도시한 도면,
도 2는 도 1에 도시된 1은 본 발명의 실시 예에 따른 모바일 맵핑 장치(300)를 도시한 블록도,
도 3은 프로세서(384)를 자세히 도시한 블록도,
도 4는 SDF부(384b)가 센싱데이터를 동기화하는 SDF 알고리즘을 설명하기 위한 도면,
도 5는 R-MMS DB 아키텍쳐를 UML(Unified Modeling Language)로 설계한 예시도,
도 6은 R-MMS에서 각 구성요소 간에 데이터 교환, 처리 및 관리되는 데이터셋을 정의한 도면, 그리고,
도 7은 본 발명의 실시 예에 따른 모바일 맵핑 방법을 도시한 흐름도이다.
1 is a diagram illustrating a rover-based 3D scan data mobile mapping system according to an embodiment of the present invention;
2 is a block diagram showing the mobile mapping device 300 according to an embodiment of the present invention, where 1 shown in FIG. 1 is a block diagram.
3 is a block diagram detailing the processor 384;
Figure 4 is a diagram for explaining the SDF algorithm by which the SDF unit 384b synchronizes sensing data;
Figure 5 is an example of the R-MMS DB architecture designed in UML (Unified Modeling Language).
Figure 6 is a diagram defining the data sets that are exchanged, processed, and managed between each component in R-MMS, and
Figure 7 is a flowchart showing a mobile mapping method according to an embodiment of the present invention.

본 발명의 실시를 위한 구체적인 내용을 설명하기에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사항에 부합하는 의미와 개념으로 해석되어야 할 것이다.Before explaining the specific details for practicing the present invention, the terms and words used in the specification and claims may be used by the inventor to appropriately define the concept of the term in order to explain the invention in the best way. It should be interpreted as meaning and concept consistent with the technical details of the present invention based on the principle that it is.

또한, 본 발명에 관련된 공지 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.Additionally, it should be noted that if a detailed description of a known function related to the present invention and its configuration is judged to unnecessarily obscure the gist of the present invention, the detailed description has been omitted.

어떤 엘리먼트, 구성요소, 장치, 또는 시스템이 프로그램 또는 소프트웨어로 이루어진 구성요소를 포함한다고 언급되는 경우, 명시적인 언급이 없더라도, 그 엘리먼트, 구성요소, 장치, 또는 시스템은 그 프로그램 또는 소프트웨어가 실행 또는 동작하는데 필요한 하드웨어(예를 들면, 메모리, CPU 등)나 다른 프로그램 또는 소프트웨어(예를 들면 운영체제나 하드웨어를 구동하는데 필요한 드라이버 등)를 포함하는 것으로 이해되어야 할 것이다.If any element, component, device, or system is said to contain a component consisting of a program or software, even if explicitly stated, that element, component, device, or system is not intended to allow that program or software to run or operate. It should be understood as including hardware (e.g., memory, CPU, etc.) or other programs or software (e.g., operating system or drivers required to run the hardware) required to run the computer.

또한, 어떤 엘리먼트(또는 구성요소)가 구현됨에 있어서 특별한 언급이 없다면, 그 엘리먼트(또는 구성요소)는 소프트웨어, 하드웨어, 또는 소프트웨어 및 하드웨어 어떤 형태로도 구현될 수 있는 것으로 이해되어야 할 것이다.In addition, unless specifically stated in the implementation of an element (or component), it should be understood that the element (or component) may be implemented in any form of software, hardware, or software and hardware.

또한, 본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것이 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.Additionally, in this specification, a module may mean a functional and structural combination of hardware for carrying out the technical idea of the present invention and software for driving the hardware. For example, the module may mean a logical unit of a predetermined code and hardware resources for executing the predetermined code, and does not necessarily mean a physically connected code or one type of hardware. It can be easily inferred by an average expert in the technical field.

이하에서는 본 발명에서 실시하고자 하는 구체적인 기술내용에 대해 첨부도면을 참조하여 상세하게 설명하기로 한다.Hereinafter, specific technical details to be implemented in the present invention will be described in detail with reference to the accompanying drawings.

도 1 내지 도 3에 도시된 장치들의 각각의 구성은 기능 및/또는 논리적으로 분리될 수 있음을 나타내는 것이며, 반드시 각각의 구성이 별도의 물리적 장치로 구분되거나 별도의 코드로 생성됨을 의미하는 것은 아님을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다. Each configuration of the devices shown in FIGS. 1 to 3 indicates that each configuration can be separated functionally and/or logically, and does not necessarily mean that each configuration is divided into a separate physical device or generated with separate code. An average expert in the technical field of the present invention will be able to easily deduce.

도 1은 본 발명의 실시 예에 따른 로버 기반 3차원 스캔 데이터 모바일 맵핑 시스템을 도시한 도면이다.Figure 1 is a diagram illustrating a rover-based 3D scan data mobile mapping system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 로버 기반 3차원 스캔 데이터 모바일 맵핑 시스템은 로버(100), 원격 모니터링 장치(200) 및 모바일 맵핑 장치(300)를 포함할 수 있다.Referring to FIG. 1, a rover-based 3D scan data mobile mapping system according to an embodiment of the present invention may include a rover 100, a remote monitoring device 200, and a mobile mapping device 300.

로버(100)는 스캔 이동 경로를 따라 건설 현장을 자동으로 이동할 수 있다. The rover 100 can automatically move around the construction site along the scanned movement path.

로버(100)는 바퀴를 이용하여 자율 주행이 가능한 장치로서, 모바일 맵핑 장치(300)의 제어에 따라서, 또는 사용자의 원격 제어에 따라서 전진, 후진, 좌회전 및 우회전을 포함하는 다양한 방향으로 주행할 수 있다. 또한, 로버(100)는 정확한 거리로 이동하며, 회전 각도에 따라 앞뒤좌우로의 이동 및 방향 전환이 가능하다.The rover 100 is a device capable of autonomous driving using wheels, and can drive in various directions including forward, backward, left turn, and right turn according to the control of the mobile mapping device 300 or the user's remote control. there is. In addition, the rover 100 moves at an accurate distance and can move forward, backward, left and right and change direction depending on the rotation angle.

원격 모니터링 장치(200)는 로버(100)의 이동 거리, 이동 방향 및 회전량 등 로버(100)의 상태, 움직임을 모바일 맵핑 장치(300)를 통해 수신하거나 로버(100)로부터 직접 수신하여 표시하고, 모바일 맵핑 장치(300)에서 스캔된 3차원 스캔 이미지를 표시하여 사용자가 로버(100)와 건설 현장 스캔 결과를 실시간으로 원격 모니터링하도록 할 수 있다.The remote monitoring device 200 receives and displays the status and movement of the rover 100, such as the moving distance, direction of movement, and rotation amount of the rover 100, through the mobile mapping device 300 or directly from the rover 100. , the 3D scanned image scanned from the mobile mapping device 300 can be displayed to allow the user to remotely monitor the rover 100 and the construction site scan results in real time.

또한, 원격 모니터링 장치(200)는 로버(100)의 주행을 제어하기 위한 원격 제어 신호, 모바일 맵핑 장치(300)의 센싱 동작을 제어하기 위한 원격 제어 신호를 로버(100) 또는 모바일 맵핑 장치(300)로 전송할 수도 있다. In addition, the remote monitoring device 200 sends a remote control signal for controlling the driving of the rover 100 and a remote control signal for controlling the sensing operation of the mobile mapping device 300 to the rover 100 or the mobile mapping device 300. ) can also be sent.

모바일 맵핑 장치(300)는 로버(100)에 착탈가능하도록 장착되며, 로버(100)의 위치를 센싱한 위치 센싱데이터, 로버(100)의 움직임을 센싱한 움직임 센싱데이터, 로버(100)가 이동하는 동안 건설 현장을 실시간으로 3차원 스캐닝하여 획득한 시점 별(또는 장면 별) 스캐닝 데이터를 융합(Fusion)하고, SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행할 수 있다. The mobile mapping device 300 is detachably mounted on the rover 100, and includes location sensing data for sensing the position of the rover 100, motion sensing data for sensing the movement of the rover 100, and movement of the rover 100. During this process, scanning data for each viewpoint (or scene) obtained by 3D scanning the construction site in real time can be fused and real-time PCD registration can be performed by applying the SLAM algorithm.

도 2는 도 1에 도시된 본 발명의 실시 예에 따른 모바일 맵핑 장치(300)를 도시한 블록도이다.FIG. 2 is a block diagram showing a mobile mapping device 300 according to an embodiment of the present invention shown in FIG. 1.

도 2를 참조하면, 본 발명의 실시 예에 따른 모바일 맵핑 장치(300)는 전원부(310), 로버 구동부(320), 사용자 인터페이스부(330), 통신 인터페이스부(340), GPS(Global Positioning System) 센서(350), IMU(Inertial Measurement Unit) 센서(360), 스캐너(370) 및 모바일 맵핑 모듈(380)을 포함할 수 있다.Referring to FIG. 2, the mobile mapping device 300 according to an embodiment of the present invention includes a power supply unit 310, a rover driver 320, a user interface unit 330, a communication interface unit 340, and a Global Positioning System (GPS). ) It may include a sensor 350, an IMU (Inertial Measurement Unit) sensor 360, a scanner 370, and a mobile mapping module 380.

전원부(310)는 모바일 맵핑 장치(300)의 각 구성요소들(310~170) 또는 로버(100)에 전원을 공급하며, 일 예로 배터리일 수 있다.The power supply unit 310 supplies power to each component 310 to 170 of the mobile mapping device 300 or the rover 100, and may be a battery, for example.

로버 구동부(320)는 로버(100)를 구동시키고, 움직임을 제어할 수 있다.The rover driver 320 can drive the rover 100 and control its movement.

전원부(310)와 로버 구동부(320)는 예를 들어, 70 Kg Payload를 지원하는 모터 드라이버와 배터리 시스템으로 구현될 수 있으며, 이는 일 예로서 이에 한정되지 않을 수 있다.For example, the power supply unit 310 and the rover driving unit 320 may be implemented as a motor driver and a battery system supporting 70 Kg payload, but this is an example and may not be limited thereto.

사용자 인터페이스부(330)는 사용자와 모바일 맵핑 장치(300) 간의 인터페이싱 경로를 제공하는 회로를 포함한다. 사용자 인터페이스부(330)는 예를 들어, 스캐닝 시작, 스캐닝 멈춤, 각종 센싱데이터 기록, 각종 센싱데이터 표시 등 모바일 맵핑 장치(300)에서 제공하는 기능을 조작하기 위한 명령을 사용자로부터 입력받아 모바일 맵핑 장치(300)로 전달할 수 있다. The user interface unit 330 includes circuitry that provides an interfacing path between the user and the mobile mapping device 300. The user interface unit 330 receives commands from the user to operate the functions provided by the mobile mapping device 300, such as starting scanning, stopping scanning, recording various sensing data, and displaying various sensing data, and provides the mobile mapping device. It can be delivered to (300).

통신 인터페이스부(340)는 GPS 센서(350), IMU 센서(360) 또는 스캐너(370)에서 센싱된 데이터를 원격 모니터링 장치(200)로 유선 또는 무선 통신네트워크를 통해 전송할 수 있다. 또한, 통신 인터페이스부(340)는 원격 모니터링 장치(200)로부터 원격 제어 신호를 수신하여 모바일 맵핑 모듈(380)로 전달할 수 있다.The communication interface unit 340 may transmit data sensed by the GPS sensor 350, IMU sensor 360, or scanner 370 to the remote monitoring device 200 through a wired or wireless communication network. Additionally, the communication interface unit 340 may receive a remote control signal from the remote monitoring device 200 and transmit it to the mobile mapping module 380.

GPS 센서(350)는 로버(100)에 장착되어 현재 위치를 센싱하고 위치 센싱데이터를 모바일 맵핑 장치(300)로 전달할 수 있다.The GPS sensor 350 is mounted on the rover 100 and can sense the current location and transmit the location sensing data to the mobile mapping device 300.

IMU 센서(360)는 로버(100)에 장착되어 로버(100)의 움직임 센싱데이터를 획득하고, 획득된 움직임 센싱데이터를 모바일 맵핑 장치(300)로 전달할 수 있다. IMU 센서(360)가 획득하는 움직임 센싱데이터는 모바일 맵핑 장치(300)의 위치 정보와 자세 정보를 포함하는 IMU 센서 센싱데이터로서, SALM 정합 시 사용되어 정합 정확도를 높일 수 있다.The IMU sensor 360 may be mounted on the rover 100 to acquire motion sensing data of the rover 100 and transmit the obtained motion sensing data to the mobile mapping device 300. The motion sensing data acquired by the IMU sensor 360 is IMU sensor sensing data that includes location information and posture information of the mobile mapping device 300, and can be used during SALM matching to increase matching accuracy.

스캐너(370)는 건설 현장을 실시간으로 3차원 스캐닝하여 시점 별(또는 장면(scene) 별)로 스캐닝 데이터를 획득할 수 있다. 스캐너(370)는 이동식 3D LiDAR(Light Detection And Ranging) 센서를 사용할 수 있다.The scanner 370 can acquire scanning data for each viewpoint (or scene) by 3D scanning the construction site in real time. The scanner 370 may use a mobile 3D LiDAR (Light Detection And Ranging) sensor.

모바일 맵핑 모듈(380)은 GPS 센서(350)의 위치 센싱데이터, IMU 센서(360)의 움직임 센싱데이터 및 스캐너(370)의 시점 별 스캐닝 데이터를 융합(Fusion)하고, SLAM(Simultaneous Localization and Mapping) 알고리즘을 적용하여 실시간 PCD 정합을 수행할 수 있다. The mobile mapping module 380 fuses the location sensing data of the GPS sensor 350, the movement sensing data of the IMU sensor 360, and the scanning data for each viewpoint of the scanner 370, and performs SLAM (Simultaneous Localization and Mapping) Real-time PCD matching can be performed by applying the algorithm.

모바일 맵핑 모듈(380)은 스캐너(370)가 이동하면서 획득하거나 같은 장소에서 시차를 두어 획득하거나 같은 장소에서 스캐닝 각도를 변경하여 획득하는 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행할 수 있다.The mobile mapping module 380 can perform real-time PCD registration by applying the SLAM algorithm to scanning data acquired while the scanner 370 moves, acquired at the same location with a time difference, or acquired by changing the scanning angle at the same location. there is.

또한, 각 구성요소들 간 데이터 교환 및 기능 호출을 위한 메시지 교환을 위해서 모바일 맵핑 모듈(380)은 말단 센서 및 장치들과 통신할 수 있다. 통신 상태는 모니터링될 수 있어야 하며, 데이터 및 메시지 교환 시 문제가 발생할 경우, 기록되고 진단될 수 있어야 하며, 이를 고려하여 본 발명에서는 ROS(Robot Operating System)을 사용할 수 있다.In addition, the mobile mapping module 380 can communicate with terminal sensors and devices to exchange data between each component and exchange messages for function calls. Communication status must be able to be monitored, and if a problem occurs when exchanging data and messages, it must be recorded and diagnosed. Considering this, ROS (Robot Operating System) can be used in the present invention.

모바일 맵핑 모듈(380)은 메모리(382) 및 프로세서(384)를 포함할 수 있다. Mobile mapping module 380 may include memory 382 and processor 384.

메모리(382)는 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(382)에는 예를 들어, 모바일 맵핑 장치(300) 또는 로버(100)가 제공하는 동작, 기능 등을 구현 및/또는 제공하기 위하여, 구성요소들에 관계된 명령 또는 데이터, 하나 이상의 프로그램 및/또는 소프트웨어, 운영체제 등이 저장될 수 있다.Memory 382 may include volatile memory and/or non-volatile memory. The memory 382 includes, for example, instructions or data related to components, one or more programs, and/or to implement and/or provide operations, functions, etc. provided by the mobile mapping device 300 or the rover 100. Alternatively, software, operating system, etc. may be stored.

메모리(382)에 저장되는 프로그램은 긱종 센싱데이터의 융합을 위한 SDF 알고리즘 구현을 위한 SDF 프로그램과, SLAM 알고리즘 구현을 위한 SLAM 프로그램과, SLAM 알고리즘의 수치해석 및 계산기하학을 지원하는 CGL(Computational Geometry Library)과, GPS 센서(350), IMU 센서(360) 및 스캐너(370)로부터 획득되는 데이터와 프로세서(384) 간의 데이터 교환을 담당하는 ROS(Robot Operating System) 및 임베디드 OS(Embedded Operating System)를 포함할 수 있다. The programs stored in the memory 382 are an SDF program for implementing the SDF algorithm for fusion of various types of sensing data, a SLAM program for implementing the SLAM algorithm, and a CGL (Computational Geometry Library) that supports numerical analysis and computational geometry of the SLAM algorithm. ), a Robot Operating System (ROS) and an Embedded Operating System (OS) responsible for exchanging data between the GPS sensor 350, the IMU sensor 360 and the scanner 370 and the processor 384. can do.

프로세서(384)는 메모리(382)에 저장된 하나 이상의 프로그램을 실행하여 모바일 맵핑 장치(300)의 전반적인 동작을 제어한다.The processor 384 controls the overall operation of the mobile mapping device 300 by executing one or more programs stored in the memory 382.

예를 들어, 프로세서(384)는 메모리(382)에 저장된 SDF 프로그램을 실행하여 GPS 센서(350)의 위치 센싱데이터, IMU 센서(360)의 움직임 센싱데이터 및 스캐너(370)의 시점 별 스캐닝 데이터를 동기화한 후 융합할 수 있다. 또한, 프로세서(384)는 SLAM 프로그램을 실행하여 3차원 스캔 데이터에 존재하는 특징점들을 장면 별로 산출하고, 장면 별로 산출된 특징점들을 비교하여 실시간으로 포인트 클라우드 정합을 수행하여 시설물의 공간 정보를 제공하고, 스캔 데이터셋을 생성 및 관리할 수 있다.For example, the processor 384 executes the SDF program stored in the memory 382 to collect location sensing data from the GPS sensor 350, motion sensing data from the IMU sensor 360, and scanning data for each viewpoint from the scanner 370. After synchronization, they can be fused. In addition, the processor 384 executes the SLAM program to calculate feature points present in the 3D scan data for each scene, compares the feature points calculated for each scene, performs point cloud matching in real time, and provides spatial information of the facility. You can create and manage scan datasets.

또한, 프로세서(384)는 모바일 맵핑 장치(300)에 카메라(미도시)가 더 구비된 경우, 카메라 영상을 원격 모니터링 장치(200)로 전송하도록 처리하고, 사용자는 원격 모니터링 장치(200)에 표시되는 카메라 영상을 통해 로버(100)를 원격 제어할 수 있다. Additionally, if the mobile mapping device 300 is further equipped with a camera (not shown), the processor 384 processes the camera image to be transmitted to the remote monitoring device 200, and the user displays it on the remote monitoring device 200. The rover 100 can be remotely controlled through the camera image.

또한, 프로세서(384)는 각 컴포넌트 간 데이터 교환 및 기능 호출을 위한 메시지 교환을 위해서 각 컴포넌트들과 통신할 수 있으며, 통신 상태를 모니터링하고, 데이터 및 메시지 교환 시 문제가 발생하면 메모리(382)에 기록 및 진단할 수도 있다. In addition, the processor 384 can communicate with each component to exchange data and exchange messages for function calls between each component, monitors the communication status, and reports to the memory 382 if a problem occurs during data and message exchange. It can also be recorded and diagnosed.

도 3은 프로세서(384)를 자세히 도시한 블록도이다.Figure 3 is a block diagram showing the processor 384 in detail.

도 3을 참조하면, 프로세서(384)는 필터링부(384a), SDF부(384b), SLAM부(384c) 및 데이터 관리부(384d)를 포함할 수 있다.Referring to FIG. 3, the processor 384 may include a filtering unit 384a, an SDF unit 384b, a SLAM unit 384c, and a data management unit 384d.

필터링부(384a)는 획득된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 처리를 위하여, 노이즈 제거와 같은 필터링을 수행할 수 있다. 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 스캐닝 데이터는 데이터 정합 시 필요한 데이터 획득을 위해 SDF 알고리즘으로 입력될 수 있다.The filtering unit 384a may perform filtering such as noise removal to process the acquired location sensing data, motion sensing data, and scanning data for each viewpoint. Filtered position sensing data, motion sensing data, and scanning data can be input into the SDF algorithm to obtain data required for data matching.

한편, GPS 센서(350), IMU 센서(360) 및 스캐너(370)가 데이터를 센싱하는 Hz 주기는 다르다. 예를 들어, 스캐너(370)는 10Hz로 동작하고, GPS 센서(350)와 IMU 센서(360)는 100Hz로 동작하면 데이터를 취득하는 시점이 다르므로, 각 센싱데이터를 스캐닝 데이터를 기준으로 동기화해야 한다. Meanwhile, the Hz cycle at which the GPS sensor 350, IMU sensor 360, and scanner 370 sense data are different. For example, if the scanner 370 operates at 10Hz and the GPS sensor 350 and IMU sensor 360 operate at 100Hz, the timing of data acquisition is different, so each sensing data must be synchronized based on the scanning data. do.

이를 위하여, SDF부(384b)는 데이터 정합 시 필요한 스캔데이터셋을 획득하기 위하여 필터링부(384a)에서 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 스캐닝 데이터를 SDF 알고리즘에 입력할 수 있다. To this end, the SDF unit 384b may input the position sensing data, motion sensing data, and scanning data filtered by the filtering unit 384a into the SDF algorithm to obtain a scan data set necessary for data matching.

SDF부(384b)는 SDF 알고리즘을 이용하여 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 동기화한 후 융합하여 스캔데이터셋을 생성할 수 있다.The SDF unit 384b can generate a scan data set by synchronizing and then fusing the data acquisition times of the filtered position sensing data, motion sensing data, and scanning data for each viewpoint using the SDF algorithm.

자세히 설명하면, SDF부(384b)는 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 동기화하기 위하여, 필터링된 스캐닝 데이터에 타임 스탬프를 추가하고, 타임 스탬프가 추가된 스캐닝 데이터를 기준으로 필터링된 위치 센싱데이터와 움직임 센싱데이터를 동기화할 수 있다. 타임 스탬프는 스캐닝 데이터가 센싱된 시점일 수도 있고, 필터링된 시점일 수도 있으며 본 발명의 실시 예에서는 센싱된 시점을 예로 들어 설명한다.In detail, the SDF unit 384b adds a time stamp to the filtered scanning data in order to synchronize the data acquisition time of the filtered position sensing data, motion sensing data, and scanning data for each viewpoint, and scans the data to which the time stamp has been added. Position sensing data and motion sensing data filtered based on the data can be synchronized. The time stamp may be the point in time when the scanning data is sensed or the time point in which the scanning data is filtered. In the embodiment of the present invention, the sensed point in time is used as an example.

SDF부(384b)는 스캐닝 데이터에 추가된 타임 스탬프의 시간을 확인하고, 확인된 시간에 센싱된 위치 센싱데이터가 없는 경우, 확인된 시간 이전에 센싱된 위치 센싱데이터와 이후에 센싱된 위치 센싱데이터를 이용하여, 상기 확인된 시간에 해당하는 위치 센싱데이터를 선형보간에 의해 생성할 수 있다.The SDF unit 384b checks the time of the time stamp added to the scanning data, and if there is no position sensing data sensed at the confirmed time, the position sensing data sensed before the confirmed time and the position sensing data sensed after the confirmed time. Using , position sensing data corresponding to the confirmed time can be generated by linear interpolation.

도 4는 SDF부(384b)가 센싱데이터를 동기화하는 SDF 알고리즘을 설명하기 위한 도면이다.Figure 4 is a diagram for explaining the SDF algorithm by which the SDF unit 384b synchronizes sensing data.

도 4를 참조하면, 스캐닝 데이터에는 타임스탬프(time stamp_LIDAR)가 포함되어 있으며, SDF부(384b)는 필터링된 위치 센싱데이터(sensor_data_GPS)와 움직임 센싱데이터(sensor_data_IMU)를 큐(미도시)에 저장할 수 있다(queue.push(sensor_data)).Referring to FIG. 4, the scanning data includes a timestamp (time stamp_LIDAR), and the SDF unit 384b can store the filtered location sensing data (sensor_data_GPS) and motion sensing data (sensor_data_IMU) in a queue (not shown). There is (queue.push(sensor_data)).

위치 센싱데이터, 움직임 센싱데이터 및 3차원 스캐닝 데이터는 각각의 데이터가 센싱된 시점이 다를 수 있다. 따라서, SDF부(384b)는 3차원 스캐닝 데이터의 타임 스탬프(time_stamp_LIDAR)에 해당하는 위치 센싱데이터와 움직임 센싱데이터가 필요한 경우, 즉, 스캐닝 데이터와 동일한 시점(time_stamp_LIDAR)에서 생성된(또는 센싱된) 위치 센싱데이터와 움직임 센싱데이터의 융합이 필요한 경우, 상기 타임 스탬프(time_stamp_LIDAR)의 시각을 기준으로 바로 이전에 센싱된 위치 센싱데이터와 바로 이후에 센싱된 위치 센싱데이터를 큐로부터 읽어와 선형 보간 처리하여 타임 스탬프(time_stamp_LIDAR)에 해당하는 위치 센싱데이터를 예측할 수 있다. The timing of each data sensing may be different for position sensing data, motion sensing data, and 3D scanning data. Therefore, when the SDF unit 384b needs position sensing data and motion sensing data corresponding to the time stamp (time_stamp_LIDAR) of the 3D scanning data, that is, generated (or sensed) at the same time point (time_stamp_LIDAR) as the scanning data. When fusion of position sensing data and motion sensing data is required, based on the time of the time stamp (time_stamp_LIDAR), the position sensing data sensed immediately before and the position sensing data sensed immediately after are read from the queue and processed for linear interpolation. Location sensing data corresponding to the time stamp (time_stamp_LIDAR) can be predicted.

SDF부(384b)는 움직임 센싱데이터에 대해서도 이와 동일한 동기화 방식을 적용하여 타임스탬프(time_stamp_LIDAR)에 해당하는 움직임 센싱데이터를 예측할 수 있다.The SDF unit 384b can apply the same synchronization method to motion sensing data to predict motion sensing data corresponding to the timestamp (time_stamp_LIDAR).

도 4에서 sensor_data는 선형보간에 의해 예측생성된 위치 센싱데이터와 움직임 센싱데이터이고, P는 타임스탬프(time_stamp_LIDAR)의 시각을 기준으로 이전에 센싱된 위치 센싱데이터와 움직임 센싱데이터이고, N은 이후에 센싱된 위치 센싱데이터와 움직임 센싱데이터이고, C는 선형보간에 의해 예측생성된 위치 센싱데이터와 움직임 센싱데이터이다. In Figure 4, sensor_data is position sensing data and motion sensing data predicted and generated by linear interpolation, P is position sensing data and motion sensing data previously sensed based on the time of the timestamp (time_stamp_LIDAR), and N is later. C is the sensed position sensing data and motion sensing data, and C is the position sensing data and motion sensing data predicted and generated by linear interpolation.

SDF부(384b)는 데이터 동기화가 된 위치 센싱데이터, 움직임 센싱데이터 및 스캐닝 데이터를 융합하여 스캔데이터셋(scan_dataset)을 생성할 수 있다. 생성된 스캔데이터셋은 데이터 관리부(384d)로 전달될 수 있다.The SDF unit 384b may generate a scan data set (scan_dataset) by fusing data-synchronized position sensing data, motion sensing data, and scanning data. The generated scan data set may be transmitted to the data management unit 384d.

SLAM부(384c)는 스캐너(370)가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD(Point Cloud Data) 정합을 수행할 수 있다. SLAM부(384c)는 실시간으로 획득되는 PCD 형태의 스캐닝 데이터와 위치 센싱데이터와 움직임 센싱데이터와 SLAM 알고리즘을 이용하여 PCD 정합을 수행할 수 있다. PCT 정합에 의해 생성되는 데이터셋(registered_dataset)은 데이터 관리부(384d)로 전달될 수 있다.The SLAM unit 384c can perform real-time PCD (Point Cloud Data) matching by applying the SLAM algorithm to scanning data for each viewpoint acquired while the scanner 370 moves. The SLAM unit 384c can perform PCD matching using PCD-type scanning data, position sensing data, and motion sensing data acquired in real time, and the SLAM algorithm. The dataset (registered_dataset) generated by PCT matching may be transmitted to the data management unit 384d.

SLAM 기술은 로보틱스 분야에서 발전된 지도 생성 기술로서, 거리 측정 센서 또는 IMU를 이용해 현재 위치를 인식하면서 시설물에 대한 공간정보를 작성하는 기술이다.SLAM technology is a map generation technology developed in the field of robotics that uses a distance measurement sensor or IMU to recognize the current location and create spatial information about facilities.

데이터 관리부(384d)는 융합된 스캔데이터셋(scan_dataset)과 정합된 데이터셋(registered_dataset)을 DB(미도시)에 저장 및 관리할 수 있다. 데이터 관리부(384d)는 모바일 맵핑 시스템이 현장을 이동하며 실시간으로 데이터를 센싱하고 맵핑할 시점의 센싱데이터를 융합하면, 융합된 데이터셋을 시계열 데이터베이스구조로 저장 및 관리할 수 있다. The data management unit 384d may store and manage the fused scan data set (scan_dataset) and the registered data set (registered_dataset) in a DB (not shown). The data management unit 384d can sense data in real time as the mobile mapping system moves around the field and fuse the sensing data at the time of mapping, thereby storing and managing the fused data set in a time series database structure.

DB(미도시)는 도 1에 도시된 시스템에 추가로 구비되거나 원격 장소에 구비될 수 있으며, 후자의 경우 유무선 네트워크를 통해 데이터를 수신 및 저장할 수 있다.The DB (not shown) may be provided in addition to the system shown in FIG. 1 or may be installed in a remote location, and in the latter case, it can receive and store data through a wired or wireless network.

도 5는 R-MMS DB 아키텍쳐를 UML(Unified Modeling Language)로 설계한 예시도이고, 도 6은 R-MMS에서 각 구성요소 간에 데이터 교환, 처리 및 관리되는 데이터셋을 정의한 도면이다. R-MMS는 로보 기반 모바일 맵핑 시스템을 의미한다. Figure 5 is an example diagram of the R-MMS DB architecture designed in UML (Unified Modeling Language), and Figure 6 is a diagram defining data sets that are exchanged, processed, and managed between each component in R-MMS. R-MMS stands for robo-based mobile mapping system.

도 5 및 도 6을 참조하면, scan은 다수의 스캔데이터셋(scan_dataset)이고, 스캔데이터셋은 시퀀스 ID, 타임스탬프, PCD(스캐닝데이터), IMU(움직임 센싱데이터), GPS(위치 센싱데이터)를 포함한다. 다수의 융합된 스캔데이터셋들(scan)과 정합된 데이터셋(registered_dataset)은 데이터 관리부(MMS_database_management)(384d)로 입력되어 관리된다. 도 6과 같은 각 데이터셋은 컴포넌트 간 데이터 교환 시 메시지내에 포함될 수 있다.Referring to Figures 5 and 6, scan is a plurality of scan data sets (scan_dataset), and the scan data sets include sequence ID, timestamp, PCD (scanning data), IMU (motion sensing data), and GPS (position sensing data). Includes. Multiple fused scan datasets (scan) and the registered dataset (registered_dataset) are input and managed by the data management unit (MMS_database_management) 384d. Each data set as shown in FIG. 6 may be included in a message when exchanging data between components.

도 7은 본 발명의 실시 예에 따른 모바일 맵핑 방법을 도시한 흐름도이다.Figure 7 is a flowchart showing a mobile mapping method according to an embodiment of the present invention.

도 7을 참조하면, 로버(100)가 스캔 이동 경로를 따라 건설 현장을 이동하는 동안, GPS 센서(350)가 위치 센싱데이터를 획득하고, 획득되는 위치 센싱데이터는 큐(미도시)에 저장될 수 있다(S710).Referring to FIG. 7, while the rover 100 moves around the construction site along the scanning path, the GPS sensor 350 acquires location sensing data, and the acquired location sensing data is stored in a queue (not shown). (S710).

로버(100)가 스캔 이동 경로를 따라 건설 현장을 이동하는 동안, IMU 센서(360)가 움직임 센싱데이터를 획득하고, 획득되는 움직임 센싱데이터는 큐(미도시)에 저장될 수 있다(S720).While the rover 100 moves around the construction site along the scanning path, the IMU sensor 360 acquires motion sensing data, and the obtained motion sensing data may be stored in a queue (not shown) (S720).

또한, 로버(100)가 스캔 이동 경로를 따라 건설 현장을 이동하는 동안, 스캐너(370)는 건설 현장을 실시간으로 3차원 스캐닝하여 시점 별 스캐닝 데이터를 획득하고, 획득되는 스캐닝 데이터는 큐(미도시) 또는 메모리(382)에 저장될 수 있다(S730).In addition, while the rover 100 moves the construction site along the scanning path, the scanner 370 acquires scanning data for each viewpoint by 3D scanning the construction site in real time, and the acquired scanning data is stored in a queue (not shown). ) or may be stored in the memory 382 (S730).

모바일 맵핑 모듈(380)은 상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 융합(Fusion)하고, SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하여 스캔데이터셋(scan_dataset)과 정합데이터셋(registered_dataset)을 생성할 수 있다. The mobile mapping module 380 fuses the location sensing data, motion sensing data, and scanning data for each viewpoint, and applies the SLAM algorithm to perform real-time PCD registration to create a scan data set (scan_dataset) and a registered data set (registered_dataset). ) can be created.

자세히 설명하면, 모바일 맵핑 모듈(380)은 S710단계 내지 S730단계에서 획득된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 필터링하여 노이즈를 제거할 수 있다(S740).In detail, the mobile mapping module 380 may remove noise by filtering the location sensing data, motion sensing data, and scanning data for each viewpoint obtained in steps S710 to S730 (S740).

모바일 맵핑 모듈(380)은 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 스캐닝 데이터의 타임스탬프를 기준으로 동기화한 후 융합하여 스캔데이터셋(scan_dataset)을 생성할 수 있다(S750). S750단계에서 모바일 맵핑 모듈(380)은 위치 센싱데이터와 움직임 센싱데이터를 선형보간하여 센싱되지 않은 시점의 데이터를 예측할 수 있다.The mobile mapping module 380 can generate a scan data set (scan_dataset) by synchronizing and fusing the data acquisition points of the filtered location sensing data, motion sensing data, and scanning data for each viewpoint based on the timestamp of the scanning data. (S750). In step S750, the mobile mapping module 380 can linearly interpolate the location sensing data and the motion sensing data to predict data at a point in time that is not sensed.

또한, 모바일 맵핑 모듈(380)은 시점 별로 동기화된 스캐닝 데이터와 위치 센싱데이터와 움직임 센싱데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행할 수 있다(S760).In addition, the mobile mapping module 380 can perform real-time PCD matching by applying the SLAM algorithm to scanning data, location sensing data, and motion sensing data synchronized for each viewpoint (S760).

모바일 맵핑 모듈(380)은 S750단계에서 생성되는 스캔데이터셋(scan_dataset)과 S760단계에서 생성되는 정합데이터셋(registered_dataset)을 DB에 저장 및 관리한다(S770).The mobile mapping module 380 stores and manages the scan data set (scan_dataset) created in step S750 and the registered data set (registered_dataset) created in step S760 in the DB (S770).

상술한 본 발명의 실시 예에 따르면 건설 현장의 스캔 작업의 생산성을 높일 수 있는 로버 기반 3차원 스캔 모바일 맵핑 시스템인 R-MMS을 제안하고, 설계된 R-MMS 프레임웍을 기준으로 개발된 프로토타입을 활용해 실외 인프라 시설물을 스캔한 후 결과를 분석하였다. 이를 바탕으로 인프라 시설물 관리에 활용할 수 있는 이동식 스캔 장비 개발 고려사항을 도출하였다.According to the above-described embodiment of the present invention, R-MMS, a rover-based 3D scanning mobile mapping system that can increase the productivity of scanning work at construction sites, is proposed, and a prototype developed based on the designed R-MMS framework is utilized. After scanning outdoor infrastructure facilities, the results were analyzed. Based on this, considerations for developing mobile scanning equipment that can be used for infrastructure facility management were derived.

R-MMS는 정확도와 밀도 면에서 고정식 LiDAR에 비해 낮다. 테스트 결과 GSA의 Level 2 수준 LoD(Level Of Detail)가 필요한 영역에서 사용이 가능하였다. R-MMS is lower than fixed LiDAR in terms of accuracy and density. As a result of the test, it was possible to use it in areas that require GSA's Level 2 LoD (Level Of Detail).

R-MMS는 1인이 원격 제어되는 범위내에서는 1인의 작업자가 FPV를 확인하며 스캔을 하므로, 작업 생산성이 높다. 또한, R-MMS 자체가 무인 동작이므로 현장 작업 시 안전 문제 등의 발생 소지가 적다. 이와 관련해, R-MMS와 같은 무인 장비를 사용할 경우, 일정한 작업 품질 수준을 보장할 수 있는 지침 개발이 필요할 수 있다. 딥러닝 기술을 이용한 데이터 품질이 개선되면 향수 다양한 환경에서 모바일 맵핑 시스템의 적용이 가능할 것이다.R-MMS has high work productivity because one worker checks and scans the FPV within the remote control range. Additionally, since R-MMS itself operates unmanned, there is little risk of safety issues occurring during field work. In this regard, when using unmanned equipment such as R-MMS, it may be necessary to develop guidelines to ensure a certain level of quality of work. If data quality using deep learning technology improves, it will be possible to apply the mobile mapping system in a variety of environments.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다.In the above, even though all the components constituting the embodiment of the present invention have been described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, as long as it is within the scope of the purpose of the present invention, all of the components may be operated by selectively combining one or more of them. In addition, although all of the components may be implemented as a single independent hardware, a program module in which some or all of the components are selectively combined to perform some or all of the functions of one or more pieces of hardware. It may also be implemented as a computer program with . The codes and code segments that make up the computer program can be easily deduced by a person skilled in the art of the present invention. Such a computer program can be stored in a computer-readable storage medium and read and executed by a computer, thereby implementing embodiments of the present invention.

한편, 이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시 예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주하여야 할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Meanwhile, although the preferred embodiments have been described and illustrated to illustrate the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described, and does not deviate from the scope of the technical idea. Without limitation, those skilled in the art will understand that many changes and modifications can be made to the present invention. Accordingly, all such appropriate changes, modifications and equivalents should be considered to fall within the scope of the present invention. Therefore, the true scope of technical protection of the present invention should be determined by the technical spirit of the attached registration claims.

100: 로버
200: 원격 모니터 장치
300: 모바일 맵핑 장치
310: 전원부
320: 로버 구동부
330: 사용자 인터페이스부
340: 통신 인터페이스부
350: GPS 센서
360: IMU 센서
370: 스캐너
380: 모바일 맵핑 모듈
100: Rover
200: remote monitor device
300: mobile mapping device
310: power unit
320: Rover driving unit
330: User interface unit
340: Communication interface unit
350: GPS sensor
360: IMU sensor
370: scanner
380: Mobile mapping module

Claims (10)

위치 센싱데이터를 획득하는 GPS 센서;
움직임 센싱데이터를 획득하는 IMU 센서;
건설 현장을 실시간으로 3차원 스캐닝하여 시점 별 스캐닝 데이터를 획득하는 스캐너; 및
위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 융합하고, SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하고, 스캔데이터셋과 정합데이터셋을 데이터베이스에 저장하여 관리하는 모바일 맵핑 모듈;
을 포함하고,
상기 GPS 센서, IMU 센서, 스캐너 및 모바일 맵핑 모듈은 건설 현장을 이동하는 로버에 착탈이 가능하도록 장착되되,
상기 모바일 맵핑 모듈은,
상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 필터링하는 필터링부;
상기 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 동기화한 후 융합하여 스캔데이터셋을 생성하는 SDF(Sensor Data Fusion)부;
상기 스캐너가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 SLAM부; 및
상기 SDF부에서 생성되는 스캔데이터셋을 DB에 저장 및 관리하는 데이터 관리부;
를 포함하고,
상기 SDF부는
위치 센싱데이터, 움직임 센싱 데이터 및 시점별 스캐닝 데이터의 취득시점을 동기화하기 위하여 필터링된 데이터에 타임스탬프를 추가하고,
타임스템프가 추가된 스캐닝 데이터를 기준으로 필터링된 센싱데이터와 움직임 센싱 데이터를 동기화하는 과정과
확인된 시간에 센싱된 위치데이터가 없는 경우, 확인된 시간 이전에 센싱된 위치 센싱데이터와 이후에 센싱된 위치 센싱데이터를 이용하여 상기 확인된 시간에 해당하는 위치 센싱데이터를 선형보간을 통해 생성하는 과정을
더 포함하는 건설 인프라 스캔 작업 지원용 로버 기반 3차원 스캔 데이터 모바일 맵핑 장치.
GPS sensor that acquires location sensing data;
IMU sensor that acquires motion sensing data;
A scanner that 3D scans the construction site in real time to obtain scanning data at each point in time; and
A mobile mapping module that fuses location sensing data, motion sensing data, and scanning data for each viewpoint, performs real-time PCD registration by applying the SLAM algorithm, and stores and manages the scan data set and registration data set in the database;
Including,
The GPS sensor, IMU sensor, scanner, and mobile mapping module are removably mounted on a rover moving around the construction site.
The mobile mapping module is,
a filtering unit that filters the location sensing data, motion sensing data, and scanning data for each viewpoint;
An SDF (Sensor Data Fusion) unit that generates a scan data set by synchronizing and fusing data acquisition points of the filtered position sensing data, motion sensing data, and scanning data for each viewpoint;
A SLAM unit that performs real-time PCD registration by applying a SLAM algorithm to scanning data for each viewpoint acquired while the scanner moves; and
A data management unit that stores and manages the scan data set generated in the SDF unit in a DB;
Including,
The SDF department
A timestamp is added to the filtered data to synchronize the acquisition time of location sensing data, motion sensing data, and scanning data for each viewpoint.
The process of synchronizing filtered sensing data and motion sensing data based on scanning data with a timestamp added.
If there is no location data sensed at the confirmed time, position sensing data corresponding to the confirmed time is generated through linear interpolation using the position sensing data sensed before the confirmed time and the position sensing data sensed after the confirmed time. process
A rover-based 3D scan data mobile mapping device for supporting construction infrastructure scanning operations, including further.
삭제delete 삭제delete (A) 로버가 스캔 이동 경로를 따라 건설 현장을 이동하는 동안, GPS 센서가 위치 센싱데이터를 획득하는 단계;
(B) IMU 센서가 움직임 센싱데이터를 획득하는 단계;
(C) 스캐너가 상기 건설 현장을 실시간으로 3차원 스캐닝하여 시점 별 스캐닝 데이터를 획득하는 단계; 및
(D) 모바일 맵핑 모듈이, 상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 융합하고, SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 단계;
를 포함하되,
상기 (D) 단계는,
(D1) 상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 필터링하는 단계;
(D2) 상기 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 동기화한 후 융합하여 스캔데이터셋을 생성하는 단계;
(D3) 단계의 타임스탬프를 추가하는 단계에서
확인된 시간에 센싱된 위치데이터가 없는 경우, 확인된 시간 이전에 센싱된 위치 센싱데이터와 이후에 센싱된 위치 센싱데이터를 이용하여 상기 확인된 시간에 해당하는 위치 센싱데이터를 선형보간을 통해 생성하는 단계;
(D4) 상기 스캐너가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 단계; 및
(D5) 상기 (D2) 단계에서 생성되는 스캔데이터셋을 DB에 저장 및 관리하는 단계;
를 포함하는 것을 특징으로 하는 건설 인프라 스캔 작업 지원용 로버 기반 3차원 스캔 데이터 모바일 맵핑 방법.
(A) A GPS sensor acquires location sensing data while the rover moves around the construction site along a scanning path;
(B) IMU sensor acquiring motion sensing data;
(C) obtaining scanning data for each viewpoint by using a scanner to 3D scan the construction site in real time; and
(D) a mobile mapping module fusing the location sensing data, motion sensing data, and scanning data for each viewpoint, and performing real-time PCD matching by applying a SLAM algorithm;
Including,
In step (D),
(D1) filtering the location sensing data, motion sensing data, and scanning data for each viewpoint;
(D2) synchronizing the data acquisition time points of the filtered position sensing data, motion sensing data, and scanning data for each viewpoint and fusing them to create a scan data set;
In the step of adding the timestamp of step (D3)
If there is no location data sensed at the confirmed time, position sensing data corresponding to the confirmed time is generated through linear interpolation using the position sensing data sensed before the confirmed time and the position sensing data sensed after the confirmed time. step;
(D4) performing real-time PCD registration by applying the SLAM algorithm to scanning data for each viewpoint acquired while the scanner moves; and
(D5) storing and managing the scan data set generated in step (D2) in a DB;
A rover-based 3D scan data mobile mapping method for supporting construction infrastructure scanning tasks, comprising:
삭제delete 삭제delete 스캔 이동 경로를 따라 건설 현장을 이동하는 로버; 및
상기 로버의 위치 센싱데이터, 움직임 센싱데이터, 건설 현장을 실시간으로 3차원 스캐닝하여 획득한 시점 별 스캐닝 데이터를 융합하고, 스캐너가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM알고리즘을 적용하여 실시간 PCD 정합을 수행하는 모바일 맵핑 장치;
를 포함하되
상기 모바일 맵핑 장치는,
상기 위치 센싱데이터를 획득하는 GPS 센서(350);
상기 움직임 센싱데이터를 획득하는 IMU 센서(Inertial Measurement Unit);
상기 건설 현장을 실시간으로 3차원 스캐닝하여 시점 별 스캐닝 데이터를 획득하는 스캐너;
상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 필터링하는 필터링부;
상기 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 동기화한 후 융합하여 스캔데이터셋을 생성하며, 확인된 시간에 센싱된 위치데이터가 없는 경우, 확인된 시간 이전에 센싱된 위치 센싱데이터와 이후에 센싱된 위치 센싱데이터를 이용하여 상기 확인된 시간에 해당하는 위치 센싱데이터를 선형보간을 통해 생성하는 SDF(Sensor Data Fusion)부;
상기 스캐너가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 SLAM부; 및
상기 SDF부에서 생성되는 스캔데이터셋을 DB에 저장 및 관리하는 데이터 관리부;을 포함하고,
상기 GPS 센서, IMU 센서, 스캐너 및 모바일 맵핑 모듈은 건설현장을 이동하는 로버에 착탈가능하도록 장착되는 건설 인프라 스캔 작업 지원용 로버 기반 3차원 스캔 데이터 모바일 맵핑 시스템.

A rover moving around a construction site following a scanned path; and
The rover's position sensing data, motion sensing data, and scanning data for each viewpoint acquired by real-time 3D scanning of the construction site are fused, and the SLAM algorithm is applied to the scanning data for each viewpoint acquired as the scanner moves to perform real-time PCD matching. A mobile mapping device that performs;
Including
The mobile mapping device,
A GPS sensor 350 that acquires the location sensing data;
An IMU sensor (Inertial Measurement Unit) that acquires the motion sensing data;
A scanner that 3D scans the construction site in real time to obtain scanning data for each viewpoint;
a filtering unit that filters the location sensing data, motion sensing data, and scanning data for each viewpoint;
The data acquisition time of the filtered location sensing data, motion sensing data, and scanning data for each time point are synchronized and then fused to create a scan data set. If there is no location data sensed at the confirmed time, sensing is performed before the confirmed time. An SDF (Sensor Data Fusion) unit that generates position sensing data corresponding to the confirmed time through linear interpolation using the confirmed position sensing data and the later sensed position sensing data;
A SLAM unit that performs real-time PCD registration by applying a SLAM algorithm to scanning data for each viewpoint acquired while the scanner moves; and
It includes a data management unit that stores and manages the scan data set generated in the SDF unit in the DB,
The GPS sensor, IMU sensor, scanner, and mobile mapping module are removably mounted on a rover moving around a construction site. A rover-based 3D scan data mobile mapping system for supporting construction infrastructure scanning work.

삭제delete 삭제delete 삭제delete
KR1020220121474A 2022-09-26 2022-09-26 System and method for inspecting road facilities using artificial intelligence KR102589483B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220121474A KR102589483B1 (en) 2022-09-26 2022-09-26 System and method for inspecting road facilities using artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220121474A KR102589483B1 (en) 2022-09-26 2022-09-26 System and method for inspecting road facilities using artificial intelligence

Publications (1)

Publication Number Publication Date
KR102589483B1 true KR102589483B1 (en) 2023-10-16

Family

ID=88506111

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220121474A KR102589483B1 (en) 2022-09-26 2022-09-26 System and method for inspecting road facilities using artificial intelligence

Country Status (1)

Country Link
KR (1) KR102589483B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160147127A (en) * 2015-06-11 2016-12-22 한국과학기술원 Method and apparatus for robust localization in outdoor environments
KR20160149843A (en) * 2015-06-19 2016-12-28 삼성중공업 주식회사 Apparatus for registration of scan data
KR20190045006A (en) 2017-10-23 2019-05-02 주식회사 유진로봇 Method and Apparatus for Localization and Mapping Using LIDAR
KR20210118119A (en) * 2019-01-22 2021-09-29 벨로다인 라이더 유에스에이, 인크. Generation of structured map data from vehicle sensors and camera arrays
KR102335974B1 (en) * 2021-07-27 2021-12-07 주식회사 클레빌 An Autonomous Robot System comprising precision mapping technology with interchangeable Work Module

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160147127A (en) * 2015-06-11 2016-12-22 한국과학기술원 Method and apparatus for robust localization in outdoor environments
KR20160149843A (en) * 2015-06-19 2016-12-28 삼성중공업 주식회사 Apparatus for registration of scan data
KR20190045006A (en) 2017-10-23 2019-05-02 주식회사 유진로봇 Method and Apparatus for Localization and Mapping Using LIDAR
KR20210118119A (en) * 2019-01-22 2021-09-29 벨로다인 라이더 유에스에이, 인크. Generation of structured map data from vehicle sensors and camera arrays
KR102335974B1 (en) * 2021-07-27 2021-12-07 주식회사 클레빌 An Autonomous Robot System comprising precision mapping technology with interchangeable Work Module

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
강태욱, 신속한 건축물 스캔을 위한 SLAM기반 이동형 스캔백팩 시스템 개발 고려사항 도출, 한국산학기술학회논문지(2020.03.31.)* *

Similar Documents

Publication Publication Date Title
US11783553B2 (en) Systems and methods for facilitating creation of a map of a real-world, process control environment
KR101583723B1 (en) Interactive synchronizing system of BIM digital model and Real construction site
Papachristos et al. Localization uncertainty-aware autonomous exploration and mapping with aerial robots using receding horizon path-planning
CN109599945A (en) A kind of autonomous crusing robot cruising inspection system of wisdom power plant and method
US8396254B1 (en) Methods and systems for estimating a location of a robot
CN112650255A (en) Robot indoor and outdoor positioning navigation system method based on vision and laser radar information fusion
US20210221001A1 (en) Map-based framework for the integration of robots and smart devices
KR102092392B1 (en) Method and system for automatically collecting and updating information about point of interest in real space
CN101970187A (en) Methods for repurposing temporal-spatial information collected by service robots
JP2020080147A (en) Maintenance activity support system and maintenance activity support method
JPH11104984A (en) Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer
CN109491383A (en) Multirobot positions and builds drawing system and method
CN109035747A (en) A kind of intelligent family moving platform system and its traffic control method
US20220100571A1 (en) Scheduling system, scheduling method, and non-transitory recording medium
JP2021196706A (en) Field support device and field support device system
Srinivas et al. A graphical language for LTL motion and mission planning
WO2015097269A1 (en) System, especially for production, utilizing cooperating robots
KR102589483B1 (en) System and method for inspecting road facilities using artificial intelligence
CN114448114A (en) Intelligent wireless power supply system based on mobile robot
JP2023164746A (en) Work plan making system
JP6725736B1 (en) Image specifying system and image specifying method
CN116423515B (en) Digital twin control system of multiple robots and positioning and mapping method thereof
JP7072311B1 (en) Movement route generation method and program of moving object, management server, management system
Djoko-Kouam et al. Towards a Bijective Co-simulation Model Between Physical and Virtual Environments, Adapted to a Platform for Autonomous Industrial Vehicles
Walker et al. Enabling operational autonomy in earth-moving with real-time 3D environment modelling

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant