KR102589483B1 - System and method for inspecting road facilities using artificial intelligence - Google Patents
System and method for inspecting road facilities using artificial intelligence Download PDFInfo
- Publication number
- KR102589483B1 KR102589483B1 KR1020220121474A KR20220121474A KR102589483B1 KR 102589483 B1 KR102589483 B1 KR 102589483B1 KR 1020220121474 A KR1020220121474 A KR 1020220121474A KR 20220121474 A KR20220121474 A KR 20220121474A KR 102589483 B1 KR102589483 B1 KR 102589483B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- sensing data
- scanning
- time
- viewpoint
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 238000013473 artificial intelligence Methods 0.000 title 1
- 238000013507 mapping Methods 0.000 claims abstract description 75
- 230000033001 locomotion Effects 0.000 claims abstract description 71
- 241001061260 Emmelichthys struhsakeri Species 0.000 claims abstract description 57
- 238000010276 construction Methods 0.000 claims abstract description 39
- 238000001914 filtration Methods 0.000 claims description 11
- 238000013523 data management Methods 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 6
- 230000001360 synchronised effect Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 7
- 238000012806 monitoring device Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000013480 data collection Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Abstract
본 발명은 건설 인프라 스캔 작업 지원용 로버 기반 3차원 스캔 모바일 맵핑 시스템 및 방법에 관한 것으로, 위치 센싱데이터를 획득하는 GPS 센서와, 움직임 센싱데이터를 획득하는 IMU 센서와, 건설 현장을 실시간으로 3차원 스캐닝하여 시점 별 스캐닝 데이터를 획득하는 스캐너와, 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 융합(Fusion)하고, SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 모바일 맵핑 모듈을 포함할 수 있다. The present invention relates to a rover-based 3D scanning mobile mapping system and method for supporting construction infrastructure scanning work, which includes a GPS sensor for acquiring location sensing data, an IMU sensor for acquiring motion sensing data, and 3D scanning of a construction site in real time. It may include a scanner that acquires scanning data for each viewpoint, and a mobile mapping module that fuses location sensing data, motion sensing data, and scanning data for each viewpoint, and performs real-time PCD registration by applying the SLAM algorithm.
Description
본 발명은 로버 기반 3차원 스캔 모바일 맵핑 시스템 및 방법에 관한 것으로서, 보다 상세하게는, 실시간으로 데이터 정합이 가능한 모바일 맵핑과 지상형 로버 기술을 활용해, 스캔 작업 생산성을 높일 수 있는 건설 인프라 스캔 작업 지원용 로버 기반 3차원 스캔 모바일 맵핑 시스템 및 방법에 관한 것이다.The present invention relates to a rover-based 3D scanning mobile mapping system and method. More specifically, construction infrastructure scanning work that can increase scanning productivity by utilizing mobile mapping capable of real-time data matching and ground rover technology. It relates to a support rover-based 3D scanning mobile mapping system and method.
최근 건설 산업에서 스마트 건설 기술의 필요성이 높아지고 있다. 스마트 건설 기술이 구현되기 위해서는 건설 현장 데이터 수집이 필수적이다. Recently, the need for smart construction technology has been increasing in the construction industry. In order for smart construction technology to be implemented, construction site data collection is essential.
건설 현장 데이터는 목적에 맞는 다양한 센서 등을 이용해 취득할 수 있다. 취득되는 건설 현장 데이터 중, 3차원 스캔 데이터는 다른 센서 데이터들에 비해 다양한 목적으로 활용될 수 있다. Construction site data can be acquired using various sensors suitable for the purpose. Among the acquired construction site data, 3D scan data can be used for various purposes compared to other sensor data.
3차원 스캔 데이터는 현장 상황을 3차원 그대로 재현하므로, 데이터 수집된 후에는 매번 작업자의 현장 방문과 조사 없이도 3차원 디지털 모델에서 건설 시설물의 정확한 위치, 크기, 부피 등을 필요할 때마다 얻을 수 있다. 3D scan data reproduces the site situation in 3D, so after data collection, the exact location, size, and volume of construction facilities can be obtained from the 3D digital model whenever necessary without the need for workers to visit and investigate the site each time.
특히 3차원 스캔 데이터는 유용한 데이터를 포함하고 있어, 정밀시공, 무인 자율차, 로보틱스, 3차원 지도 생성 등 다양한 어플리케이션에서 사용되고 있다. In particular, 3D scan data contains useful data and is used in various applications such as precision construction, unmanned autonomous vehicles, robotics, and 3D map creation.
이러한 스캔 데이터 취득에는 고정형 LiDAR(Light Detection and Ranging) 기술과 이동식 LiDAR 기술이 있다. 고정형 LiDAR 기술은 이동식 LiDAR에 비해 정확도와 밀도가 높으나 스캔할 때마다 매번 작업자가 무거운 센서 장비를 재설치하여 스캔하고, 스캔 후 데이터 정합을 위해 후처리하고, 정합하는데 오랜 시간이 걸린다. There are two types of scan data acquisition: fixed LiDAR (Light Detection and Ranging) technology and mobile LiDAR technology. Fixed LiDAR technology has higher accuracy and density than mobile LiDAR, but it takes a long time for workers to reinstall heavy sensor equipment every time they scan, and to post-process and match data after scanning.
따라서, 상대적으로 높지 않은 정확도를 필요로 하는 건축물 관리 분야에서 공간을 자유롭게 이동하면서 스캐닝하고, 스캐닝 결과를 정합하여 공간정보를 제공할 수 있는 기술이 필요하다.Therefore, in the field of building management, which requires relatively high accuracy, there is a need for technology that can scan space while freely moving and match the scanning results to provide spatial information.
전술한 문제점을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, 실시간으로 데이터 정합이 가능한 모바일 맵핑과 지상형 로버 기술을 활용해, 스캔 작업 생산성을 높일 수 있는 로버 기반 3차원 스캔 모바일 맵핑 시스템(R-MMS(Rover-based Mobile Mapping System)) 및 방법을 제시하는 데 있다.In order to solve the above-mentioned problems, the technical problem that the present invention aims to achieve is a rover-based 3D scanning mobile mapping system (R) that can increase scanning productivity by utilizing mobile mapping capable of real-time data matching and ground-type rover technology. -To present MMS (Rover-based Mobile Mapping System) and method.
본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.
전술한 기술적 과제를 해결하기 위한 수단으로서, 본 발명의 실시 예에 따른 로버 기반 3차원 스캔 데이터 모바일 맵핑 장치는 위치 센싱데이터를 획득하는 GPS 센서; 움직임 센싱데이터를 획득하는 IMU 센서(Inertial Measurement Unit); 건설 현장을 실시간으로 3차원 스캐닝하여 시점 별 스캐닝 데이터를 획득하는 스캐너; 및 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 융합(Fusion)하고, SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 모바일 맵핑 모듈;을 포함하고, 상기 GPS 센서, IMU 센서, 스캐너 및 모바일 맵핑 모듈은 건설 현장을 이동하는 로버에 장착될 수 있다. As a means to solve the above-described technical problem, a rover-based 3D scan data mobile mapping device according to an embodiment of the present invention includes a GPS sensor for acquiring location sensing data; IMU sensor (Inertial Measurement Unit) that acquires motion sensing data; A scanner that 3D scans the construction site in real time to obtain scanning data at each point in time; and a mobile mapping module that fuses location sensing data, motion sensing data, and scanning data for each viewpoint, and performs real-time PCD matching by applying the SLAM algorithm. It includes the GPS sensor, IMU sensor, scanner, and mobile mapping. The module can be mounted on a rover that moves around the construction site.
상기 모바일 맵핑 모듈은, 상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 필터링하는 필터링부; 상기 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 동기화한 후 융합하여 스캔데이터셋을 생성하는 SDF(Sensor Data Fusion)부; 상기 스캐너가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 SLAM부; 및 상기 SDF부에서 생성되는 스캔데이터셋을 DB에 저장 및 관리하는 데이터 관리부;를 포함할 수 있다.The mobile mapping module includes a filtering unit that filters the location sensing data, motion sensing data, and scanning data for each viewpoint; An SDF (Sensor Data Fusion) unit that generates a scan data set by synchronizing and fusing data acquisition points of the filtered position sensing data, motion sensing data, and scanning data for each viewpoint; A SLAM unit that performs real-time PCD registration by applying a SLAM algorithm to scanning data for each viewpoint acquired while the scanner moves; and a data management unit that stores and manages the scan data set generated in the SDF unit in a DB.
상기 SDF부는, 상기 데이터 취득 시점을 동기화하기 위하여, 상기 필터링된 시점 별 스캐닝 데이터를 기준으로 상기 필터링된 위치 센싱데이터와 움직임 센싱데이터를 동기화할 수 있다.In order to synchronize the data acquisition time, the SDF unit may synchronize the filtered position sensing data and motion sensing data based on the filtered scanning data for each time point.
한편, 본 발명의 다른 실시 예에 따른 로버 기반 3차원 스캔 데이터 모바일 맵핑 방법은, (A) 로버가 스캔 이동 경로를 따라 건설 현장을 이동하는 동안, GPS 센서가 위치 센싱데이터를 획득하는 단계; (B) IMU 센서 (Inertial Measurement Unit)가 움직임 센싱데이터를 획득하는 단계; (C) 스캐너가 상기 건설 현장을 실시간으로 3차원 스캐닝하여 시점 별 스캐닝 데이터를 획득하는 단계; 및 (D) 모바일 맵핑 모듈이, 상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 융합(Fusion)하고, SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 단계;를 포함할 수 있다.Meanwhile, a rover-based 3D scan data mobile mapping method according to another embodiment of the present invention includes the steps of: (A) a GPS sensor acquiring location sensing data while the rover moves around the construction site along a scan movement path; (B) a step in which an IMU sensor (Inertial Measurement Unit) acquires motion sensing data; (C) obtaining scanning data for each viewpoint by using a scanner to 3D scan the construction site in real time; and (D) the mobile mapping module fusing the location sensing data, motion sensing data, and scanning data for each viewpoint, and performing real-time PCD matching by applying a SLAM algorithm.
상기 (D) 단계는, (D1) 상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 필터링하는 단계; (D2) 상기 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 동기화한 후 융합하여 스캔데이터셋을 생성하는 단계; (D3) 상기 스캐너가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 단계; 및 (D4) 상기 (D2) 단계에서 생성되는 스캔데이터셋을 DB에 저장 및 관리하는 단계;를 포함할 수 있다.The step (D) includes (D1) filtering the location sensing data, motion sensing data, and scanning data for each viewpoint; (D2) synchronizing the data acquisition time points of the filtered position sensing data, motion sensing data, and scanning data for each viewpoint and fusing them to create a scan data set; (D3) performing real-time PCD registration by applying the SLAM algorithm to scanning data for each viewpoint acquired while the scanner moves; and (D4) storing and managing the scan data set generated in step (D2) in a DB.
상기 (D2) 단계는, 상기 데이터 취득 시점을 동기화하기 위하여, 상기 필터링된 시점 별 스캐닝 데이터를 기준으로 상기 필터링된 위치 센싱데이터와 움직임 센싱데이터를 동기화할 수 있다.In step (D2), in order to synchronize the data acquisition time, the filtered location sensing data and the motion sensing data may be synchronized based on the filtered scanning data for each time point.
한편, 본 발명의 다른 실시 예에 따른 로버 기반 3차원 스캔 데이터 모바일 맵핑 시스템은, 스캔 이동 경로를 따라 건설 현장을 이동하는 로버; 및 상기 로버의 위치 센싱데이터, 움직임 센싱데이터, 건설 현장을 실시간으로 3차원 스캐닝하여 획득한 시점 별 스캐닝 데이터를 융합(Fusion)하고, 상기 스캐너가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 모바일 맵핑 장치;를 포함할 수 있다.Meanwhile, a rover-based 3D scan data mobile mapping system according to another embodiment of the present invention includes a rover that moves around a construction site along a scanned path; And the rover's position sensing data, motion sensing data, and scanning data for each viewpoint acquired by 3D scanning the construction site in real time are fused, and a SLAM algorithm is applied to the scanning data for each viewpoint acquired while the scanner moves. It may include a mobile mapping device that performs real-time PCD matching.
상기 모바일 맵핑 장치는, 상기 위치 센싱데이터를 획득하는 GPS 센서; 상기 움직임 센싱데이터를 획득하는 IMU 센서(Inertial Measurement Unit); 상기 건설 현장을 실시간으로 3차원 스캐닝하여 시점 별 스캐닝 데이터를 획득하는 스캐너; 및 상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 융합(Fusion)하고, SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 모바일 맵핑 모듈;을 포함하고, 상기 GPS 센서, IMU 센서, 스캐너 및 모바일 맵핑 모듈은 건설 현장을 이동하는 로버에 장착될 수 있다.The mobile mapping device includes a GPS sensor that acquires the location sensing data; An IMU sensor (Inertial Measurement Unit) that acquires the motion sensing data; A scanner that 3D scans the construction site in real time to obtain scanning data for each viewpoint; And a mobile mapping module that fuses the location sensing data, motion sensing data, and scanning data for each viewpoint, and performs real-time PCD matching by applying the SLAM algorithm; including, the GPS sensor, IMU sensor, scanner, and mobile The mapping module can be mounted on a rover moving around a construction site.
상기 모바일 맵핑 모듈은, 상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 필터링하는 필터링부; 상기 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 동기화한 후 융합하여 스캔데이터셋을 생성하는 SDF(Sensor Data Fusion)부; 상기 스캐너가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 SLAM부; 및 상기 SDF부에서 생성되는 스캔데이터셋을 DB에 저장 및 관리하는 데이터 관리부;를 포함할 수 있다.The mobile mapping module includes a filtering unit that filters the location sensing data, motion sensing data, and scanning data for each viewpoint; An SDF (Sensor Data Fusion) unit that generates a scan data set by synchronizing and fusing data acquisition points of the filtered position sensing data, motion sensing data, and scanning data for each viewpoint; A SLAM unit that performs real-time PCD registration by applying a SLAM algorithm to scanning data for each viewpoint acquired while the scanner moves; and a data management unit that stores and manages the scan data set generated in the SDF unit in a DB.
상기 SDF부는, 상기 데이터 취득 시점을 동기화하기 위하여, 상기 필터링된 시점 별 스캐닝 데이터를 기준으로 상기 필터링된 위치 센싱데이터와 움직임 센싱데이터를 동기화할 수 있다.In order to synchronize the data acquisition time, the SDF unit may synchronize the filtered position sensing data and motion sensing data based on the filtered scanning data for each time point.
본 발명에 따르면, 로버를 이용하여 현장을 이동하면서 실시간으로 현장을 스캐닝하고, 스캐닝에 의해 획득되는 PCD와 GPS 센싱데이터와 IMU 센싱데이터를 실시간으로 융합하고, 이후 SLAM 정합하여 확인가능하도록 함으로써 저비용으로도 공간정보를 실시간으로 제공할 수 있다.According to the present invention, the site is scanned in real time while moving around the site using a rover, the PCD, GPS sensing data, and IMU sensing data obtained through scanning are fused in real time, and then SLAM is matched to enable confirmation at low cost. Spatial information can also be provided in real time.
본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
도 1은 본 발명의 실시 예에 따른 로버 기반 3차원 스캔 데이터 모바일 맵핑 시스템을 도시한 도면,
도 2는 도 1에 도시된 1은 본 발명의 실시 예에 따른 모바일 맵핑 장치(300)를 도시한 블록도,
도 3은 프로세서(384)를 자세히 도시한 블록도,
도 4는 SDF부(384b)가 센싱데이터를 동기화하는 SDF 알고리즘을 설명하기 위한 도면,
도 5는 R-MMS DB 아키텍쳐를 UML(Unified Modeling Language)로 설계한 예시도,
도 6은 R-MMS에서 각 구성요소 간에 데이터 교환, 처리 및 관리되는 데이터셋을 정의한 도면, 그리고,
도 7은 본 발명의 실시 예에 따른 모바일 맵핑 방법을 도시한 흐름도이다.1 is a diagram illustrating a rover-based 3D scan data mobile mapping system according to an embodiment of the present invention;
2 is a block diagram showing the
3 is a block diagram detailing the
Figure 4 is a diagram for explaining the SDF algorithm by which the
Figure 5 is an example of the R-MMS DB architecture designed in UML (Unified Modeling Language).
Figure 6 is a diagram defining the data sets that are exchanged, processed, and managed between each component in R-MMS, and
Figure 7 is a flowchart showing a mobile mapping method according to an embodiment of the present invention.
본 발명의 실시를 위한 구체적인 내용을 설명하기에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사항에 부합하는 의미와 개념으로 해석되어야 할 것이다.Before explaining the specific details for practicing the present invention, the terms and words used in the specification and claims may be used by the inventor to appropriately define the concept of the term in order to explain the invention in the best way. It should be interpreted as meaning and concept consistent with the technical details of the present invention based on the principle that it is.
또한, 본 발명에 관련된 공지 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.Additionally, it should be noted that if a detailed description of a known function related to the present invention and its configuration is judged to unnecessarily obscure the gist of the present invention, the detailed description has been omitted.
어떤 엘리먼트, 구성요소, 장치, 또는 시스템이 프로그램 또는 소프트웨어로 이루어진 구성요소를 포함한다고 언급되는 경우, 명시적인 언급이 없더라도, 그 엘리먼트, 구성요소, 장치, 또는 시스템은 그 프로그램 또는 소프트웨어가 실행 또는 동작하는데 필요한 하드웨어(예를 들면, 메모리, CPU 등)나 다른 프로그램 또는 소프트웨어(예를 들면 운영체제나 하드웨어를 구동하는데 필요한 드라이버 등)를 포함하는 것으로 이해되어야 할 것이다.If any element, component, device, or system is said to contain a component consisting of a program or software, even if explicitly stated, that element, component, device, or system is not intended to allow that program or software to run or operate. It should be understood as including hardware (e.g., memory, CPU, etc.) or other programs or software (e.g., operating system or drivers required to run the hardware) required to run the computer.
또한, 어떤 엘리먼트(또는 구성요소)가 구현됨에 있어서 특별한 언급이 없다면, 그 엘리먼트(또는 구성요소)는 소프트웨어, 하드웨어, 또는 소프트웨어 및 하드웨어 어떤 형태로도 구현될 수 있는 것으로 이해되어야 할 것이다.In addition, unless specifically stated in the implementation of an element (or component), it should be understood that the element (or component) may be implemented in any form of software, hardware, or software and hardware.
또한, 본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것이 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.Additionally, in this specification, a module may mean a functional and structural combination of hardware for carrying out the technical idea of the present invention and software for driving the hardware. For example, the module may mean a logical unit of a predetermined code and hardware resources for executing the predetermined code, and does not necessarily mean a physically connected code or one type of hardware. It can be easily inferred by an average expert in the technical field.
이하에서는 본 발명에서 실시하고자 하는 구체적인 기술내용에 대해 첨부도면을 참조하여 상세하게 설명하기로 한다.Hereinafter, specific technical details to be implemented in the present invention will be described in detail with reference to the accompanying drawings.
도 1 내지 도 3에 도시된 장치들의 각각의 구성은 기능 및/또는 논리적으로 분리될 수 있음을 나타내는 것이며, 반드시 각각의 구성이 별도의 물리적 장치로 구분되거나 별도의 코드로 생성됨을 의미하는 것은 아님을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다. Each configuration of the devices shown in FIGS. 1 to 3 indicates that each configuration can be separated functionally and/or logically, and does not necessarily mean that each configuration is divided into a separate physical device or generated with separate code. An average expert in the technical field of the present invention will be able to easily deduce.
도 1은 본 발명의 실시 예에 따른 로버 기반 3차원 스캔 데이터 모바일 맵핑 시스템을 도시한 도면이다.Figure 1 is a diagram illustrating a rover-based 3D scan data mobile mapping system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시 예에 따른 로버 기반 3차원 스캔 데이터 모바일 맵핑 시스템은 로버(100), 원격 모니터링 장치(200) 및 모바일 맵핑 장치(300)를 포함할 수 있다.Referring to FIG. 1, a rover-based 3D scan data mobile mapping system according to an embodiment of the present invention may include a
로버(100)는 스캔 이동 경로를 따라 건설 현장을 자동으로 이동할 수 있다. The
로버(100)는 바퀴를 이용하여 자율 주행이 가능한 장치로서, 모바일 맵핑 장치(300)의 제어에 따라서, 또는 사용자의 원격 제어에 따라서 전진, 후진, 좌회전 및 우회전을 포함하는 다양한 방향으로 주행할 수 있다. 또한, 로버(100)는 정확한 거리로 이동하며, 회전 각도에 따라 앞뒤좌우로의 이동 및 방향 전환이 가능하다.The
원격 모니터링 장치(200)는 로버(100)의 이동 거리, 이동 방향 및 회전량 등 로버(100)의 상태, 움직임을 모바일 맵핑 장치(300)를 통해 수신하거나 로버(100)로부터 직접 수신하여 표시하고, 모바일 맵핑 장치(300)에서 스캔된 3차원 스캔 이미지를 표시하여 사용자가 로버(100)와 건설 현장 스캔 결과를 실시간으로 원격 모니터링하도록 할 수 있다.The
또한, 원격 모니터링 장치(200)는 로버(100)의 주행을 제어하기 위한 원격 제어 신호, 모바일 맵핑 장치(300)의 센싱 동작을 제어하기 위한 원격 제어 신호를 로버(100) 또는 모바일 맵핑 장치(300)로 전송할 수도 있다. In addition, the
모바일 맵핑 장치(300)는 로버(100)에 착탈가능하도록 장착되며, 로버(100)의 위치를 센싱한 위치 센싱데이터, 로버(100)의 움직임을 센싱한 움직임 센싱데이터, 로버(100)가 이동하는 동안 건설 현장을 실시간으로 3차원 스캐닝하여 획득한 시점 별(또는 장면 별) 스캐닝 데이터를 융합(Fusion)하고, SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행할 수 있다. The
도 2는 도 1에 도시된 본 발명의 실시 예에 따른 모바일 맵핑 장치(300)를 도시한 블록도이다.FIG. 2 is a block diagram showing a
도 2를 참조하면, 본 발명의 실시 예에 따른 모바일 맵핑 장치(300)는 전원부(310), 로버 구동부(320), 사용자 인터페이스부(330), 통신 인터페이스부(340), GPS(Global Positioning System) 센서(350), IMU(Inertial Measurement Unit) 센서(360), 스캐너(370) 및 모바일 맵핑 모듈(380)을 포함할 수 있다.Referring to FIG. 2, the
전원부(310)는 모바일 맵핑 장치(300)의 각 구성요소들(310~170) 또는 로버(100)에 전원을 공급하며, 일 예로 배터리일 수 있다.The
로버 구동부(320)는 로버(100)를 구동시키고, 움직임을 제어할 수 있다.The
전원부(310)와 로버 구동부(320)는 예를 들어, 70 Kg Payload를 지원하는 모터 드라이버와 배터리 시스템으로 구현될 수 있으며, 이는 일 예로서 이에 한정되지 않을 수 있다.For example, the
사용자 인터페이스부(330)는 사용자와 모바일 맵핑 장치(300) 간의 인터페이싱 경로를 제공하는 회로를 포함한다. 사용자 인터페이스부(330)는 예를 들어, 스캐닝 시작, 스캐닝 멈춤, 각종 센싱데이터 기록, 각종 센싱데이터 표시 등 모바일 맵핑 장치(300)에서 제공하는 기능을 조작하기 위한 명령을 사용자로부터 입력받아 모바일 맵핑 장치(300)로 전달할 수 있다. The user interface unit 330 includes circuitry that provides an interfacing path between the user and the
통신 인터페이스부(340)는 GPS 센서(350), IMU 센서(360) 또는 스캐너(370)에서 센싱된 데이터를 원격 모니터링 장치(200)로 유선 또는 무선 통신네트워크를 통해 전송할 수 있다. 또한, 통신 인터페이스부(340)는 원격 모니터링 장치(200)로부터 원격 제어 신호를 수신하여 모바일 맵핑 모듈(380)로 전달할 수 있다.The communication interface unit 340 may transmit data sensed by the
GPS 센서(350)는 로버(100)에 장착되어 현재 위치를 센싱하고 위치 센싱데이터를 모바일 맵핑 장치(300)로 전달할 수 있다.The
IMU 센서(360)는 로버(100)에 장착되어 로버(100)의 움직임 센싱데이터를 획득하고, 획득된 움직임 센싱데이터를 모바일 맵핑 장치(300)로 전달할 수 있다. IMU 센서(360)가 획득하는 움직임 센싱데이터는 모바일 맵핑 장치(300)의 위치 정보와 자세 정보를 포함하는 IMU 센서 센싱데이터로서, SALM 정합 시 사용되어 정합 정확도를 높일 수 있다.The
스캐너(370)는 건설 현장을 실시간으로 3차원 스캐닝하여 시점 별(또는 장면(scene) 별)로 스캐닝 데이터를 획득할 수 있다. 스캐너(370)는 이동식 3D LiDAR(Light Detection And Ranging) 센서를 사용할 수 있다.The
모바일 맵핑 모듈(380)은 GPS 센서(350)의 위치 센싱데이터, IMU 센서(360)의 움직임 센싱데이터 및 스캐너(370)의 시점 별 스캐닝 데이터를 융합(Fusion)하고, SLAM(Simultaneous Localization and Mapping) 알고리즘을 적용하여 실시간 PCD 정합을 수행할 수 있다. The
모바일 맵핑 모듈(380)은 스캐너(370)가 이동하면서 획득하거나 같은 장소에서 시차를 두어 획득하거나 같은 장소에서 스캐닝 각도를 변경하여 획득하는 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행할 수 있다.The
또한, 각 구성요소들 간 데이터 교환 및 기능 호출을 위한 메시지 교환을 위해서 모바일 맵핑 모듈(380)은 말단 센서 및 장치들과 통신할 수 있다. 통신 상태는 모니터링될 수 있어야 하며, 데이터 및 메시지 교환 시 문제가 발생할 경우, 기록되고 진단될 수 있어야 하며, 이를 고려하여 본 발명에서는 ROS(Robot Operating System)을 사용할 수 있다.In addition, the
모바일 맵핑 모듈(380)은 메모리(382) 및 프로세서(384)를 포함할 수 있다.
메모리(382)는 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(382)에는 예를 들어, 모바일 맵핑 장치(300) 또는 로버(100)가 제공하는 동작, 기능 등을 구현 및/또는 제공하기 위하여, 구성요소들에 관계된 명령 또는 데이터, 하나 이상의 프로그램 및/또는 소프트웨어, 운영체제 등이 저장될 수 있다.Memory 382 may include volatile memory and/or non-volatile memory. The memory 382 includes, for example, instructions or data related to components, one or more programs, and/or to implement and/or provide operations, functions, etc. provided by the
메모리(382)에 저장되는 프로그램은 긱종 센싱데이터의 융합을 위한 SDF 알고리즘 구현을 위한 SDF 프로그램과, SLAM 알고리즘 구현을 위한 SLAM 프로그램과, SLAM 알고리즘의 수치해석 및 계산기하학을 지원하는 CGL(Computational Geometry Library)과, GPS 센서(350), IMU 센서(360) 및 스캐너(370)로부터 획득되는 데이터와 프로세서(384) 간의 데이터 교환을 담당하는 ROS(Robot Operating System) 및 임베디드 OS(Embedded Operating System)를 포함할 수 있다. The programs stored in the memory 382 are an SDF program for implementing the SDF algorithm for fusion of various types of sensing data, a SLAM program for implementing the SLAM algorithm, and a CGL (Computational Geometry Library) that supports numerical analysis and computational geometry of the SLAM algorithm. ), a Robot Operating System (ROS) and an Embedded Operating System (OS) responsible for exchanging data between the
프로세서(384)는 메모리(382)에 저장된 하나 이상의 프로그램을 실행하여 모바일 맵핑 장치(300)의 전반적인 동작을 제어한다.The
예를 들어, 프로세서(384)는 메모리(382)에 저장된 SDF 프로그램을 실행하여 GPS 센서(350)의 위치 센싱데이터, IMU 센서(360)의 움직임 센싱데이터 및 스캐너(370)의 시점 별 스캐닝 데이터를 동기화한 후 융합할 수 있다. 또한, 프로세서(384)는 SLAM 프로그램을 실행하여 3차원 스캔 데이터에 존재하는 특징점들을 장면 별로 산출하고, 장면 별로 산출된 특징점들을 비교하여 실시간으로 포인트 클라우드 정합을 수행하여 시설물의 공간 정보를 제공하고, 스캔 데이터셋을 생성 및 관리할 수 있다.For example, the
또한, 프로세서(384)는 모바일 맵핑 장치(300)에 카메라(미도시)가 더 구비된 경우, 카메라 영상을 원격 모니터링 장치(200)로 전송하도록 처리하고, 사용자는 원격 모니터링 장치(200)에 표시되는 카메라 영상을 통해 로버(100)를 원격 제어할 수 있다. Additionally, if the
또한, 프로세서(384)는 각 컴포넌트 간 데이터 교환 및 기능 호출을 위한 메시지 교환을 위해서 각 컴포넌트들과 통신할 수 있으며, 통신 상태를 모니터링하고, 데이터 및 메시지 교환 시 문제가 발생하면 메모리(382)에 기록 및 진단할 수도 있다. In addition, the
도 3은 프로세서(384)를 자세히 도시한 블록도이다.Figure 3 is a block diagram showing the
도 3을 참조하면, 프로세서(384)는 필터링부(384a), SDF부(384b), SLAM부(384c) 및 데이터 관리부(384d)를 포함할 수 있다.Referring to FIG. 3, the
필터링부(384a)는 획득된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 처리를 위하여, 노이즈 제거와 같은 필터링을 수행할 수 있다. 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 스캐닝 데이터는 데이터 정합 시 필요한 데이터 획득을 위해 SDF 알고리즘으로 입력될 수 있다.The
한편, GPS 센서(350), IMU 센서(360) 및 스캐너(370)가 데이터를 센싱하는 Hz 주기는 다르다. 예를 들어, 스캐너(370)는 10Hz로 동작하고, GPS 센서(350)와 IMU 센서(360)는 100Hz로 동작하면 데이터를 취득하는 시점이 다르므로, 각 센싱데이터를 스캐닝 데이터를 기준으로 동기화해야 한다. Meanwhile, the Hz cycle at which the
이를 위하여, SDF부(384b)는 데이터 정합 시 필요한 스캔데이터셋을 획득하기 위하여 필터링부(384a)에서 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 스캐닝 데이터를 SDF 알고리즘에 입력할 수 있다. To this end, the
SDF부(384b)는 SDF 알고리즘을 이용하여 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 동기화한 후 융합하여 스캔데이터셋을 생성할 수 있다.The
자세히 설명하면, SDF부(384b)는 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 동기화하기 위하여, 필터링된 스캐닝 데이터에 타임 스탬프를 추가하고, 타임 스탬프가 추가된 스캐닝 데이터를 기준으로 필터링된 위치 센싱데이터와 움직임 센싱데이터를 동기화할 수 있다. 타임 스탬프는 스캐닝 데이터가 센싱된 시점일 수도 있고, 필터링된 시점일 수도 있으며 본 발명의 실시 예에서는 센싱된 시점을 예로 들어 설명한다.In detail, the
SDF부(384b)는 스캐닝 데이터에 추가된 타임 스탬프의 시간을 확인하고, 확인된 시간에 센싱된 위치 센싱데이터가 없는 경우, 확인된 시간 이전에 센싱된 위치 센싱데이터와 이후에 센싱된 위치 센싱데이터를 이용하여, 상기 확인된 시간에 해당하는 위치 센싱데이터를 선형보간에 의해 생성할 수 있다.The
도 4는 SDF부(384b)가 센싱데이터를 동기화하는 SDF 알고리즘을 설명하기 위한 도면이다.Figure 4 is a diagram for explaining the SDF algorithm by which the
도 4를 참조하면, 스캐닝 데이터에는 타임스탬프(time stamp_LIDAR)가 포함되어 있으며, SDF부(384b)는 필터링된 위치 센싱데이터(sensor_data_GPS)와 움직임 센싱데이터(sensor_data_IMU)를 큐(미도시)에 저장할 수 있다(queue.push(sensor_data)).Referring to FIG. 4, the scanning data includes a timestamp (time stamp_LIDAR), and the
위치 센싱데이터, 움직임 센싱데이터 및 3차원 스캐닝 데이터는 각각의 데이터가 센싱된 시점이 다를 수 있다. 따라서, SDF부(384b)는 3차원 스캐닝 데이터의 타임 스탬프(time_stamp_LIDAR)에 해당하는 위치 센싱데이터와 움직임 센싱데이터가 필요한 경우, 즉, 스캐닝 데이터와 동일한 시점(time_stamp_LIDAR)에서 생성된(또는 센싱된) 위치 센싱데이터와 움직임 센싱데이터의 융합이 필요한 경우, 상기 타임 스탬프(time_stamp_LIDAR)의 시각을 기준으로 바로 이전에 센싱된 위치 센싱데이터와 바로 이후에 센싱된 위치 센싱데이터를 큐로부터 읽어와 선형 보간 처리하여 타임 스탬프(time_stamp_LIDAR)에 해당하는 위치 센싱데이터를 예측할 수 있다. The timing of each data sensing may be different for position sensing data, motion sensing data, and 3D scanning data. Therefore, when the
SDF부(384b)는 움직임 센싱데이터에 대해서도 이와 동일한 동기화 방식을 적용하여 타임스탬프(time_stamp_LIDAR)에 해당하는 움직임 센싱데이터를 예측할 수 있다.The
도 4에서 sensor_data는 선형보간에 의해 예측생성된 위치 센싱데이터와 움직임 센싱데이터이고, P는 타임스탬프(time_stamp_LIDAR)의 시각을 기준으로 이전에 센싱된 위치 센싱데이터와 움직임 센싱데이터이고, N은 이후에 센싱된 위치 센싱데이터와 움직임 센싱데이터이고, C는 선형보간에 의해 예측생성된 위치 센싱데이터와 움직임 센싱데이터이다. In Figure 4, sensor_data is position sensing data and motion sensing data predicted and generated by linear interpolation, P is position sensing data and motion sensing data previously sensed based on the time of the timestamp (time_stamp_LIDAR), and N is later. C is the sensed position sensing data and motion sensing data, and C is the position sensing data and motion sensing data predicted and generated by linear interpolation.
SDF부(384b)는 데이터 동기화가 된 위치 센싱데이터, 움직임 센싱데이터 및 스캐닝 데이터를 융합하여 스캔데이터셋(scan_dataset)을 생성할 수 있다. 생성된 스캔데이터셋은 데이터 관리부(384d)로 전달될 수 있다.The
SLAM부(384c)는 스캐너(370)가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD(Point Cloud Data) 정합을 수행할 수 있다. SLAM부(384c)는 실시간으로 획득되는 PCD 형태의 스캐닝 데이터와 위치 센싱데이터와 움직임 센싱데이터와 SLAM 알고리즘을 이용하여 PCD 정합을 수행할 수 있다. PCT 정합에 의해 생성되는 데이터셋(registered_dataset)은 데이터 관리부(384d)로 전달될 수 있다.The
SLAM 기술은 로보틱스 분야에서 발전된 지도 생성 기술로서, 거리 측정 센서 또는 IMU를 이용해 현재 위치를 인식하면서 시설물에 대한 공간정보를 작성하는 기술이다.SLAM technology is a map generation technology developed in the field of robotics that uses a distance measurement sensor or IMU to recognize the current location and create spatial information about facilities.
데이터 관리부(384d)는 융합된 스캔데이터셋(scan_dataset)과 정합된 데이터셋(registered_dataset)을 DB(미도시)에 저장 및 관리할 수 있다. 데이터 관리부(384d)는 모바일 맵핑 시스템이 현장을 이동하며 실시간으로 데이터를 센싱하고 맵핑할 시점의 센싱데이터를 융합하면, 융합된 데이터셋을 시계열 데이터베이스구조로 저장 및 관리할 수 있다. The
DB(미도시)는 도 1에 도시된 시스템에 추가로 구비되거나 원격 장소에 구비될 수 있으며, 후자의 경우 유무선 네트워크를 통해 데이터를 수신 및 저장할 수 있다.The DB (not shown) may be provided in addition to the system shown in FIG. 1 or may be installed in a remote location, and in the latter case, it can receive and store data through a wired or wireless network.
도 5는 R-MMS DB 아키텍쳐를 UML(Unified Modeling Language)로 설계한 예시도이고, 도 6은 R-MMS에서 각 구성요소 간에 데이터 교환, 처리 및 관리되는 데이터셋을 정의한 도면이다. R-MMS는 로보 기반 모바일 맵핑 시스템을 의미한다. Figure 5 is an example diagram of the R-MMS DB architecture designed in UML (Unified Modeling Language), and Figure 6 is a diagram defining data sets that are exchanged, processed, and managed between each component in R-MMS. R-MMS stands for robo-based mobile mapping system.
도 5 및 도 6을 참조하면, scan은 다수의 스캔데이터셋(scan_dataset)이고, 스캔데이터셋은 시퀀스 ID, 타임스탬프, PCD(스캐닝데이터), IMU(움직임 센싱데이터), GPS(위치 센싱데이터)를 포함한다. 다수의 융합된 스캔데이터셋들(scan)과 정합된 데이터셋(registered_dataset)은 데이터 관리부(MMS_database_management)(384d)로 입력되어 관리된다. 도 6과 같은 각 데이터셋은 컴포넌트 간 데이터 교환 시 메시지내에 포함될 수 있다.Referring to Figures 5 and 6, scan is a plurality of scan data sets (scan_dataset), and the scan data sets include sequence ID, timestamp, PCD (scanning data), IMU (motion sensing data), and GPS (position sensing data). Includes. Multiple fused scan datasets (scan) and the registered dataset (registered_dataset) are input and managed by the data management unit (MMS_database_management) 384d. Each data set as shown in FIG. 6 may be included in a message when exchanging data between components.
도 7은 본 발명의 실시 예에 따른 모바일 맵핑 방법을 도시한 흐름도이다.Figure 7 is a flowchart showing a mobile mapping method according to an embodiment of the present invention.
도 7을 참조하면, 로버(100)가 스캔 이동 경로를 따라 건설 현장을 이동하는 동안, GPS 센서(350)가 위치 센싱데이터를 획득하고, 획득되는 위치 센싱데이터는 큐(미도시)에 저장될 수 있다(S710).Referring to FIG. 7, while the
로버(100)가 스캔 이동 경로를 따라 건설 현장을 이동하는 동안, IMU 센서(360)가 움직임 센싱데이터를 획득하고, 획득되는 움직임 센싱데이터는 큐(미도시)에 저장될 수 있다(S720).While the
또한, 로버(100)가 스캔 이동 경로를 따라 건설 현장을 이동하는 동안, 스캐너(370)는 건설 현장을 실시간으로 3차원 스캐닝하여 시점 별 스캐닝 데이터를 획득하고, 획득되는 스캐닝 데이터는 큐(미도시) 또는 메모리(382)에 저장될 수 있다(S730).In addition, while the
모바일 맵핑 모듈(380)은 상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 융합(Fusion)하고, SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하여 스캔데이터셋(scan_dataset)과 정합데이터셋(registered_dataset)을 생성할 수 있다. The
자세히 설명하면, 모바일 맵핑 모듈(380)은 S710단계 내지 S730단계에서 획득된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 필터링하여 노이즈를 제거할 수 있다(S740).In detail, the
모바일 맵핑 모듈(380)은 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 스캐닝 데이터의 타임스탬프를 기준으로 동기화한 후 융합하여 스캔데이터셋(scan_dataset)을 생성할 수 있다(S750). S750단계에서 모바일 맵핑 모듈(380)은 위치 센싱데이터와 움직임 센싱데이터를 선형보간하여 센싱되지 않은 시점의 데이터를 예측할 수 있다.The
또한, 모바일 맵핑 모듈(380)은 시점 별로 동기화된 스캐닝 데이터와 위치 센싱데이터와 움직임 센싱데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행할 수 있다(S760).In addition, the
모바일 맵핑 모듈(380)은 S750단계에서 생성되는 스캔데이터셋(scan_dataset)과 S760단계에서 생성되는 정합데이터셋(registered_dataset)을 DB에 저장 및 관리한다(S770).The
상술한 본 발명의 실시 예에 따르면 건설 현장의 스캔 작업의 생산성을 높일 수 있는 로버 기반 3차원 스캔 모바일 맵핑 시스템인 R-MMS을 제안하고, 설계된 R-MMS 프레임웍을 기준으로 개발된 프로토타입을 활용해 실외 인프라 시설물을 스캔한 후 결과를 분석하였다. 이를 바탕으로 인프라 시설물 관리에 활용할 수 있는 이동식 스캔 장비 개발 고려사항을 도출하였다.According to the above-described embodiment of the present invention, R-MMS, a rover-based 3D scanning mobile mapping system that can increase the productivity of scanning work at construction sites, is proposed, and a prototype developed based on the designed R-MMS framework is utilized. After scanning outdoor infrastructure facilities, the results were analyzed. Based on this, considerations for developing mobile scanning equipment that can be used for infrastructure facility management were derived.
R-MMS는 정확도와 밀도 면에서 고정식 LiDAR에 비해 낮다. 테스트 결과 GSA의 Level 2 수준 LoD(Level Of Detail)가 필요한 영역에서 사용이 가능하였다. R-MMS is lower than fixed LiDAR in terms of accuracy and density. As a result of the test, it was possible to use it in areas that require GSA's Level 2 LoD (Level Of Detail).
R-MMS는 1인이 원격 제어되는 범위내에서는 1인의 작업자가 FPV를 확인하며 스캔을 하므로, 작업 생산성이 높다. 또한, R-MMS 자체가 무인 동작이므로 현장 작업 시 안전 문제 등의 발생 소지가 적다. 이와 관련해, R-MMS와 같은 무인 장비를 사용할 경우, 일정한 작업 품질 수준을 보장할 수 있는 지침 개발이 필요할 수 있다. 딥러닝 기술을 이용한 데이터 품질이 개선되면 향수 다양한 환경에서 모바일 맵핑 시스템의 적용이 가능할 것이다.R-MMS has high work productivity because one worker checks and scans the FPV within the remote control range. Additionally, since R-MMS itself operates unmanned, there is little risk of safety issues occurring during field work. In this regard, when using unmanned equipment such as R-MMS, it may be necessary to develop guidelines to ensure a certain level of quality of work. If data quality using deep learning technology improves, it will be possible to apply the mobile mapping system in a variety of environments.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다.In the above, even though all the components constituting the embodiment of the present invention have been described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, as long as it is within the scope of the purpose of the present invention, all of the components may be operated by selectively combining one or more of them. In addition, although all of the components may be implemented as a single independent hardware, a program module in which some or all of the components are selectively combined to perform some or all of the functions of one or more pieces of hardware. It may also be implemented as a computer program with . The codes and code segments that make up the computer program can be easily deduced by a person skilled in the art of the present invention. Such a computer program can be stored in a computer-readable storage medium and read and executed by a computer, thereby implementing embodiments of the present invention.
한편, 이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시 예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주하여야 할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Meanwhile, although the preferred embodiments have been described and illustrated to illustrate the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described, and does not deviate from the scope of the technical idea. Without limitation, those skilled in the art will understand that many changes and modifications can be made to the present invention. Accordingly, all such appropriate changes, modifications and equivalents should be considered to fall within the scope of the present invention. Therefore, the true scope of technical protection of the present invention should be determined by the technical spirit of the attached registration claims.
100: 로버
200: 원격 모니터 장치
300: 모바일 맵핑 장치
310: 전원부
320: 로버 구동부
330: 사용자 인터페이스부
340: 통신 인터페이스부
350: GPS 센서
360: IMU 센서
370: 스캐너
380: 모바일 맵핑 모듈100: Rover
200: remote monitor device
300: mobile mapping device
310: power unit
320: Rover driving unit
330: User interface unit
340: Communication interface unit
350: GPS sensor
360: IMU sensor
370: scanner
380: Mobile mapping module
Claims (10)
움직임 센싱데이터를 획득하는 IMU 센서;
건설 현장을 실시간으로 3차원 스캐닝하여 시점 별 스캐닝 데이터를 획득하는 스캐너; 및
위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 융합하고, SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하고, 스캔데이터셋과 정합데이터셋을 데이터베이스에 저장하여 관리하는 모바일 맵핑 모듈;
을 포함하고,
상기 GPS 센서, IMU 센서, 스캐너 및 모바일 맵핑 모듈은 건설 현장을 이동하는 로버에 착탈이 가능하도록 장착되되,
상기 모바일 맵핑 모듈은,
상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 필터링하는 필터링부;
상기 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 동기화한 후 융합하여 스캔데이터셋을 생성하는 SDF(Sensor Data Fusion)부;
상기 스캐너가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 SLAM부; 및
상기 SDF부에서 생성되는 스캔데이터셋을 DB에 저장 및 관리하는 데이터 관리부;
를 포함하고,
상기 SDF부는
위치 센싱데이터, 움직임 센싱 데이터 및 시점별 스캐닝 데이터의 취득시점을 동기화하기 위하여 필터링된 데이터에 타임스탬프를 추가하고,
타임스템프가 추가된 스캐닝 데이터를 기준으로 필터링된 센싱데이터와 움직임 센싱 데이터를 동기화하는 과정과
확인된 시간에 센싱된 위치데이터가 없는 경우, 확인된 시간 이전에 센싱된 위치 센싱데이터와 이후에 센싱된 위치 센싱데이터를 이용하여 상기 확인된 시간에 해당하는 위치 센싱데이터를 선형보간을 통해 생성하는 과정을
더 포함하는 건설 인프라 스캔 작업 지원용 로버 기반 3차원 스캔 데이터 모바일 맵핑 장치.
GPS sensor that acquires location sensing data;
IMU sensor that acquires motion sensing data;
A scanner that 3D scans the construction site in real time to obtain scanning data at each point in time; and
A mobile mapping module that fuses location sensing data, motion sensing data, and scanning data for each viewpoint, performs real-time PCD registration by applying the SLAM algorithm, and stores and manages the scan data set and registration data set in the database;
Including,
The GPS sensor, IMU sensor, scanner, and mobile mapping module are removably mounted on a rover moving around the construction site.
The mobile mapping module is,
a filtering unit that filters the location sensing data, motion sensing data, and scanning data for each viewpoint;
An SDF (Sensor Data Fusion) unit that generates a scan data set by synchronizing and fusing data acquisition points of the filtered position sensing data, motion sensing data, and scanning data for each viewpoint;
A SLAM unit that performs real-time PCD registration by applying a SLAM algorithm to scanning data for each viewpoint acquired while the scanner moves; and
A data management unit that stores and manages the scan data set generated in the SDF unit in a DB;
Including,
The SDF department
A timestamp is added to the filtered data to synchronize the acquisition time of location sensing data, motion sensing data, and scanning data for each viewpoint.
The process of synchronizing filtered sensing data and motion sensing data based on scanning data with a timestamp added.
If there is no location data sensed at the confirmed time, position sensing data corresponding to the confirmed time is generated through linear interpolation using the position sensing data sensed before the confirmed time and the position sensing data sensed after the confirmed time. process
A rover-based 3D scan data mobile mapping device for supporting construction infrastructure scanning operations, including further.
(B) IMU 센서가 움직임 센싱데이터를 획득하는 단계;
(C) 스캐너가 상기 건설 현장을 실시간으로 3차원 스캐닝하여 시점 별 스캐닝 데이터를 획득하는 단계; 및
(D) 모바일 맵핑 모듈이, 상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 융합하고, SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 단계;
를 포함하되,
상기 (D) 단계는,
(D1) 상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 필터링하는 단계;
(D2) 상기 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 동기화한 후 융합하여 스캔데이터셋을 생성하는 단계;
(D3) 단계의 타임스탬프를 추가하는 단계에서
확인된 시간에 센싱된 위치데이터가 없는 경우, 확인된 시간 이전에 센싱된 위치 센싱데이터와 이후에 센싱된 위치 센싱데이터를 이용하여 상기 확인된 시간에 해당하는 위치 센싱데이터를 선형보간을 통해 생성하는 단계;
(D4) 상기 스캐너가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 단계; 및
(D5) 상기 (D2) 단계에서 생성되는 스캔데이터셋을 DB에 저장 및 관리하는 단계;
를 포함하는 것을 특징으로 하는 건설 인프라 스캔 작업 지원용 로버 기반 3차원 스캔 데이터 모바일 맵핑 방법.
(A) A GPS sensor acquires location sensing data while the rover moves around the construction site along a scanning path;
(B) IMU sensor acquiring motion sensing data;
(C) obtaining scanning data for each viewpoint by using a scanner to 3D scan the construction site in real time; and
(D) a mobile mapping module fusing the location sensing data, motion sensing data, and scanning data for each viewpoint, and performing real-time PCD matching by applying a SLAM algorithm;
Including,
In step (D),
(D1) filtering the location sensing data, motion sensing data, and scanning data for each viewpoint;
(D2) synchronizing the data acquisition time points of the filtered position sensing data, motion sensing data, and scanning data for each viewpoint and fusing them to create a scan data set;
In the step of adding the timestamp of step (D3)
If there is no location data sensed at the confirmed time, position sensing data corresponding to the confirmed time is generated through linear interpolation using the position sensing data sensed before the confirmed time and the position sensing data sensed after the confirmed time. step;
(D4) performing real-time PCD registration by applying the SLAM algorithm to scanning data for each viewpoint acquired while the scanner moves; and
(D5) storing and managing the scan data set generated in step (D2) in a DB;
A rover-based 3D scan data mobile mapping method for supporting construction infrastructure scanning tasks, comprising:
상기 로버의 위치 센싱데이터, 움직임 센싱데이터, 건설 현장을 실시간으로 3차원 스캐닝하여 획득한 시점 별 스캐닝 데이터를 융합하고, 스캐너가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM알고리즘을 적용하여 실시간 PCD 정합을 수행하는 모바일 맵핑 장치;
를 포함하되
상기 모바일 맵핑 장치는,
상기 위치 센싱데이터를 획득하는 GPS 센서(350);
상기 움직임 센싱데이터를 획득하는 IMU 센서(Inertial Measurement Unit);
상기 건설 현장을 실시간으로 3차원 스캐닝하여 시점 별 스캐닝 데이터를 획득하는 스캐너;
상기 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터를 필터링하는 필터링부;
상기 필터링된 위치 센싱데이터, 움직임 센싱데이터 및 시점 별 스캐닝 데이터의 데이터 취득 시점을 동기화한 후 융합하여 스캔데이터셋을 생성하며, 확인된 시간에 센싱된 위치데이터가 없는 경우, 확인된 시간 이전에 센싱된 위치 센싱데이터와 이후에 센싱된 위치 센싱데이터를 이용하여 상기 확인된 시간에 해당하는 위치 센싱데이터를 선형보간을 통해 생성하는 SDF(Sensor Data Fusion)부;
상기 스캐너가 이동하면서 획득하는 시점 별 스캐닝 데이터에 대해 SLAM 알고리즘을 적용하여 실시간 PCD 정합을 수행하는 SLAM부; 및
상기 SDF부에서 생성되는 스캔데이터셋을 DB에 저장 및 관리하는 데이터 관리부;을 포함하고,
상기 GPS 센서, IMU 센서, 스캐너 및 모바일 맵핑 모듈은 건설현장을 이동하는 로버에 착탈가능하도록 장착되는 건설 인프라 스캔 작업 지원용 로버 기반 3차원 스캔 데이터 모바일 맵핑 시스템.
A rover moving around a construction site following a scanned path; and
The rover's position sensing data, motion sensing data, and scanning data for each viewpoint acquired by real-time 3D scanning of the construction site are fused, and the SLAM algorithm is applied to the scanning data for each viewpoint acquired as the scanner moves to perform real-time PCD matching. A mobile mapping device that performs;
Including
The mobile mapping device,
A GPS sensor 350 that acquires the location sensing data;
An IMU sensor (Inertial Measurement Unit) that acquires the motion sensing data;
A scanner that 3D scans the construction site in real time to obtain scanning data for each viewpoint;
a filtering unit that filters the location sensing data, motion sensing data, and scanning data for each viewpoint;
The data acquisition time of the filtered location sensing data, motion sensing data, and scanning data for each time point are synchronized and then fused to create a scan data set. If there is no location data sensed at the confirmed time, sensing is performed before the confirmed time. An SDF (Sensor Data Fusion) unit that generates position sensing data corresponding to the confirmed time through linear interpolation using the confirmed position sensing data and the later sensed position sensing data;
A SLAM unit that performs real-time PCD registration by applying a SLAM algorithm to scanning data for each viewpoint acquired while the scanner moves; and
It includes a data management unit that stores and manages the scan data set generated in the SDF unit in the DB,
The GPS sensor, IMU sensor, scanner, and mobile mapping module are removably mounted on a rover moving around a construction site. A rover-based 3D scan data mobile mapping system for supporting construction infrastructure scanning work.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220121474A KR102589483B1 (en) | 2022-09-26 | 2022-09-26 | System and method for inspecting road facilities using artificial intelligence |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220121474A KR102589483B1 (en) | 2022-09-26 | 2022-09-26 | System and method for inspecting road facilities using artificial intelligence |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102589483B1 true KR102589483B1 (en) | 2023-10-16 |
Family
ID=88506111
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220121474A KR102589483B1 (en) | 2022-09-26 | 2022-09-26 | System and method for inspecting road facilities using artificial intelligence |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102589483B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160147127A (en) * | 2015-06-11 | 2016-12-22 | 한국과학기술원 | Method and apparatus for robust localization in outdoor environments |
KR20160149843A (en) * | 2015-06-19 | 2016-12-28 | 삼성중공업 주식회사 | Apparatus for registration of scan data |
KR20190045006A (en) | 2017-10-23 | 2019-05-02 | 주식회사 유진로봇 | Method and Apparatus for Localization and Mapping Using LIDAR |
KR20210118119A (en) * | 2019-01-22 | 2021-09-29 | 벨로다인 라이더 유에스에이, 인크. | Generation of structured map data from vehicle sensors and camera arrays |
KR102335974B1 (en) * | 2021-07-27 | 2021-12-07 | 주식회사 클레빌 | An Autonomous Robot System comprising precision mapping technology with interchangeable Work Module |
-
2022
- 2022-09-26 KR KR1020220121474A patent/KR102589483B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160147127A (en) * | 2015-06-11 | 2016-12-22 | 한국과학기술원 | Method and apparatus for robust localization in outdoor environments |
KR20160149843A (en) * | 2015-06-19 | 2016-12-28 | 삼성중공업 주식회사 | Apparatus for registration of scan data |
KR20190045006A (en) | 2017-10-23 | 2019-05-02 | 주식회사 유진로봇 | Method and Apparatus for Localization and Mapping Using LIDAR |
KR20210118119A (en) * | 2019-01-22 | 2021-09-29 | 벨로다인 라이더 유에스에이, 인크. | Generation of structured map data from vehicle sensors and camera arrays |
KR102335974B1 (en) * | 2021-07-27 | 2021-12-07 | 주식회사 클레빌 | An Autonomous Robot System comprising precision mapping technology with interchangeable Work Module |
Non-Patent Citations (1)
Title |
---|
강태욱, 신속한 건축물 스캔을 위한 SLAM기반 이동형 스캔백팩 시스템 개발 고려사항 도출, 한국산학기술학회논문지(2020.03.31.)* * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11783553B2 (en) | Systems and methods for facilitating creation of a map of a real-world, process control environment | |
KR101583723B1 (en) | Interactive synchronizing system of BIM digital model and Real construction site | |
Papachristos et al. | Localization uncertainty-aware autonomous exploration and mapping with aerial robots using receding horizon path-planning | |
CN109599945A (en) | A kind of autonomous crusing robot cruising inspection system of wisdom power plant and method | |
US8396254B1 (en) | Methods and systems for estimating a location of a robot | |
CN112650255A (en) | Robot indoor and outdoor positioning navigation system method based on vision and laser radar information fusion | |
US20210221001A1 (en) | Map-based framework for the integration of robots and smart devices | |
KR102092392B1 (en) | Method and system for automatically collecting and updating information about point of interest in real space | |
CN101970187A (en) | Methods for repurposing temporal-spatial information collected by service robots | |
JP2020080147A (en) | Maintenance activity support system and maintenance activity support method | |
JPH11104984A (en) | Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer | |
CN109491383A (en) | Multirobot positions and builds drawing system and method | |
CN109035747A (en) | A kind of intelligent family moving platform system and its traffic control method | |
US20220100571A1 (en) | Scheduling system, scheduling method, and non-transitory recording medium | |
JP2021196706A (en) | Field support device and field support device system | |
Srinivas et al. | A graphical language for LTL motion and mission planning | |
WO2015097269A1 (en) | System, especially for production, utilizing cooperating robots | |
KR102589483B1 (en) | System and method for inspecting road facilities using artificial intelligence | |
CN114448114A (en) | Intelligent wireless power supply system based on mobile robot | |
JP2023164746A (en) | Work plan making system | |
JP6725736B1 (en) | Image specifying system and image specifying method | |
CN116423515B (en) | Digital twin control system of multiple robots and positioning and mapping method thereof | |
JP7072311B1 (en) | Movement route generation method and program of moving object, management server, management system | |
Djoko-Kouam et al. | Towards a Bijective Co-simulation Model Between Physical and Virtual Environments, Adapted to a Platform for Autonomous Industrial Vehicles | |
Walker et al. | Enabling operational autonomy in earth-moving with real-time 3D environment modelling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |