KR20190086951A - 레이저 관측 장비를 이용한 mms의 캘리브레이션을 위한 장치 및 방법 - Google Patents

레이저 관측 장비를 이용한 mms의 캘리브레이션을 위한 장치 및 방법 Download PDF

Info

Publication number
KR20190086951A
KR20190086951A KR1020180005108A KR20180005108A KR20190086951A KR 20190086951 A KR20190086951 A KR 20190086951A KR 1020180005108 A KR1020180005108 A KR 1020180005108A KR 20180005108 A KR20180005108 A KR 20180005108A KR 20190086951 A KR20190086951 A KR 20190086951A
Authority
KR
South Korea
Prior art keywords
data
sensor
matching
fusion
unit
Prior art date
Application number
KR1020180005108A
Other languages
English (en)
Other versions
KR102167847B1 (ko
Inventor
박일석
홍승환
손홍규
임광용
백인식
이지상
Original Assignee
주식회사 스트리스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스트리스 filed Critical 주식회사 스트리스
Priority to KR1020180005108A priority Critical patent/KR102167847B1/ko
Publication of KR20190086951A publication Critical patent/KR20190086951A/ko
Application granted granted Critical
Publication of KR102167847B1 publication Critical patent/KR102167847B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/023
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 영상, 레이저, 항법센서의 기하모델과 변수들을 지상 라이다 기준데이터를 사용하여 정확하게 정의하고 계산된 기하 정보를 기반으로 데이터를 융합하여 정확도를 높인 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치 및 방법에 관한 것으로, 영상 센서,레이저 센서,항법 센서를 갖는 센서 모듈;3차원 공간좌표를 직접 획득하여 제공하는 라이다; 및 라이다의 데이터를 가공하여 데이터 정합을 위한 기준 데이터를 제공하는 라이다 데이터 가공부;상기 라이다 데이터 가공부로부터 데이터 정합을 위한 기준 데이터를 입력받고, 타겟들을 설치하여 기준 데이터의 정밀도를 높여 데이터를 정합하는 데이터 정합부;상기 데이터 정합부의 정합 정보를 기반으로 각 센서의 내부 기하와 외부 기하를 계산하여 센서 융합 기하모델 보정을 하는 센서 융합 기하모델 보정부;계산된 기하 정보를 기반으로 데이터 융합을 하는 데이터 융합부;상기 데이터 융합부의 융합 데이터를 기준 데이터와 정합하여 정확도 및 정밀도를 확인하는 데이터 확인부;상기 데이터 확인부에서 확인된 정확도 및 정밀도를 기준으로 검보정을 재수행하여 센서융합 기하모델을 검정하는 센서융합 기하모델 검정부;를 포함하는 것이다.

Description

지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치 및 방법{System and Method for Calibration of Mobile Mapping System Using Terrestrial LiDAR}
본 발명은 이종 센서들의 통합 모델링 및 데이터 융합에 관한 것으로, 구체적으로 영상, 레이저, 항법센서의 기하모델과 변수들을 지상 라이다 기준데이터를 사용하여 정확하게 정의하고 계산된 기하 정보를 기반으로 데이터를 융합하여 정확도를 높인 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치 및 방법에 관한 것이다.
GNSS/INS, 카메라, LiDAR 등 통합센서 시스템에 탑재되는 각 센서들은 고유의 좌표체계를 가지고 있다.
이러한 좌표시스템을 통합시켜 데이터를 통합시키는 Geo-referencing 과정이 필요하고, 절대좌표시스템으로 통합시키기 위해 GPS/INS 좌표체계로의 통합을 수행하기 위한 모델링 과정이 필요하다.
특히, 다양한 분야에서 3차원 지형 공간 정보에 대한 수요가 증가함에 따라 토목 공학 및 건설, 환경 모니터링, 재해 관리 분야에 적용하기 위한 많은 장치와 알고리즘이 개발되고 있다.
일반적으로 3D 매핑 기법의 하나로는 LiDAR(Light Detecting and Ranging)이라고도 불리는 3D 레이저 스캐너를 사용하고 이미지 기반 3D 컴퓨터 비전 및 사진 측량법의 원리에 기반한 재구성 기술을 사용한다.
지상 라이다(LiDAR;Light Detection And Ranging)는 고정도의 3차원 영상을 제공하고 레이저 빔을 현장이나 대상물에 발사하여 짧은 시간에 수 백만점의 3차원좌표를 mm 수준의 정확도로 기록할 수 있는 최신 측량장비로서 다양한 응용분야에서 두각을 나타내고 있다.
3차원 지상레이저 스캐너는 짧은 시간에 대상물의 수많은 위치에 대한 고 정밀도의 3차원 좌표를 얻을 수 있으며, 접근이 어렵거나 문화재와 같이 보전을 위한 대상물에 실제 접촉하지 않고 대상물의 정확한 형상을 3차원 공간에 구현하여 디지털로 데이터를 보관하고, 이를 통해 각종 자료를 추출하는데 활용된다.
이러한 3차원 지상레이저 스캔기술의 발달로 실제 공간상에 존재하는 다양한 물체의 기하학적 정보를 쉽게 취득할 수 있게 되면서 3차원적인 GIS을 구현하고 취득한 정보를 이용하여 구조물을 모델링하는 연구가 활발히 진행되고 있다.
지상 라이다는 레이저 빔을 현장이나 대상물에 발사하여 수백만점의 3차원좌표를 기록한다. 이들 XYZ 측정값들은 상용소프트웨어인 CAD(Computer-Aided Design)나 3차원 응용소프트웨어에서 처리될 수 있고 단일색상, 그레이스케일(gray-scale), 적외선 사진이나 실제색상으로 조합된 측점군들이 컴퓨터 모니터에 디스플레이될 수 있다.
이와 같은 3차원 공간좌표를 직접 취득할 수 있는 3D Scanner인 LiDAR 장비 또한, 정확한 공간좌표 취득을 위해 검보정 과정이 이루어져야 한다.
이는 검보정장에 영상 및 레이저용 타겟을 설치하여 검증점 공간좌표를 취득, MMS에 탑재된 센서와 지상 라이다 각각으로부터 취득된 기준점의 좌표와 비교하여 영상, 레이저, 항법센서간의 기하모델과 변수들을 보정하고, 취득된 점군데이터의 정확도를 검정하는 방법 등으로 수행될 수 있다.
이와 같이 영상, 레이저, 항법센서의 기하모델과 변수들이 정확하게 정의되어 있어야 개별 센서들의 기하 모델링 및 센서 데이터 간의 융합이 가능함에도 종래 기술에서는 설계도면을 기반으로 센서의 기하모델링을 수행하였다.
따라서, 센서 기하에 오류가 있을 경우에는 자, 레이저 포인터 등을 이용하여 검보정 작업을 수행하는데, 이 경우에는 센서 내부 기하와 오차 요소들을 정밀하게 분석할 수 없기 때문에 정확한 센서 모델링에는 한계가 있다.
따라서, 정확한 센서 모델링을 위한 새로운 기술의 개발이 요구되고 있다.
대한민국 공개특허 제10-2009-0064679호 대한민국 공개특허 제10-2012-0065067호 대한민국 공개특허 제10-2014-0049361호
본 발명은 이와 같은 종래 기술의 센서들의 통합 모델링 및 데이터 융합 기술의 문제를 해결하기 위한 것으로, 영상, 레이저, 항법센서의 기하모델과 변수들을 지상 라이다 기준데이터를 사용하여 정확하게 정의하고 계산된 기하 정보를 기반으로 데이터를 융합하여 정확도를 높인 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치 및 방법을 제공하는데 그 목적이 있다.
본 발명은 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치 및 방법으로 센서들의 통합 모델링 및 데이터 융합 작업시간을 단축하고 정확도를 향상시킬 수 있으며 정확한 센서 검보정이 가능하도록 한 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치 및 방법을 제공하는데 그 목적이 있다.
본 발명은 정합 정보를 기반으로 각 센서의 내부 기하와 외부 기하를 계산하고, 영상 센서 기하 파라미터로 초점거리, 주점 위치, 렌즈왜곡 파라미터, 센서 포맷 크기, 센서의 위치 및 자세값을 포함하여 데이터 융합 정확도를 개선할 수 있도록 한 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치 및 방법을 제공하는데 그 목적이 있다.
본 발명은 레이저 센서 기하 파라미터로 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋, 축방향 오프셋, 센서의 위치 및 자세값을 포함하여 데이터 융합 정확도를 개선할 수 있도록 한 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치 및 방법을 제공하는데 그 목적이 있다.
본 발명은 항법 센서의 기하 파라미터로 축방향의 스케일, 축방향의 오프셋, 센서의 위치 및 자세값을 포함하여 데이터 융합 정확도를 개선할 수 있도록 한 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치 및 방법을 제공하는데 그 목적이 있다.
본 발명은 융합 데이터를 기준 데이터와 정합하여 정확도 및 정밀도를 확인하고, 확인된 정확도 및 정밀도를 기준으로 검보정을 재수행하고 이 절차를 설정된 레벨의 정확도, 정밀도를 만족할 때까지 반복 수행하여 센서들의 통합 모델링 및 데이터 융합의 정확도를 높일 수 있도록 한 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치 및 방법을 제공하는데 그 목적이 있다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
이와 같은 목적을 달성하기 위한 본 발명에 따른 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치는 영상 센서,레이저 센서,항법 센서를 갖는 센서 모듈;3차원 공간좌표를 직접 획득하여 제공하는 라이다; 및 라이다의 데이터를 가공하여 데이터 정합을 위한 기준 데이터를 제공하는 라이다 데이터 가공부;상기 라이다 데이터 가공부로부터 데이터 정합을 위한 기준 데이터를 입력받고, 타겟들을 설치하여 기준 데이터의 정밀도를 높여 데이터를 정합하는 데이터 정합부;상기 데이터 정합부의 정합 정보를 기반으로 각 센서의 내부 기하와 외부 기하를 계산하여 센서 융합 기하모델 보정을 하는 센서 융합 기하모델 보정부;계산된 기하 정보를 기반으로 데이터 융합을 하는 데이터 융합부;상기 데이터 융합부의 융합 데이터를 기준 데이터와 정합하여 정확도 및 정밀도를 확인하는 데이터 확인부;상기 데이터 확인부에서 확인된 정확도 및 정밀도를 기준으로 검보정을 재수행하여 센서융합 기하모델을 검정하는 센서융합 기하모델 검정부;를 포함하는 것을 특징으로 한다.
여기서, 상기 데이터 확인부 및 센서융합 기하모델 검정부에 의해 설정된 레벨의 정확도 및 정밀도를 만족할 때까지 데이터 정합 및 융합을 반복적으로 수행하는 것을 특징으로 한다.
그리고 상기 데이터 정합부에서 기준 데이터의 정밀도를 높이기 위해 설치되는 타겟은, 구형, 평면형, 점형, 기둥형의 어느 하나를 포함하는 것을 특징으로 한다.
그리고 상기 데이터 정합부에서, 영상 센서의 경우에는 색상 차를 이용하여 데이터 정합을 하고,레이저 센서의 경우에는 형상 또는 레이저 강도 정보를 기반으로 데이터 정합을 하고,항법 센서의 경우에는 궤적 데이터를 기반으로 데이터 정합을 하는 것을 특징으로 한다.
그리고 상기 센서 융합 기하모델 보정부에서 사용되는 영상 센서 기하 파라미터는, 초점거리, 주점 위치, 렌즈왜곡 파라매터, 센서 포맷 크기, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합인 것을 특징으로 한다.
그리고 상기 센서 융합 기하모델 보정부에서 사용되는 레이저 센서 기하 파라미터는, 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋, 축방향 오프셋, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합인 것을 특징으로 한다.
그리고 상기 센서 융합 기하모델 보정부에서 사용되는 항법 센서의 기하 파라미터는, 축방향의 스케일, 축방향의 오프셋, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합인 것을 특징으로 한다.
그리고 상기 라이다 데이터 가공부는 라이다의 데이터를 가공하여 데이터 정합을 위한 기준 데이터를 제공하기 위하여, 지상 라이다에서 스캔이 이루어지면 스캔 데이터를 정합하고, 스캔 데이터를 통합시키는 Geo-referencing 과정을 수행하고, 기준 특징 기하를 추출하여 기준 데이터를 생성하는 것을 특징으로 한다.
그리고 상기 센서 융합 기하모델 보정부는, 각 센서에서 취득된 기준점 데이터를 정합하고, 데이터 기하망(Network)을 구성하고 센서 이격 및 회전을 통하여 센서 융합 기하 모델 보정을 하는 것을 특징으로 한다.
다른 목적을 달성하기 위한 본 발명에 따른 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 방법은 영상 센서,레이저 센서,항법 센서를 갖는 센서 모듈로부터 데이터가 입력되면,3차원 공간좌표를 직접 획득하여 제공하는 라이다의 데이터를 가공하여 데이터 정합을 위한 기준 데이터를 제공하는 단계;데이터 정합을 위한 기준 데이터를 입력받고, 타겟들을 이용하여 기준 데이터의 정밀도를 높여 데이터를 정합하는 단계;데이터 정합 정보를 기반으로 각 센서의 내부 기하와 외부 기하를 계산하여 센서 융합 기하모델 보정을 하는 단계;계산된 기하 정보를 기반으로 데이터 융합을 하는 단계;융합 데이터를 기준 데이터와 정합하여 정확도 및 정밀도를 확인하고, 이를 기준으로 검보정을 재수행하여 센서융합 기하모델을 검정하는 단계;를 포함하는 것을 특징으로 한다.
여기서, 데이터를 정합하는 단계에서 사용되는 타겟은, 구형, 평면형, 점형, 기둥형의 어느 하나를 포함하는 것을 특징으로 한다.
그리고 데이터를 정합하는 단계에서, 영상 센서의 경우에는 색상 차를 이용하여 데이터 정합을 하고,레이저 센서의 경우에는 형상 또는 레이저 강도 정보를 기반으로 데이터 정합을 하고,항법 센서의 경우에는 궤적 데이터를 기반으로 데이터 정합을 하는 것을 특징으로 한다.
그리고 데이터 정합을 위한 기준 데이터를 제공하는 단계에서, 지상 라이다에서 스캔이 이루어지면 스캔 데이터를 정합하고, 스캔 데이터를 통합시키는 Geo-referencing 과정을 수행하고, 기준 특징 기하를 추출하여 기준 데이터를 생성하는 것을 특징으로 한다.
그리고 센서 융합 기하모델 보정을 하는 단계에서, 각 센서에서 취득된 기준점 데이터를 정합하고, 데이터 기하망(Network)을 구성하고 센서 이격 및 회전을 통하여 센서 융합 기하 모델 보정을 하는 것을 특징으로 한다.
그리고 센서 융합 기하모델 보정을 하는 단계에서 사용되는 영상 센서 기하 파라미터는, 초점거리, 주점 위치, 렌즈왜곡 파라매터, 센서 포맷 크기, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합인 것을 특징으로 한다.
그리고 센서 융합 기하모델 보정을 하는 단계에서 사용되는 레이저 센서 기하 파라미터는, 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋, 축방향 오프셋, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합인 것을 특징으로 한다.
그리고 센서 융합 기하모델 보정을 하는 단계에서 사용되는 항법 센서의 기하 파라미터는, 축방향의 스케일, 축방향의 오프셋, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합인 것을 특징으로 한다.
이와 같은 본 발명에 따른 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치 및 방법은 다음과 같은 효과를 갖는다.
첫째, 영상, 레이저, 항법센서의 기하모델과 변수들을 지상 라이다 기준데이터를 사용하여 정확하게 정의하고 계산된 기하 정보를 기반으로 데이터를 융합하여 정확도를 높인다.
둘째, 지상 라이다를 이용한 MMS 캘리브레이션으로 센서들의 통합 모델링 및 데이터 융합 작업시간을 단축시킬 수 있으며 정확한 센서 검보정이 가능하도록 한다.
셋째, 지상 라이다를 이용한 MMS 캘리브레이션으로 센서들의 통합 모델링 및 데이터 융합으로 정확한 센서 검보정이 가능하고, 검보정 결과를 통해 데이터 융합 정확도를 개선할 수 있다.
넷째, 정합 정보를 기반으로 각 센서의 내부 기하와 외부 기하를 계산하고, 영상 센서 기하 파라미터로 초점거리, 주점 위치, 렌즈왜곡 파라미터, 센서 포맷 크기, 센서의 위치 및 자세값을 포함하여 데이터 융합 정확도를 개선할 수 있다.
다섯째, 레이저 센서 기하 파라미터로 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋, 축방향 오프셋, 센서의 위치 및 자세값을 포함하여 데이터 융합 정확도를 개선할 수 있다.
여섯째, 항법 센서의 기하 파라미터로 축방향의 스케일, 축방향의 오프셋, 센서의 위치 및 자세값을 포함하여 데이터 융합 정확도를 개선할 수 있다.
일곱째, 융합 데이터를 기준 데이터와 정합하여 정확도 및 정밀도를 확인하고, 확인된 정확도 및 정밀도를 기준으로 검보정을 재수행하고 이 절차를 설정된 레벨의 정확도, 정밀도를 만족할 때까지 반복 수행하여 센서들의 통합 모델링 및 데이터 융합의 정확도를 높일 수 있다.
도 1은 본 발명에 따른 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치의 구성도
도 2a와 도 2b는 본 발명에 따른 기준 데이터 생성의 일 예를 나타낸 구성도
도 3a와 도 3b는 본 발명에 따른 데이터 정합의 일 예를 나타낸 구성도
도 4a와 도 4b는 본 발명에 따른 데이터 정합 및 라이다 캘리브레이션 결과의 일 예를 나타낸 구성도
도 5는 본 발명에 따른 센서 융합 기하 모델 보정의 일 예를 나타낸 구성도
도 6은 본 발명에 따른 기하 모델링의 일 예를 나타낸 구성도
도 7은 본 발명에 따른 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 방법을 나타낸 플로우 차트
이하, 본 발명에 따른 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치 및 방법의 바람직한 실시 예에 관하여 상세히 설명하면 다음과 같다.
본 발명에 따른 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치 및 방법의 특징 및 이점들은 이하에서의 각 실시 예에 대한 상세한 설명을 통해 명백해질 것이다.
도 1은 본 발명에 따른 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치의 구성도이다.
그리고 도 2a와 도 2b는 본 발명에 따른 기준 데이터 생성의 일 예를 나타낸 구성도이다.
이하의 설명에서 데이터 정합은 센서 간의 기하모델 정보가 불명확할 때 데이터를 기반으로 데이터를 하나의 좌표계로 변환시키는 과정이고, 데이터 융합은 캘리브레이션 수행을 통해 센서 간의 기하모델 정보가 명확해졌을 때, 기하모델을 기반으로 데이터를 하나의 좌표계로 변화시키는 과정으로 정의될 수 있다.
본 발명에 따른 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치 및 방법은 영상, 레이저, 항법센서의 기하모델과 변수들을 지상 라이다 기준데이터를 사용하여 정확하게 정의하고 계산된 기하 정보를 기반으로 데이터를 융합하여 정확도를 높일 수 있도록 한 것이다.
이를 위하여, 본 발명은 정합 정보를 기반으로 각 센서의 내부 기하와 외부 기하를 계산하고, 영상 센서 기하 파라미터로 초점거리, 주점 위치, 렌즈왜곡 파라미터, 센서 포맷 크기, 센서의 위치 및 자세값을 포함하여 데이터 융합 정확도를 개선하기 위한 구성을 포함한다.
본 발명은 레이저 센서 기하 파라미터로 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋, 축방향 오프셋, 센서의 위치 및 자세값을 포함할 수 있다.
본 발명은 항법 센서의 기하 파라미터로 축방향의 스케일, 축방향의 오프셋, 센서의 위치 및 자세값을 포함할 수 있다.
특히, 본 발명은 융합 데이터를 기준 데이터와 정합하여 정확도 및 정밀도를 확인하고, 확인된 정확도 및 정밀도를 기준으로 검보정을 재수행하고 이 절차를 설정된 레벨의 정확도, 정밀도를 만족할 때까지 반복 수행하는 구성을 포함한다.
여기서, 정확도는 실제 지도상의 좌표값과 MMS를 통해 관측한 데이터가 얼마나 일치하는가이고, 정밀도는 각 기하모델 파라매터들의 통계적인 신뢰값과 관측된 데이터가 얼마나 실물을 잘 밀도있게 표현하는가를 나타내는 것이다.
이와 같은 본 발명에 따른 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치의 상세 구성은 도 1에서와 같이, 이미지 정보를 촬영하는 영상 센서(10), 거리 정보를 감지하는 레이저 센서(20) 및 측위 정보 및 이동체의 속도,위치 및 자세 등의 항법 정보를 제공하는 항법 센서(30)와, 3차원 공간좌표를 직접 획득하여 제공하는 라이다(40)와, 라이다(40)의 데이터를 가공하여 데이터 정합을 위한 기준 데이터를 제공하는 라이다 데이터 가공부(52)와, 라이다 데이터 가공부(52)로부터 데이터 정합을 위한 기준 데이터를 입력받고, 타겟들을 설치하여 기준 데이터의 정밀도를 높여 데이터를 정합하는 데이터 정합부(51)와, 데이터 정합부(51)의 정합 정보를 기반으로 각 센서의 내부 기하와 외부 기하를 계산하여 센서 융합 기하모델 보정을 하는 센서 융합 기하모델 보정부(53)와, 계산된 기하 정보를 기반으로 데이터 융합을 하는 데이터 융합부(54)와, 데이터 융합부(54)의 융합 데이터를 기준 데이터와 정합하여 정확도 및 정밀도를 확인하는 데이터 확인부(55)와, 데이터 확인부(55)에서 확인된 정확도 및 정밀도를 기준으로 검보정을 재수행하여 센서융합 기하모델을 검정하는 센서융합 기하모델 검정부(56)를 포함한다.
여기서, 데이터 확인부(55) 및 센서융합 기하모델 검정부(56)에 의해 설정된 레벨의 정확도 및 정밀도를 만족할 때까지 데이터 정합 및 융합을 반복적으로 수행한다.
그리고 데이터 정합부(51)에서는 구형, 평면형, 점형, 기둥형 등의 어느 하나를 포함하는 타겟들을 설치하여 기준 데이터의 정밀도를 높인다.
그리고 데이터 정합부(51)에서의 데이터 정합은 영상 센서(10)의 경우에는 색상 차를 이용하여 데이터 정합을 하고, 레이저 센서(20)의 경우에는 형상 또는 레이저 강도 정보를 기반으로 데이터 정합을 하고, 항법 센서(30)의 경우에는 궤적 데이터를 기반으로 데이터 정합을 한다.
도 3a와 도 3b는 본 발명에 따른 데이터 정합의 일 예를 나타낸 구성도이다.
그리고 도 4a와 도 4b는 본 발명에 따른 데이터 정합 및 라이다 캘리브레이션 결과의 일 예를 나타낸 구성도이다.
그리고 라이다 데이터 가공부(52)는 라이다(40)의 데이터를 가공하여 데이터 정합을 위한 기준 데이터를 제공하기 위하여, 도 2a에서와 같이, 지상 라이다에서 스캔이 이루어지면 스캔 데이터를 정합하고, 스캔 데이터를 통합시키는 Geo-referencing 과정을 수행하고, 기준 특징 기하를 추출하여 기준 데이터를 생성한다.
도 2b는 이와 같은 과정으로 라이다 데이터 가공부(52)에서 제공되는 기준 데이터의 일 예를 나타낸 것이다.
그리고 센서 융합 기하모델 보정부(53)에서 사용되는 영상 센서 기하 파라미터는 초점거리, 주점 위치, 렌즈왜곡 파라매터, 센서 포맷 크기, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합이다.
그리고 레이저 센서 기하 파라미터는 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋, 축방향 오프셋, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합이다.
그리고 항법 센서의 기하 파라미터는 축방향의 스케일, 축방향의 오프셋, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합이다.
도 5는 본 발명에 따른 센서 융합 기하 모델 보정의 일 예를 나타낸 구성도이고, 도 6은 본 발명에 따른 기하 모델링의 일 예를 나타낸 구성도이다.
센서 융합 기하모델 보정부(53)에서의 센서 융합 기하 모델 보정의 일 예는 도 5에서와 같이, 각 센서에서 취득된 기준점 데이터를 정합하고, 데이터 기하망(Network)을 구성하고 센서 이격 및 회전을 통하여 센서 융합 기하 모델 보정을 한다.
본 발명에 따른 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 방법을 구체적으로 설명하면 다음과 같다.
도 7은 본 발명에 따른 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 방법을 나타낸 플로우 차트이다.
도 7에서와 같이, 라이다(40)의 데이터를 가공하여 데이터 정합을 위한 기준 데이터를 제공한다.(S501)
기준 데이터를 제공하기 위하여, 지상 라이다에서 스캔이 이루어지면 스캔 데이터를 정합하고, 스캔 데이터를 통합시키는 Geo-referencing 과정을 수행하고, 기준 특징 기하를 추출하여 기준 데이터를 생성한다.
이어, 데이터 정합부(51)에서 구형, 평면형 ,점형, 기둥형의 타겟들을 설치및 이용하여 기준 데이터의 정밀도를 높이고(S502), 데이터 정합을 한다.(S503)
영상 센서(10)의 경우에는 색상 차를 이용하여 데이터 정합을 하고, 레이저 센서(20)의 경우에는 형상 또는 레이저 강도 정보를 기반으로 데이터 정합을 하고, 항법 센서(30)의 경우에는 궤적 데이터를 기반으로 데이터 정합을 한다.
그리고 정합 정보를 기반으로 각 센서의 내부 기하와 외부 기하를 계산하여 센서융합 기하모델 보정을 한다.(S504)
센서융합 기하모델 보정은 각 센서에서 취득된 기준점 데이터를 정합하고, 데이터 기하망(Network)을 구성하고 센서 이격 및 회전을 통하여 센서 융합 기하 모델 보정을 한다.
이어, 계산된 기하 정보를 기반으로 데이터 융합을 한다.(S505)
그리고 융합 데이터를 기준 데이터와 정합하여 정확도 및 정밀도 확인을 하고(S506), 확인된 정확도 및 정밀도가 설정된 레벨 수준인가 판단하여 반복 수행을 한다.(S507)
여기서, 데이터 정합은 영상 센서(10)의 경우에는 색상 차를 이용하여 데이터 정합을 하고, 레이저 센서(20)의 경우에는 형상 또는 레이저 강도 정보를 기반으로 데이터 정합을 하고, 항법 센서(30)의 경우에는 궤적 데이터를 기반으로 데이터 정합을 한다.
그리고 센서 융합 기하모델 보정에서 사용되는 영상 센서 기하 파라미터는 초점거리, 주점 위치, 렌즈왜곡 파라매터, 센서 포맷 크기, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합이다.
그리고 레이저 센서 기하 파라미터는 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋, 축방향 오프셋, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합이다.
그리고 항법 센서의 기하 파라미터는 축방향의 스케일, 축방향의 오프셋, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합이다.
이상에서 설명한 본 발명에 따른 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치 및 방법은 영상, 레이저, 항법센서의 기하모델과 변수들을 지상 라이다 기준데이터를 사용하여 정확하게 정의하고 계산된 기하 정보를 기반으로 데이터를 융합하여 정확도를 높인 것이다.
이와 같은 본 발명은 지상 라이다를 이용한 MMS의 캘리브레이션으로 센서들의 통합 모델링 및 데이터 융합 작업시간을 단축시킬 수 있으며 정확한 센서 검보정이 가능하도록 한 것이다.
이상에서의 설명에서와 같이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명이 구현되어 있음을 이해할 수 있을 것이다.
그러므로 명시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 하고, 본 발명의 범위는 전술한 설명이 아니라 특허청구 범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
10. 영상 센서 20. 레이저 센서
30. 항법 센서 40. 라이다
51. 데이터 정합부 52. 라이다 데이터 가공부
53. 센서 융합 기하모델 보정부 54. 데이터 융합부
55. 데이터 확인부 56. 센서 융합 기하모델 검정부

Claims (17)

  1. 영상 센서,레이저 센서,항법 센서를 갖는 센서 모듈;
    3차원 공간좌표를 직접 획득하여 제공하는 라이다; 및 라이다의 데이터를 가공하여 데이터 정합을 위한 기준 데이터를 제공하는 라이다 데이터 가공부;
    상기 라이다 데이터 가공부로부터 데이터 정합을 위한 기준 데이터를 입력받고, 타겟들을 설치하여 기준 데이터의 정밀도를 높여 데이터를 정합하는 데이터 정합부;
    상기 데이터 정합부의 정합 정보를 기반으로 각 센서의 내부 기하와 외부 기하를 계산하여 센서 융합 기하모델 보정을 하는 센서 융합 기하모델 보정부;
    계산된 기하 정보를 기반으로 데이터 융합을 하는 데이터 융합부;
    상기 데이터 융합부의 융합 데이터를 기준 데이터와 정합하여 정확도 및 정밀도를 확인하는 데이터 확인부;
    상기 데이터 확인부에서 확인된 정확도 및 정밀도를 기준으로 검보정을 재수행하여 센서융합 기하모델을 검정하는 센서융합 기하모델 검정부;를 포함하는 것을 특징으로 하는 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치.
  2. 제 1 항에 있어서, 상기 데이터 확인부 및 센서융합 기하모델 검정부에 의해 설정된 레벨의 정확도 및 정밀도를 만족할 때까지 데이터 정합 및 융합을 반복적으로 수행하는 것을 특징으로 하는 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치.
  3. 제 1 항에 있어서, 상기 데이터 정합부에서 기준 데이터의 정밀도를 높이기 위해 설치되는 타겟은,
    구형, 평면형, 점형, 기둥형의 어느 하나를 포함하는 것을 특징으로 하는 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치.
  4. 제 1 항에 있어서, 상기 데이터 정합부에서,
    영상 센서의 경우에는 색상 차를 이용하여 데이터 정합을 하고,
    레이저 센서의 경우에는 형상 또는 레이저 강도 정보를 기반으로 데이터 정합을 하고,
    항법 센서의 경우에는 궤적 데이터를 기반으로 데이터 정합을 하는 것을 특징으로 하는 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치.
  5. 제 1 항에 있어서, 상기 센서 융합 기하모델 보정부에서 사용되는 영상 센서 기하 파라미터는,
    초점거리, 주점 위치, 렌즈왜곡 파라매터, 센서 포맷 크기, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합인 것을 특징으로 하는 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치.
  6. 제 1 항에 있어서, 상기 센서 융합 기하모델 보정부에서 사용되는 레이저 센서 기하 파라미터는,
    각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋, 축방향 오프셋, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합인 것을 특징으로 하는 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치.
  7. 제 1 항에 있어서, 상기 센서 융합 기하모델 보정부에서 사용되는 항법 센서의 기하 파라미터는,
    축방향의 스케일, 축방향의 오프셋, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합인 것을 특징으로 하는 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치.
  8. 제 1 항에 있어서, 상기 라이다 데이터 가공부는 라이다의 데이터를 가공하여 데이터 정합을 위한 기준 데이터를 제공하기 위하여,
    지상 라이다에서 스캔이 이루어지면 스캔 데이터를 정합하고, 스캔 데이터를 통합시키는 Geo-referencing 과정을 수행하고, 기준 특징 기하를 추출하여 기준 데이터를 생성하는 것을 특징으로 하는 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치.
  9. 제 1 항에 있어서, 상기 센서 융합 기하모델 보정부는,
    각 센서에서 취득된 기준점 데이터를 정합하고, 데이터 기하망(Network)을 구성하고 센서 이격 및 회전을 통하여 센서 융합 기하 모델 보정을 하는 것을 특징으로 하는 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 장치.
  10. 영상 센서,레이저 센서,항법 센서를 갖는 센서 모듈로부터 데이터가 입력되면,
    3차원 공간좌표를 직접 획득하여 제공하는 라이다의 데이터를 가공하여 데이터 정합을 위한 기준 데이터를 제공하는 단계;
    데이터 정합을 위한 기준 데이터를 입력받고, 타겟들을 이용하여 기준 데이터의 정밀도를 높여 데이터를 정합하는 단계;
    데이터 정합 정보를 기반으로 각 센서의 내부 기하와 외부 기하를 계산하여 센서 융합 기하모델 보정을 하는 단계;
    계산된 기하 정보를 기반으로 데이터 융합을 하는 단계;
    융합 데이터를 기준 데이터와 정합하여 정확도 및 정밀도를 확인하고, 이를 기준으로 검보정을 재수행하여 센서융합 기하모델을 검정하는 단계;를 포함하는 것을 특징으로 하는 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 방법.
  11. 제 10 항에 있어서, 데이터를 정합하는 단계에서 사용되는 타겟은,
    구형, 평면형, 점형, 기둥형의 어느 하나를 포함하는 것을 특징으로 하는 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 방법.
  12. 제 10 항에 있어서, 데이터를 정합하는 단계에서,
    영상 센서의 경우에는 색상 차를 이용하여 데이터 정합을 하고,
    레이저 센서의 경우에는 형상 또는 레이저 강도 정보를 기반으로 데이터 정합을 하고,
    항법 센서의 경우에는 궤적 데이터를 기반으로 데이터 정합을 하는 것을 특징으로 하는 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 방법.
  13. 제 10 항에 있어서, 데이터 정합을 위한 기준 데이터를 제공하는 단계에서,
    지상 라이다에서 스캔이 이루어지면 스캔 데이터를 정합하고, 스캔 데이터를 통합시키는 Geo-referencing 과정을 수행하고, 기준 특징 기하를 추출하여 기준 데이터를 생성하는 것을 특징으로 하는 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 방법.
  14. 제 10 항에 있어서, 센서 융합 기하모델 보정을 하는 단계에서,
    각 센서에서 취득된 기준점 데이터를 정합하고, 데이터 기하망(Network)을 구성하고 센서 이격 및 회전을 통하여 센서 융합 기하 모델 보정을 하는 것을 특징으로 하는 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 방법.
  15. 제 10 항에 있어서, 센서 융합 기하모델 보정을 하는 단계에서 사용되는 영상 센서 기하 파라미터는,
    초점거리, 주점 위치, 렌즈왜곡 파라매터, 센서 포맷 크기, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합인 것을 특징으로 하는 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 방법.
  16. 제 10 항에 있어서, 센서 융합 기하모델 보정을 하는 단계에서 사용되는 레이저 센서 기하 파라미터는,
    각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋, 축방향 오프셋, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합인 것을 특징으로 하는 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 방법.
  17. 제 10 항에 있어서, 센서 융합 기하모델 보정을 하는 단계에서 사용되는 항법 센서의 기하 파라미터는,
    축방향의 스케일, 축방향의 오프셋, 센서의 위치 및 자세값의 어느 하나를 포함하거나 이들의 조합인 것을 특징으로 하는 지상 라이다를 이용한 MMS의 캘리브레이션을 위한 방법.
KR1020180005108A 2018-01-15 2018-01-15 레이저 관측 장비를 이용한 mms의 캘리브레이션을 위한 장치 및 방법 KR102167847B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180005108A KR102167847B1 (ko) 2018-01-15 2018-01-15 레이저 관측 장비를 이용한 mms의 캘리브레이션을 위한 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180005108A KR102167847B1 (ko) 2018-01-15 2018-01-15 레이저 관측 장비를 이용한 mms의 캘리브레이션을 위한 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20190086951A true KR20190086951A (ko) 2019-07-24
KR102167847B1 KR102167847B1 (ko) 2020-10-20

Family

ID=67481129

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180005108A KR102167847B1 (ko) 2018-01-15 2018-01-15 레이저 관측 장비를 이용한 mms의 캘리브레이션을 위한 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102167847B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210040217A (ko) * 2019-10-02 2021-04-13 고려대학교 산학협력단 자율 주행 시스템을 위한 복수의 3차원 라이다 센서의 외부 파리미터 보정 방법
CN116499364A (zh) * 2023-06-30 2023-07-28 济南作为科技有限公司 盘煤仪三维激光点云调畸变方法及系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000031079A (ko) * 1998-11-03 2000-06-05 윤덕용 센서모델과 영상정합을 이용한 스테레오 영상의 등고선추출방법
KR20040094230A (ko) * 2003-05-02 2004-11-09 홍현기 센서의 사영행렬을 이용하는 3차원 데이터의 자동 정합 방법
KR20090064679A (ko) 2007-12-17 2009-06-22 한국전자통신연구원 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치
KR20090092150A (ko) * 2008-02-26 2009-08-31 울산대학교 산학협력단 씨씨디 카메라와 레이저 빔을 이용한 물체의 3차원위치정보 측정방법 및 장치
KR20110027522A (ko) * 2009-09-10 2011-03-16 서울시립대학교 산학협력단 영상데이터와 라이다데이터의 기하학적 정합방법 및 그 장치
KR20120065067A (ko) 2010-12-10 2012-06-20 국방과학연구소 다중센서 융합을 통한 3차원 환경 모델링 장치 및 그 방법
KR101192825B1 (ko) * 2011-06-30 2012-10-18 서울시립대학교 산학협력단 Gps/ins/영상at를 통합한 라이다 지오레퍼린싱 장치 및 방법
KR20140049361A (ko) 2012-10-17 2014-04-25 한국과학기술원 다중 센서 시스템, 이를 이용하는 3차원 월드 모델링 장치 및 방법
KR20160099336A (ko) * 2015-02-12 2016-08-22 재단법인대구경북과학기술원 모바일 매핑 시스템
JP2017009555A (ja) * 2015-06-26 2017-01-12 株式会社トプコン カメラのキャリブレーション装置、カメラのキャリブレーション方法およびカメラのキャリブレーションを行うためのプログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000031079A (ko) * 1998-11-03 2000-06-05 윤덕용 센서모델과 영상정합을 이용한 스테레오 영상의 등고선추출방법
KR20040094230A (ko) * 2003-05-02 2004-11-09 홍현기 센서의 사영행렬을 이용하는 3차원 데이터의 자동 정합 방법
KR20090064679A (ko) 2007-12-17 2009-06-22 한국전자통신연구원 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치
KR20090092150A (ko) * 2008-02-26 2009-08-31 울산대학교 산학협력단 씨씨디 카메라와 레이저 빔을 이용한 물체의 3차원위치정보 측정방법 및 장치
KR20110027522A (ko) * 2009-09-10 2011-03-16 서울시립대학교 산학협력단 영상데이터와 라이다데이터의 기하학적 정합방법 및 그 장치
KR20120065067A (ko) 2010-12-10 2012-06-20 국방과학연구소 다중센서 융합을 통한 3차원 환경 모델링 장치 및 그 방법
KR101192825B1 (ko) * 2011-06-30 2012-10-18 서울시립대학교 산학협력단 Gps/ins/영상at를 통합한 라이다 지오레퍼린싱 장치 및 방법
KR20140049361A (ko) 2012-10-17 2014-04-25 한국과학기술원 다중 센서 시스템, 이를 이용하는 3차원 월드 모델링 장치 및 방법
KR20160099336A (ko) * 2015-02-12 2016-08-22 재단법인대구경북과학기술원 모바일 매핑 시스템
JP2017009555A (ja) * 2015-06-26 2017-01-12 株式会社トプコン カメラのキャリブレーション装置、カメラのキャリブレーション方法およびカメラのキャリブレーションを行うためのプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210040217A (ko) * 2019-10-02 2021-04-13 고려대학교 산학협력단 자율 주행 시스템을 위한 복수의 3차원 라이다 센서의 외부 파리미터 보정 방법
CN116499364A (zh) * 2023-06-30 2023-07-28 济南作为科技有限公司 盘煤仪三维激光点云调畸变方法及系统
CN116499364B (zh) * 2023-06-30 2023-09-12 济南作为科技有限公司 盘煤仪三维激光点云调畸变方法及系统

Also Published As

Publication number Publication date
KR102167847B1 (ko) 2020-10-20

Similar Documents

Publication Publication Date Title
Luna et al. Calibration of line-scan cameras
EP0607303A1 (en) METHOD AND SYSTEM FOR POINT BY POINT MEASUREMENT OF SPATIAL COORDINATES.
Samper et al. Analysis of Tsai calibration method using two-and three-dimensional calibration objects
Habib Accuracy, quality assurance, and quality control of LiDAR data
Toschi et al. On the evaluation of photogrammetric methods for dense 3D surface reconstruction in a metrological context
CN110363758B (zh) 一种光学遥感卫星成像质量确定方法及系统
CN111913169B (zh) 激光雷达内参、点云数据的修正方法、设备及存储介质
Yusoff et al. Camera calibration accuracy at different UAV flying heights
Alsadik Adjustment models in 3D geomatics and computational geophysics: with MATLAB examples
KR101954963B1 (ko) 수치지도 및 도로정밀지도 구축 자동화를 위한 장치 및 방법
CN107727118B (zh) 大型飞行器中的gnc分系统设备姿态测量系统标定方法
KR20190086951A (ko) 레이저 관측 장비를 이용한 mms의 캘리브레이션을 위한 장치 및 방법
García-Moreno et al. Error propagation and uncertainty analysis between 3D laser scanner and camera
Luhmann 3D imaging: how to achieve highest accuracy
US20230281942A1 (en) Measurement processing device, method, and program
Pejić et al. A simplified procedure of metrological testing of the terrestrial laser scanners
KR102008772B1 (ko) 특징 기하 기반의 멀티센서 캘리브레이션 및 융합을 위한 장치 및 방법
US10191163B2 (en) Method for the absolute calibration of the location and orientation of large-format detectors using laser radar
CN112598617B (zh) 一种基于虚拟平台的外弹道光学测量精度分析方法
WO2022173285A1 (en) Determining deformations of quay walls using a photogrammetric system
CN107741220B (zh) 影像处理方法、装置及电子设备
Hughes et al. Preliminary investigation into the use of a network-based technique for calibration of 3D laser scanners.
Hlotov et al. The proposal of determining the focal length of a non-metric digital camera for UAV
Sužiedelyte‐Visockiene et al. Influence of digital camera errors on the photogrammetric image processing
Cheok et al. Standards requirements for LADARs?

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant