KR102127679B1 - System for correcting geometry of mobile platform with sensor based on an orthophoto - Google Patents
System for correcting geometry of mobile platform with sensor based on an orthophoto Download PDFInfo
- Publication number
- KR102127679B1 KR102127679B1 KR1020180140500A KR20180140500A KR102127679B1 KR 102127679 B1 KR102127679 B1 KR 102127679B1 KR 1020180140500 A KR1020180140500 A KR 1020180140500A KR 20180140500 A KR20180140500 A KR 20180140500A KR 102127679 B1 KR102127679 B1 KR 102127679B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- sensor
- geometric
- observation
- information
- Prior art date
Links
- 238000004458 analytical method Methods 0.000 claims abstract description 94
- 238000012937 correction Methods 0.000 claims abstract description 82
- 238000004364 calculation method Methods 0.000 claims abstract description 18
- 238000000926 separation method Methods 0.000 claims abstract description 10
- 238000000034 method Methods 0.000 claims description 84
- 230000008569 process Effects 0.000 claims description 76
- 238000007781 pre-processing Methods 0.000 claims description 45
- 238000012545 processing Methods 0.000 claims description 42
- 238000010276 construction Methods 0.000 claims description 23
- 230000009466 transformation Effects 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 12
- 230000000295 complement effect Effects 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 6
- 230000002159 abnormal effect Effects 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 14
- 238000003860 storage Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000036544 posture Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000003908 quality control method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007557 optical granulometry Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G06T5/80—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/006—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Abstract
정사영상에 기반한 센서 탑재 이동형 플랫폼의 기하 보정 시스템이 제공된다.
상기 시스템은 영상 센서, 항법 센서 및 3차원 지리 데이터를 획득하는 3차원 측량 센서 중 적어도 하나를 포함하는 센서부와, 상기 이동형 플랫폼에 탑재된 적어도 하나의 센서로부터 취득된 관측 관련 데이터와 2차원 지형 정보를 갖는 정사영상 관련 데이터 간에 유사성 분석을 실행하여 상기 관측 관련 데이터와 상기 정사영상 관련 데이터로부터 동일하게 추정되는 기준 데이터를 설정하는 유사성 분석부와, 상기 기준 데이터와 상기 정사영상의 기준 좌표계를 기반으로 상기 기준 데이터 및 상기 관측 관련 데이터 간의 기하 모델을 생성하는 네트워크 모델 구성부와, 상기 기하 모델에서 상기 관측 관련 데이터와 상기 기준 데이터 간에 이격량을 최소화하는 최확값(most probable value)을 산출하며 상기 최확값에 따라 상기 관측 관련 데이터로부터 추정된 보정 데이터를 생성하는 최확값 산출부를 포함한다. A geometric correction system for a mobile platform equipped with a sensor based on orthoimage is provided.
The system includes a sensor unit including at least one of an image sensor, a navigation sensor, and a three-dimensional surveying sensor that acquires three-dimensional geographic data, and observation-related data and two-dimensional terrain obtained from at least one sensor mounted on the mobile platform. Based on a similarity analysis unit that performs similarity analysis between orthogonal image-related data having information and sets reference data that is equally estimated from the observation-related data and the orthoimage-related data, and the reference data and the reference coordinate system of the orthoimage The network model constructing unit for generating a geometric model between the reference data and the observation-related data, and calculates a most probable value that minimizes the amount of separation between the observation-related data and the reference data in the geometric model. And a calculation unit for calculating correction data estimated from the observation-related data according to the determination value.
Description
본 발명은 정사영상에 기반한 센서 탑재 이동형 플랫폼의 기하 보정 시스템에 관한 것으로, 보다 상세하게는 정사영상에서의 특징 기하를 활용하여 이동형 플랫폼에 탑재된 센서의 관측 관련 데이터와 정사영상 간의 유사성 분석을 수행하고, 이에 의한 기준 데이터를 기반으로 양 데이터 간의 기하 모델을 생성함으로써, 2차원 지형 정보로 구성된 정사영상을 이용한 이동형 플랫폼의 3차원적 기하 정보 보정의 정확도 및 안정성을 확보하는 시스템에 관한 것이다. The present invention relates to a geometric correction system for a mobile platform equipped with a sensor based on a normal image, and more specifically, to analyze the similarity between the observation related data and the normal image of the sensor mounted on the mobile platform by utilizing the feature geometry in the normal image. And, by generating a geometric model between the two data based on the reference data thereby, it relates to a system for securing the accuracy and stability of the three-dimensional geometric information correction of the mobile platform using an orthogonal image composed of two-dimensional terrain information.
최근 개발 중에 있는 모바일 매핑 및 자율주행 시스템에는 라이다, 카메라, GPS/항법센서들이 탑재되어 상황인지, HD map 생성 등에 활용되고 있다. 이러한 센서들은 지도 제작을 위한 모바일 매핑을 위한 이동형 플랫폼 또는 자율주행시에 주변 지리적 상황 인식을 위한 자율주행 이동형 플랫폼에 탑재될 수 있다. 이동형 플랫폼의 정확도 향상과 안정적 운용을 위해선 위치 정보에 대한 정확도가 충분히 확보되어야 한다. Mobile mapping and autonomous driving systems that are under development are equipped with lidars, cameras, GPS/navigation sensors, and are used for situational awareness and HD map generation. These sensors may be mounted on a mobile platform for mobile mapping for map production or an autonomous mobile platform for recognition of surrounding geographical conditions during autonomous driving. In order to improve the accuracy and stable operation of the mobile platform, the accuracy of location information must be sufficiently secured.
GNSS (Global Navigation Satellite System)과 INS (Inertia Navigation System)의 발전은 정확도 향상 (50cm 수준)에 상당 정도 기여하였으나, 최근 이동형 플랫폼의 안정적 자율주행시스템과 이를 위한 지도 제작에 활용되기에는 충분한 정확도 (cm 수준)를 제공하지 못하고 있다. Advances in GNSS (Global Navigation Satellite System) and INS (Inertia Navigation System) have contributed significantly to the improvement of accuracy (50cm level), but the accuracy is sufficient to be used in the stable autonomous driving system of mobile platforms and the mapping for this. Level).
이동형 플랫폼 운영 시 센서의 배치가 변경됨에 따라 플랫폼 내부 기하모델은 수시로 모니터링을 통해 보정할 필요가 있다. 이와 같은 원인으로 이동형 플랫폼의 기하에 대한 보정이 요구되고, 이는 일반적으로 GNSS의 Network-RTK 측량을 통해 지상 기준점을 취득하고 보정하는 방식으로 진행된다. As the placement of sensors changes during the operation of a mobile platform, the internal model of the platform needs to be calibrated through monitoring at any time. For this reason, correction of the geometry of the mobile platform is required, and this is generally done by acquiring and correcting the ground reference point through GNSS' Network-RTK survey.
예를 들어, 정밀도로제작에 있어서도 레이저센서, 이미지 센서를 탑재한 고가의 MMS 장비가 활용되고 있으나, 기하 정확도의 한계로 인하여 GNSS 측량을 통해 기준점 측량을 별도로 수행하는 과정이 품질 검보정을 위한 필수과정으로 포함된다.For example, even in manufacturing with precision, expensive MMS equipment equipped with a laser sensor and an image sensor is used, but due to the limitation of geometric accuracy, the process of separately performing a reference point survey through GNSS survey is essential for quality calibration It is included as a process.
최근 드론 측량에 있어서도 GNSS 측량을 통한 기준점 측량이 필수과정으로 포함되나, 산지, 수변 공간과 같이 난접근 지역 촬영 시 기준점 확보가 곤란하다.In recent drone surveying, reference surveying through GNSS surveying is included as an essential process, but it is difficult to secure a reference point when shooting difficult access areas such as mountainous areas and waterside spaces.
그러나 GNSS 측량의 경우에는 많은 시간과 인력이 요구되는 전문 측량이 필요로 하여, 많은 비용이 유발되므로, 이동형 플랫폼의 장점을 활용하는데 큰 장애로 작용하고 있는 실정이다.However, in the case of GNSS survey, it requires a professional survey that requires a lot of time and manpower, which incurs a great deal of cost, so it is a big obstacle to take advantage of the mobile platform.
종래에 이동형 플랫폼의 위치 정확도와 기하모델의 안정성 문제는 충분히 보증되지 않으므로, GNSS 측량을 보조적으로 수행하여 정확도를 높이는 과정이 필수적이다. 그러나, 이 역시 비용/인력/시간 소모가 크고 난접근 지역에서의 측량이 어렵다는 단점이 있다. In the related art, since the accuracy of the position of the mobile platform and the stability of the geometric model are not sufficiently guaranteed, it is necessary to perform the GNSS survey to increase the accuracy. However, this also has the disadvantage of high cost/manpower/time consumption and difficult measurement in difficult access areas.
이를 극복하기 위해 이미 구축되어 있는 위성 영상 또는 항공 영상 시스템으로 제작된 정사영상에서 기준점을 취득하여 적용하는 방법을 채택하는 방법이 시도되고 있다. 정사영상은 카메라의 투영 기하 모델로 인해 발생하는 기복 변위 등의 왜곡을 제거한 정사투영 모델을 반영하는 영상 정보로 수치지도 제작에 주로 활용되는 2차원 지형 정보의 데이터이다.In order to overcome this, a method of adopting a method of acquiring and applying a reference point from an already built satellite image or an orthogonal image produced by an aerial image system has been attempted. The orthoimage is image information reflecting an orthogonal projection model in which distortion such as undulation displacement caused by the projection geometric model of the camera is removed, and is data of two-dimensional topographic information mainly used for digital map production.
정사영상은 공공목적으로 사용하여 국가기관이 관리하는 데이터이므로, 위치 정확도, 해상도에 대한 품질관리에 대한 기준이 명확하고, 활용 결과에 대한 품질 관리 용이한 장점이 있다.Since ortho-images are data managed by a national institution for public purposes, the criteria for quality control for location accuracy and resolution are clear, and there is an advantage of easy quality control for utilization results.
그러나, 정사영상을 활용함에 있어서 몇 가지의 문제점이 유발된다. However, some problems are caused when using orthoimages.
정사영상 관련 데이터는 대용량이므로, 보정하고자 하는 이동형 플랫폼 데이터에 부합하는 데이터 검색에 많은 시간이 투입된다. 또한, 정사영상과 취득된 이동형 플랫폼 데이터 간 공간정보 유형 또는 특성이 상이하므로, 유사성 분석의 정확도가 충분히 확보되지 않는다는 단점이 있다. 이에 더하여, 정사영상은 일반적 2차원 좌표로 구성되므로, 이동형 플랫폼에 대한 3차원적 기하보정에 적용하는데 한계가 있다. Since the orthographic image-related data is large-capacity, a lot of time is devoted to searching for data that matches the mobile platform data to be corrected. In addition, since the spatial information type or characteristic between the orthoimage and the acquired mobile platform data is different, the accuracy of the similarity analysis is not sufficiently secured. In addition, since the orthogonal image is generally composed of two-dimensional coordinates, there is a limit to apply it to three-dimensional geometric correction for a mobile platform.
본 발명이 이루고자 하는 기술적 과제는 정사영상에서의 특징 기하를 활용하여 이동형 플랫폼에 탑재된 센서의 관측 관련 데이터와 정사영상 간의 유사성 분석을 수행하고, 이에 의한 기준 데이터를 기반으로 양 데이터 간의 기하 모델을 생성함으로써, 2차원 지형 정보로 구성된 정사영상을 이용한 이동형 플랫폼의 3차원적 기하 정보 보정의 정확도 및 안정도를 확보하는 센서 탑재 이동형 플랫폼의 기하 보정 시스템을 제공하는데 있다. The technical problem to be achieved by the present invention is to analyze the similarity between the observation-related data and the orthogonal image of the sensor mounted on the mobile platform by utilizing the feature geometry in the orthogonal image, and based on this, the geometric model between both data By creating, it is to provide a geometric correction system of a mobile platform equipped with a sensor that ensures accuracy and stability of 3D geometric information correction of a mobile platform using an orthogonal image composed of 2D terrain information.
본 발명의 목적은 이상에서 언급된 목적으로 제한되지 않으며, 언급되지 않은 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. The objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.
상기 기술적 과제를 이루기 위한 본 발명의 일 양태에 따르면, 정사영상에 기반한 센서 탑재 이동형 플랫폼의 기하 보정 시스템은 영상 센서, 항법 센서 및 3차원 지리 데이터를 획득하는 3차원 측량 센서 중 적어도 하나를 포함하는 센서부와, 상기 이동형 플랫폼에 탑재된 적어도 하나의 센서로부터 취득된 관측 관련 데이터와 2차원 지형 정보를 갖는 정사영상 관련 데이터 간에 유사성 분석을 실행하여 상기 관측 관련 데이터와 상기 정사영상 관련 데이터로부터 동일하게 추정되는 기준 데이터를 설정하는 유사성 분석부와, 상기 기준 데이터와 상기 정사영상의 기준 좌표계를 기반으로 상기 기준 데이터 및 상기 관측 관련 데이터 간의 기하 모델을 생성하는 네트워크 모델 구성부와, 상기 기하 모델에서 상기 관측 관련 데이터와 상기 기준 데이터 간에 이격량을 최소화하는 최확값(most probable value)을 산출하며 상기 최확값에 따라 상기 관측 관련 데이터로부터 추정된 보정 데이터를 생성하는 최확값 산출부를 포함한다. According to an aspect of the present invention for achieving the above technical problem, a geometric correction system of a mobile platform equipped with a sensor based on a normal image includes at least one of an image sensor, a navigation sensor, and a three-dimensional survey sensor for obtaining three-dimensional geographic data. Similarity analysis is performed between the observation unit and the orthogonal image-related data by performing a similarity analysis between the sensor unit and observation-related data obtained from at least one sensor mounted on the mobile platform and orthoimage-related data having two-dimensional terrain information. A similarity analysis unit for setting the estimated reference data, a network model construction unit for generating a geometric model between the reference data and the observation-related data based on the reference data and the reference coordinate system of the orthogonal image, and the geometric model And a most probable value for minimizing the amount of separation between the observation-related data and the reference data, and includes a most-value calculation unit for generating correction data estimated from the observation-related data according to the maximum value.
다른 실시예에서, 상기 정사영상은 카메라의 투영 기하 모델로 인해 발생하는 왜곡을 제거한 정사 투영 모델을 반영하는 영상 정보이고, 상기 관측 관련 데이터는 각 센서로부터 직접 출력된 관측 데이터, 상기 이동형 플랫폼의 위치와 자세에 따른 센서의 기하 관계를 정의하는 외부 기하, 각 센서의 취득 시간에 대한 시간 정보, 상기 3차원 측량 센서에 기반한 점군 데이터 관련 정보, 상기 영상 센서에 기반한 지오코딩(geocoding) 영상 데이터 관련 정보, 상기 점군 데이터 관련 정보 및 상기 지오코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 근거하여 추출한 대상물의 속성이 추정된 객체 정보, 상기 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 기초하여, 지도를 작성하기 위해 생성된 지도 관련 정보 중 적어도 어느 하나를 포함할 수 있다. In another embodiment, the orthoimage is image information reflecting an orthogonal projection model in which distortion caused by the projection geometric model of the camera is removed, and the observation-related data is observation data directly output from each sensor and the position of the mobile platform And external geometry that defines the geometric relationship of the sensor according to the posture, time information for the acquisition time of each sensor, point group data related information based on the 3D survey sensor, geocoding image data related information based on the image sensor , Based on at least one of the object information, the attribute of the extracted object based on at least one of the point group data related information and the geocoding image data related information, the point group data related information, and geocoding image data related information. , May include at least one of map-related information generated to create a map.
여기서, 상기 관측 관련 데이터는 상기 센서마다 고유하게 정의된 기하 파라미터에 기초로 산출된 내부 기하를 더 포함하고, 상기 네트워크 모델 구성부는 상기 외부 기하 및 상기 내부 기하로 구성된 기하 정보에 기초하여 상기 기준 데이터와 상기 관측 관련 데이터 간의 기하 모델을 생성할 수 있다. Here, the observation-related data further includes an internal geometry calculated based on geometric parameters uniquely defined for each sensor, and the network model constructing unit is the reference data based on geometric information composed of the external geometry and the internal geometry. And a geometric model between the observation-related data.
또한, 상기 최확값은 상기 외부 기하, 상기 내부 기하의 오차 정보 및 상기 점군 데이터 관련 정보, 상기 지오코딩 영상 데이터 관련 정보, 상기 객체 정보, 상기 지도 관련 정보 중 적어도 하나에 의해 생성된 기하 형태 정보의 오차 정보로부터 선택된 적어도 어느 하나이고, 상기 기하 형태 정보는 상기 기준 데이터와 상기 관측 관련 데이터에서 동일하게 추정되는 특징 기하와 관련된 정보일 수 있다. In addition, the maximum value is the geometry information generated by at least one of the external geometry, the error information of the internal geometry, the point group data related information, the geocoding image data related information, the object information, and the map related information. At least one selected from error information, and the geometric shape information may be information related to feature geometry estimated to be the same from the reference data and the observation related data.
또 다른 실시예에서, 상기 정사영상으로부터 상기 이동형 플랫폼의 이동 궤적에 부합되는 관심 지역에 대한 정사 데이터를 검색하여 추출하는 정사영상 검색부를 더 포함하고, 상기 정사영상 관련 데이터는 상기 관심 지역 내의 특징 기하로 추정되는 기하 형태 정보를 갖는 정사 데이터를 포함하고, 상기 기하 형태 정보는 상기 관심 지역에 추출된 객체의 특정 기하하적 형상에 기초하여 추출할 수 있다. In another embodiment, the orthogonal image search unit for retrieving and extracting orthogonal data for a region of interest that matches the movement trajectory of the mobile platform from the orthogonal image further includes the orthogonal image-related data in a feature geometry within the region of interest And orthogonal data having geometric shape information estimated to be, and the geometric shape information may be extracted based on a specific geometric shape of the object extracted in the region of interest.
여기서, 상기 유사성 분석은 상기 정사 데이터와 상기 관측 관련 데이터 간에 동일하게 추정되는 상기 기준 데이터를 설정하도록 실행되고, 상기 유사성 분석부는 상기 영상 센서로부터 상기 관측 관련 데이터를 획득하는 경우, 상기 관측 관련 데이터에 속한 지오코딩 영상 데이터 관련 정보 중 픽셀 좌표를 기반으로 하는 색상 변화를 분석하여 상기 기하 형태 정보를 추출하여 상기 기준 데이터를 설정하는 유사성 분석을 실행하고, 상기 3차원 측량 센서로부터 상기 관측 관련 데이터를 획득하는 경우, 상기 관측 관련 데이터에 속한 점군 데이터의 기하하적 형상 변화도 및 레이저 강도 변화도 중 적어도 하나를 분석하여 상기 기하 형태 정보를 추출하여 상기 기준 데이터를 설정하는 유사성 분석을 실행할 수 있다. Here, the similarity analysis is performed to set the reference data that is estimated equally between the orthonormal data and the observation related data, and when the similarity analysis unit acquires the observation related data from the image sensor, the similarity analysis is performed on the observation related data. Performs similarity analysis to set the reference data by analyzing color change based on pixel coordinates among the geocoding image data related information, and obtains the observation related data from the 3D survey sensor In the case of analysis, similarity analysis may be performed by extracting the geometric shape information and setting the reference data by analyzing at least one of the geometric shape change degree and the laser intensity change degree of the point group data belonging to the observation-related data.
또 다른 실시예에서, 상기 유사성 분석부는 상기 유사성 분석의 실행 전에, 상기 관측 관련 데이터와 상기 정사영상 관련 데이터 중 적어도 어느 하나에, 영상 휘도 조정 전처리, 영상 해상도 조정 전처리, 영상 선명도 조정 전처리, 영상 기하 변환 전처리, 영상 좌표계 변환 전처리, 상기 관측 및 상기 정사영상 관련 데이터들에서의 객체의 경계선 정보를 추출하는 전처리로부터 선택된 적어도 어느 하나의 전처리를 수행할 수 있다. In another embodiment, before the similarity analysis is executed, the similarity analysis unit may perform pre-processing of image luminance adjustment, pre-processing of image resolution, pre-processing of image clarity, and pre-processing of image clarity in at least one of the observation-related data and the ortho-image-related data. At least one pre-processing selected from pre-processing for transformation, pre-processing for transforming an image coordinate system, and pre-processing for extracting boundary information of an object from the observation and orthogonal image-related data may be performed.
또 다른 실시예에서, 상기 최확값의 산출시에 이용된 최소 이격량에 근거하여 보정 데이터와 관측 관련 데이터 간의 예상 오차를 분석하여 상기 예상 오차가 허용 오차보다 초과하는지 여부를 판단하는 예상 오차 확률 분석부를 더 포함하고, 상기 예상 오차 확률 분석부는 상기 예상 오차가 상기 허용 오차보다 초과하는 경우에, 상기 이동형 플랫폼의 이동 궤적에 부합되는 관심 지역을 조정하여 상기 정사영상 관련 데이터를 검색하여 추출하는 처리, 상기 유사성 분석부에서 상기 유사성 분석 전에 상기 관측 관련 데이터와 상기 정사 데이터 간의 관측 기하 특성 차이로 인한 변형량을 최소화하는 전처리를 실시한 경우에 상기 전처리의 조건을 변경하거나, 상기 정사영상 관련 데이터 및 상기 관측 관련 데이터에서 다른 객체 또는 다른 특징 기하로 추정되는 기하 형태 정보를 신규의 기준 데이터로 샘플링하여 추출하는 처리, 상기 네트워크 모델 구성부에서 생성된 상기 기하 모델에서 이상 데이터로 판정되는 관측 관련 데이터를 제거하는 처리, 상기 기하 모델에 적용되는 적어도 일부의 파라미터를 변경하는 처리, 및 상기 최확값 산출부에 적용되는 상기 최확값의 해석 모델식에 이용된 적어도 일부 파라미터를 변경하거나, 상기 해석 모델식을 변경하는 처리 중 적어도 어느 하나를 수행하도록 상기 유사성 분석부, 상기 네트워크 모델 구성부, 상기 최확값 산출부를 제어하고, 상기 처리 수행 후의 제약 조건에 따라 최확값 및 보정 데이터를 재차 생성하도록 제어할 수 있다. In another embodiment, predicted error probability analysis for determining whether the expected error exceeds the allowable error by analyzing the expected error between the correction data and the observation-related data based on the minimum separation amount used when calculating the maximum value Further comprising, the predicted error probability analysis unit, when the expected error exceeds the allowable error, the process of retrieving and extracting the orthogonal image-related data by adjusting the region of interest corresponding to the movement trajectory of the mobile platform, When the similarity analysis unit performs pre-processing to minimize the amount of deformation due to a difference in observed geometric characteristics between the observation-related data and the ortho data before the similarity analysis, the conditions of the pre-processing are changed, or the ortho-image related data and the observation-related A process of sampling and extracting geometric shape information estimated to be another object or other feature geometry from data as new reference data, and processing to remove observation-related data determined as abnormal data from the geometric model generated by the network model construction unit , A process of changing at least a part of parameters applied to the geometric model, and a process of changing at least some parameters used in the analysis model equation of the most applicable value applied to the most accurate value calculation unit or changing the analysis model equation The similarity analysis unit, the network model construction unit, and the maximum value calculation unit may be controlled to perform at least one of the above, and may be controlled to generate the maximum value and correction data again according to constraints after performing the processing.
또 다른 실시예에서, 상기 네트워크 모델 구성부는 상기 기하 모델에 적용되는 상기 기준 데이터에 수직 기하 데이터를 추가하는 보완 처리를 더 포함하여 수행하거나, 상기 기하 모델의 구성시에 싱기 수직 기하 데이터 없는 상기 기준 데이터를 적용할 수 있다. In another embodiment, the network model construction unit further comprises a supplementary process of adding vertical geometric data to the reference data applied to the geometric model, or the reference without vertical geometry data when constructing the geometric model Data can be applied.
이에 더하여, 상기 보완 처리는 상기 수직 기하 데이터를 소정 값으로 설정하는 처리, 다수의 기준 데이터로 3차원 좌표를 역산하는 처리, 래스터(raster) 형태의 수치고도모델 또는 벡터 형태의 수치지형도의 상기 수직 기하 데이터를 상기 기준 데이터에 추가하는 처리 및 상기 이동형 플랫폼의 이동 궤적에 따라 상기 센서가 복수 지점에서 획득된 멀티뷰(multi-view) 또는 스테레오 뷰(stereo-view)로부터 상기 복수 지점마다의 관측 범위에서 상호 중첩되는 영역의 인터섹션(intersection) 기하를 구성하여 상기 수직 기하 데이터를 산출하는 처리 중 적어도 어느 하나에 의해 수행될 수 있다. In addition to this, the complementary processing is a process of setting the vertical geometric data to a predetermined value, a process of inverting three-dimensional coordinates with a plurality of reference data, the vertical representation of a raster-shaped digital elevation model or a vector-shaped numerical map. The observation range for each of the plurality of points from a multi-view or stereo-view in which the sensor is acquired at multiple points according to the process of adding geometric data to the reference data and the movement trajectory of the mobile platform It may be performed by at least one of the process of calculating the vertical geometric data by configuring the intersection geometry of the regions overlapping each other.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. Specific details of other embodiments are included in the detailed description and drawings.
본 발명에 따르면, 정사영상에 기반한 센서 탑재 이동형 플랫폼의 기하 보정 시스템에 관한 것으로, 보다 상세하게는 정사영상에서의 특징 기하를 활용하여 이동형 플랫폼에 탑재된 센서의 관측 관련 데이터와 정사영상 간의 유사성 분석을 수행하고, 이에 의한 기준 데이터를 기반으로 양 데이터 간의 기하 모델을 생성함으로써, 2차원 지형 정보로 구성된 정사영상을 이용한 이동형 플랫폼의 3차원적 기하 정보 보정의 정확도 및 안정도를 확보할 수 있다. According to the present invention, the present invention relates to a geometric correction system of a mobile platform equipped with a sensor based on a normal image, and more specifically, analysis of the similarity between the observation related data and the normal image of the sensor mounted on the mobile platform using the feature geometry in the normal image By performing the, and generating a geometric model between the two data based on the reference data thereby, it is possible to secure the accuracy and stability of the three-dimensional geometric information correction of the mobile platform using an orthogonal image composed of two-dimensional terrain information.
도 1은 정사영상의 지역 내에서 다양한 이동형 플랫폼이 탑재한 센서가 관측 관련 데이터를 획득하는 과정을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 정사영상에 기반한 센서 탑재 이동형 플랫폼의 기하 보정 시스템에 관한 구성도이다.
도 3은 센서 탑재 이동형 플랫폼의 기하 보정 시스템에서 구현되는 보정 데이터를 추정하는 과정을 나타낸 순서도이다.
도 4는 일반적인 카메라 영상과 구별되는 정사영상을 설명하는 도면이다.
도 5는 정사영상에서 이동형 플랫폼의 이동 궤적에 따른 관심 지역에서 정사 데이터를 검출하여 추출하는 과정을 나타내는 도면이다.
도 6은 유사성 분석부에서 정사영상과 관측 관련 데이터에서 기하 형태 정보를 추출하는 과정을 나타내는 도면이다.
도 7은 유사성 분석부에서 정사영상과 관측 관련 데이터에서 추출된 기하 형태 정보를 기초로 기준 데이터를 설정하는 과정을 나타낸 도면이다.
도 8은 네트워크 모델 구성부에서 기준 데이터와 관측 관련 데이터 간의 기하 모델을 생성함과 아울러서, 최확값 산출부에서 보정 데이터를 도출하는 과정을 나타내는 도면이다.
도 9는 이동형 플랫폼의 이동 궤적에 따라 멀티뷰(multi-view) 또는 스테레오 뷰(stereo-view)로부터 인터섹션(intersection) 기하를 구성하여 3차원 기하 데이터를 산출하는 처리하는 것을 도시한 도면이다.
도 10은 본 발명의 일 실시예에 따른 센서 탑재 이동형 플랫폼의 기하 보정 시스템에서 최확값에 따른 예상 오차가 허용 오차를 초과하는 경우의 처리 과정을 나타내는 순서도이다.
도 11은 3차원 측량 센서에 취측된 관측 관련 데이터가 정사영상을 기준으로 기하 보정된 보정 데이터가 표현된 도면이다. FIG. 1 is a diagram illustrating a process in which sensors mounted on various mobile platforms in the region of an orthoimage acquire data related to observation.
2 is a configuration diagram of a geometric correction system of a mobile platform equipped with a sensor based on a normal image according to an embodiment of the present invention.
3 is a flowchart illustrating a process of estimating correction data implemented in a geometric correction system of a mobile platform equipped with a sensor.
4 is a view for explaining an orthogonal image distinguished from a general camera image.
FIG. 5 is a diagram illustrating a process of detecting and extracting orthogonal data in a region of interest according to the movement trajectory of the mobile platform in the orthogonal image.
FIG. 6 is a diagram illustrating a process of extracting geometric shape information from orthoimages and observation-related data in a similarity analysis unit.
7 is a diagram illustrating a process of setting reference data based on geometric shape information extracted from an orthoimage and observation-related data in a similarity analysis unit.
FIG. 8 is a diagram illustrating a process of deriving correction data from the most accurate value calculation unit while generating a geometric model between reference data and observation related data in the network model construction unit.
FIG. 9 is a diagram illustrating processing for calculating 3D geometric data by constructing an intersection geometry from a multi-view or stereo-view according to a movement trajectory of a mobile platform.
10 is a flowchart illustrating a processing process when an expected error according to a maximum value exceeds an allowable error in a geometric correction system of a mobile platform equipped with a sensor according to an embodiment of the present invention.
FIG. 11 is a diagram in which correction data geometrically corrected based on a normal image is observed in observation-related data taken by a 3D survey sensor.
이하, 첨부한 도면들 및 후술되어 있는 내용을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 그러나, 본 발명은 여기서 설명되어지는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되어지는 것이다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급되지 않는 한 복수형도 포함된다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자가 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings and the contents described below. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided to ensure that the disclosed contents are thorough and complete and that the spirit of the present invention is sufficiently conveyed to those skilled in the art. Throughout the specification, the same reference numbers refer to the same components. On the other hand, the terms used in this specification are for describing the embodiments and are not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, "comprises" and/or "comprising" refers to the presence of one or more other components, steps, operations and/or elements in which the mentioned component, step, operation and/or element is present. Or do not exclude additions.
또한, "부" 내지 모듈 이란, 일반적으로 논리적으로 분리 가능한 소프트웨어(컴퓨터ㅇ프로그램), 하드웨어 등의 부품을 가리킨다. 따라서, 본 실시형태에 있어서의 모듈은 컴퓨터 프로그램에 있어서의 모듈뿐만 아니라, 하드웨어 구성에 있어서의 모듈도 가리킨다. 그 때문에, 본 실시형태는, 그것들을 모듈로서 기능시키기 위한 컴퓨터ㅇ프로그램(컴퓨터에 각각의 단계를 실행시키기 위한 프로그램, 컴퓨터를 각각의 수단으로서 기능시키기 위한 프로그램, 컴퓨터에 각각의 기능을 실현시키기 위한 프로그램), 시스템 및 방법의 설명도 겸하고 있다. 다만, 설명의 형편상, 「저장한다」, 「저장시킨다」, 이것들과 동등한 문언을 이용하지만, 이들 문언은, 실시형태가 컴퓨터 프로그램일 경우에는, 기억 장치에 기억시키는, 또는 기억 장치에 기억시키는 것과 같이 제어하는 것을 의미한다. 또한, "부" 내지 모듈은 기능에 일대일로 대응하고 있어도 되지만, 실장에 있어서는, 1모듈을 1프로그램으로 구성해도 되고, 복수 모듈을 1프로그램으로 구성해도 되고, 반대로 1모듈을 복수 프로그램으로 구성해도 된다. 또한, 복수 모듈은 1컴퓨터에 의해 실행되어도 되고, 분산 또는 병렬 환경에 있어서의 컴퓨터에 의해 1모듈이 복수 컴퓨터로 실행되어도 된다. 또한, 1개의 모듈에 다른 모듈이 포함되어 있어도 된다. 또한, 이하, 「접속」이란 물리적인 접속 외에, 논리적인 접속(데이터의 주고받기, 지시, 데이터간의 참조 관계 등)일 경우에도 채용한다. 「미리 정해진」이란, 대상으로 하고 있는 처리 전에 정해져 있음을 말하고, 본 실시형태에 의한 처리가 개시되기 전은 물론이고, 본 실시형태에 의한 처리가 개시된 후에도, 대상으로 하고 있는 처리 전이면, 그 때의 상황, 상태에 따라, 또는 그때까지의 상황ㅇ상태에 따라 정해지는 것의 의미를 포함해서 이용한다.In addition, "parts" to modules generally refer to parts such as software (computer programs) and hardware that are logically separable. Therefore, the module in this embodiment indicates not only a module in a computer program, but also a module in a hardware configuration. Therefore, the present embodiment provides a computer or program for functioning as a module (a program for executing each step on the computer, a program for functioning the computer as a respective means, and a function for realizing each function on the computer). Program), system and method. However, for convenience of explanation, "save", "save", and equivalents to these are used, however, these sentences are stored in a storage device or stored in a storage device when the embodiment is a computer program. It means to control like this. Further, the "parts" to the modules may correspond to the functions one-to-one, but in implementation, one module may consist of one program, multiple modules may consist of one program, or conversely, one module may consist of multiple programs. do. Further, multiple modules may be executed by one computer, or one module may be executed by multiple computers by a computer in a distributed or parallel environment. In addition, another module may be included in one module. In addition, hereinafter, the "connection" is also employed in the case of a logical connection (transmission and reception of data, instructions, reference relations between data, etc.) in addition to a physical connection. The term "predetermined" means that it is determined before the targeted treatment, and not only before the treatment according to the present embodiment is started, but also after the treatment according to the present embodiment is initiated, before the targeted treatment is performed. It is used by including the meaning of what is determined according to the situation, condition, or situation until then.
또한, 시스템 또는 장치란, 복수의 컴퓨터, 하드웨어, 장치 등이 네트워크(일대 일 대응의 통신 접속을 포함함) 등의 통신 수단에 의해 접속되어 구성되는 것 외에, 1개의 컴퓨터, 하드웨어, 장치 등에 의해 실현될 경우도 포함된다. 「장치」와 「시스템」이란, 서로 동의(同意)의 용어로서 이용한다. 물론이지만, 「시스템」에는, 인위적인 결정인 사회적인 「기구」(사회 시스템)에 지나지 않는 것은 포함하지 않는다.In addition, a system or device is configured by connecting a plurality of computers, hardware, devices, and the like by a communication means such as a network (including one-to-one communication connections), and by using one computer, hardware, device, or the like. It is also included when it is realized. The terms "apparatus" and "system" are used as synonymous terms. Of course, the "system" does not include anything other than a social "organization" (social system), which is an artificial decision.
또한, 각 부 내지 각 모듈에 의한 처리마다 또는 각 부 내지 모듈 내에서 복수의 처리를 행할 경우는 그 처리마다, 대상이 되는 정보를 기억 장치로부터 판독 입력하고, 그 처리를 행한 후에, 처리 결과를 기억 장치에 기입하는 것이다. 따라서, 처리 전의 기억 장치로부터의 판독 입력, 처리 후의 기억 장치에의 기입에 관해서는, 설명을 생략할 경우가 있다. 또한, 여기에서의 기억 장치로서는, 하드디스크, RAM(Random Access Memory), 외부 기억 매체, 통신 회선을 통한 기억 장치, CPU(Central Processing Unit) 내의 레지스터 등을 포함하고 있어도 된다.In addition, when processing is performed by each unit or each module or when a plurality of processing is performed within each unit or module, the target information is read and input from the storage device, and after processing, the result of processing is processed. It is to write in the storage device. Therefore, description may be omitted regarding read input from the storage device before processing and writing to the storage device after processing. Further, the storage device may include a hard disk, random access memory (RAM), an external storage medium, a storage device via a communication line, a register in a CPU (Central Processing Unit), and the like.
이하, 도 1 및 도 2를 참조하여, 본 발명의 일 실시예에 따른 정사영상에 기반한 센서 탑재 이동형 플랫폼의 기하 보정 시스템에 대하여 상세히 설명하기로 한다. Hereinafter, with reference to FIGS. 1 and 2, a geometric correction system of a mobile platform equipped with a sensor based on an orthogonal image according to an embodiment of the present invention will be described in detail.
도 1은 정사영상의 지역 내에서 다양한 이동형 플랫폼이 탑재한 센서가 관측 관련 데이터를 획득하는 과정을 도시한 도면이고, 도 2는 본 발명의 일 실시예에 따른 정사영상에 기반한 센서 탑재 이동형 플랫폼의 기하 보정 시스템에 관한 구성도이다. 1 is a view showing a process of acquiring observation-related data by sensors mounted on various mobile platforms within an area of a normal image, and FIG. 2 is a mobile platform equipped with a sensor based on a normal image according to an embodiment of the present invention. This is a schematic diagram of a geometric correction system.
센서 탑재 이동형 플랫폼의 기하 보정 시스템(100)은 지상 및/또는 공중 이동체와 같은 플랫폼에 탑재되어, 용도에 따라 모바일 맵핑 시스템(Mobile Mapping System) 또는 자율주행용 시스템으로 활용될 수 있다. The
예컨대, 도 1에서와 같이, 센서가 탑재된 이동형 플랫폼은 자동차(10), 항공(12), 드론과 같은 무인 항공기(14) 등일 수 있으며, 이동형 플랫폼에 탑재된 센서는 적색으로 표시된 관측 범위로 관측하면서 다수의 센서 데이터를 획득한다. For example, as shown in FIG. 1, the mobile platform equipped with a sensor may be an unmanned
도 2를 참조하면, 센서 탑재 이동형 플랫폼의 기하 보정 시스템(100)은 영상 센서(102), 3차원 측량 센서(104), 항법 센서(106), 정사영상 검색부(108), 센서 데이터 처리부(110), 유사성 분석부(112), 네트워크 모델 구성부(114), 최확값(most probable value) 산출부(116) 및 예상 오차 확률 분석부(118)를 포함할 수 있다. 영상 센서(102), 3차원 측량 센서(104) 및 항법 센서(106)는 센서부를 구성하고 있으며, 본 실시예에서는 3 개의 이종 센서가 탑재된 것을 위주로 설명하나, 센서부는 전술한 센서 중 적어도 하나를 포함하는 실시예도 제외하지 않는다. Referring to FIG. 2, the
영상 센서(102)는 지상 또는 공중 이동형 플랫폼에 탑재되어 그 주위의 주변 대상물, 예컨대 지형, 지물을 이미지로 촬영하여 영상용 관측 데이터를 취득하는 센서이며, 측량용 또는 비측량용 카메라, 스테레오 카메라일 있으며, 이에 제한되지 않는다. The
3차원 측량 센서(104)는 플랫폼에 탑재되어 그 주위의 대상물과 관련된 3차원 지리 데이터, 예컨대 지형, 지물 관련 데이터를 획득하여 3차원 측량용 관측 데이터를 취득하는 센서로서, 능동형 원격 탐사용 센서이다. 예를 들어, 3차원 측량 센서(104)는 레이저 또는 초음파 센서 등일 수 있으며, 레이저 센서의 경우, 라이다(Light Detection and Ranging; LiDAR) 센서일 수 있다. 이러한 라이다 센서는 데이터를 취득하고자 하는 대상물에 레이저를 주사하며 대상물로부터 반사되어 복귀하는 전자파의 시차와 에너지 변화를 감지하여 대상물에 대한 거리와 반사 강도를 산출한다. The
항법 센서(106)는 측위 정보, 플랫폼의 위치, 자세 및 속도 등의 항법 정보를 검출하여 항법용 관측 데이터를 취득하는 센서로서, 위성 항법 장치(GPS)를 통해 플랫폼의 이동 위치를 취득하는 위치 취득 장치와 관성 측정 장치(Inertial Measurement Unit; IMU), 관성 항법 장치(Inertial Navigation System; INS)를 통해 차량의 자세를 취득하는 자세 취득 장치 등으로 구성될 수 있다. The
각 센서는 동일 플랫폼에 탑재될 수 있으나, 지상 플랫폼과 위성, 항공, 드론 등과 같은 공중 플랫폼에 분산되어 탑재될 수도 있다. Each sensor may be mounted on the same platform, but may be distributed and mounted on a ground platform and an aerial platform such as satellite, aviation, and drone.
정사영상 검색부(108)는 도 5에서와 같이, 도 5의 좌측 이미지에 도시된 정사영상(16)으로부터 이동형 플랫폼의 이동 궤적(18)에 부합되는 관심 지역에 대한 다수의 정사영상 관련 데이터를 검색하여 추출할 수 있다. As shown in FIG. 5, the orthogonal
정사영상(16)은 카메라의 투영 기하 모델로 인해 발생하는 기복 변위 등의 왜곡을 제거한 정사투영 모델을 반영하는 영상 정보로 수치지도 제작에 주로 활용되는 2차원 지형 정보의 데이터이다. 구체적으로, 도 4에서와 같이, 위성 또는 항공 시스템의 카메라, 항법 센서로부터 취득된 카메라 영상 정보는 기본적으로 중심 투영(Perspective Projection) 기하를 갖는다. 카메라 영상 정보를 기하보정 과정과 기하 모델링 (Back-projection, 3D intersection 등) 과정 등을 거쳐 정사 투영(orthogonal projection)의 기하 특성을 갖도록 모델링된 영상이 정사영상이며, 정사영상의 각 픽셀에 수평 위치 좌표들이 매칭된다. 위성 영상 또는 항공 영상으로부터 취득된 정사영상은 전세계에 걸쳐 구축되어 있으며, 촬영 주기에 따라 주기적으로 업데이트 될 수 있다. 정사영상은 한국의 경우 국토지리정보원에서 관리하며, 위치 정확도, 해상도에 대한 품질관리에 대한 기준이 명확하므로, 활용 결과에 대한 품질 관리가 매우 용이하다. The
정사영상 관련 데이터는 관심 지역 내의 특징 기하로 추정되는 기하 형태 정보를 갖는 정사 데이터를 포함하고, 기하 형태 정보는 관심 지역에 추출된 객체의 특정 기하하적 형상에 기초하여 추출될 수 있다. 객체는 예컨대 도로 표지판, 특이 형상의 물체, 건물 경계선 등과 같이 지도 상에서 점, 선, 면, 기둥 등의 특징 기하가 용이하게 추출가능한 대상물로 랜덤으로 선정될 수 있다. The orthoimage-related data includes orthogonal data having geometric shape information estimated as feature geometry in the region of interest, and the geometric shape information may be extracted based on a specific geometric shape of the object extracted in the region of interest. The object may be randomly selected as an object capable of easily extracting feature geometries such as points, lines, faces, and columns on a map, such as a road sign, an object of unusual shape, and a building boundary line.
본 실시예에서와 같이, 이동형 플랫폼의 이동 궤적(18)에 부합되는 관심 지역을 설정하여 정사 데이터를 검색, 추출함으로써, 센서(102-106)로부터 취득된 센서 데이터로부터 처리된 관측 관련 데이터와 대비하는 기준 데이터의 설정과 유사성 분석에 소요되는 시간이 단축될 수 있을 뿐만 아니라, 보정 데이터를 추정하는 과정에서의 정확도가 향상될 수 있다. As in the present embodiment, by setting the region of interest corresponding to the
센서 데이터 처리부(110)는 적어도 하나의 센서(102~106)로부터 취득된 센서 데이터에 대해 소정의 처리를 수행하여 다수의 관측 관련 데이터를 출력할 수 있다. The sensor
관측 관련 데이터는 각 센서(102~106)로부터 직접 출력된 관측 데이터, 이동형 플랫폼의 위치와 자세에 따른 센서의 기하 관계를 정의하는 외부 기하, 각 센서마다 고유하게 정의된 기하 파라미터에 기초로 산출된 내부 기하 중 적어도 하나를 포함할 수 있다. 외부 기하와 내부 기하는 기하 정보를 구성할 수 있다. Observation-related data is calculated based on observation data output directly from each sensor (102~106), external geometry defining the geometric relationship of the sensor according to the position and attitude of the mobile platform, and geometric parameters uniquely defined for each sensor. It may include at least one of the internal geometry. The external geometry and the internal geometry can constitute geometric information.
또한, 관측 관련 데이터는 전술한 관측 데이터, 기하 정보, 각 센서의 취득 시간에 대한 시간 정보, 각 센서(102~106)마다 장치 고유 속성과 관련된 고유 데이터, 3차원 측량 센서(104)에 기반한 점군 데이터 관련 정보, 영상 센서(102)에 기반한 지오코딩(geocoding) 영상 데이터 관련 정보, 점군 데이터 관련 정보 및 지오코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 근거하여 추출한 대상물의 속성이 추정된 객체 정보, 점군 데이터 관련 정보 및 지오코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 기초하여, 지도를 작성하기 위해 생성된 지도 관련 정보 중 적어도 어느 하나를 포함할 수 있다. In addition, the observation-related data includes the above-described observation data, geometric information, time information for the acquisition time of each sensor, unique data related to device-specific attributes for each sensor 102-106, point group based on the three-
내부 기하는 각 센서(102~106)마다 정의된 기하 파라미터를 기초로 산출되며, 이 경우에 소정의 수학식을 통해 계산될 수 있다. The internal geometry is calculated based on geometric parameters defined for each sensor 102-106, and in this case, may be calculated through a predetermined equation.
내부 기하는 센서 자체의 고유값으로서, 플랫폼 등의 이동 여부에 관계없이 유지되는 파라미터에 기인하는 각 센서(102~106)마다의 관측 데이터의 오차이다. The internal geometry is an inherent value of the sensor itself, and is an error in observation data for each
여기서, 영상 센서용 기하 파라미터는 초점거리, 주점 위치, 렌즈왜곡 파라미터 및 센서 포맷 크기 중 적어도 하나일 수 있다. 3차원 측량 센서용 기하 파라미터는 라이다 센서를 예로 들면, 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋 및 축방향 오프셋 중 적어도 하나일 수 있다. 또한, 항법 센서용 기하 파라미터는 축방향의 스케일 및 축방향의 오프셋 중 적어도 하나일 수 있다.Here, the geometric parameter for the image sensor may be at least one of a focal length, a pub position, a lens distortion parameter, and a sensor format size. For example, the geometric parameter for the 3D survey sensor may be at least one of an incident angle, a distance scale, a distance offset, and an axial offset of each laser, for example. Further, the geometric parameter for the navigation sensor may be at least one of an axial scale and an axial offset.
센서 데이터 처리부(110)에서 수행되는 내부 기하의 상세한 산출 과정은 후술하기로 한다. The detailed calculation process of the internal geometry performed by the sensor
센서 데이터 처리부(110)는 각 센서(102~106)마다의 내부 기하 및 센서들(102~106) 중 적어도 하나가 탑재된 플랫폼의 위치와 자세에 따른 각 센서 간의 기하 관계를 정의하는 외부 기하로 구성된 기하 구조 정보에 근거하여 기하학적 모델링 처리를 수행함으로써, 데이터 융합을 수행한다. The sensor
외부 기하는 이동 중인 플랫폼의 위치와 자세, 즉 각 센서(102~106)의 위치와 자세로 인해, 각 센서(102~106)의 관측 데이터를 취득할 때마다 가변되는 파라미터 값에 기초하여 산출되는 관측 데이터의 오차이며, 이 경우에 소정의 수학식을 통해 계산될 수 있다. The external geometry is calculated based on the parameter values that change each time the observation data of each sensor 102-106 is acquired due to the position and attitude of the platform being moved, that is, the position and attitude of each sensor 102-106. It is an error of the observed data, and in this case, it can be calculated through a predetermined equation.
센서 데이터 처리부(110)에서 수행되는 외부 기하의 상세한 산출 과정은 후술하기로 한다.The detailed calculation process of the external geometry performed by the sensor
이에 더하여, 고유 데이터에 대해 각 센서(102~106)마다 예를 들어 설명하면, 영상 센서(102)의 고유 데이터는 센서의 조도, ISO, 셔터속도, 촬영날짜/시간, 시간 동기화정보, 센서 모델, 렌즈 모델, 센서 시리얼번호, 영상파일 이름, 파일 저장 위치 중 적어도 하나를 포함할 수 있다. In addition to this, for example, for each
3차원 측량 센서(104)의 고유 데이터는 라이다 정보를 예로 들면, 센서의 촬영날짜와 시간, 센서모델, 센서 시리얼 번호, 레이저파장, 레이저강도, 레이저송수신 시간, 레이저 관측 각/거리, 레이저 펄스, 전자적 시간지연, 대기 지연, 센서 온도 중 적어도 하나를 포함할 수 있다. The unique data of the
항법 센서(106)의 고유 데이터는 GNSS/IMU/INS의 센서 모델 정보, GNSS 수신정보, GNSS 위성 정보, GNSS 신호 정보, GNSS 네비게이션 정보, GNSS 신호의 전리층/대류층 신호지연 정보, DOP 정보, 지구 거동정보, 이중/다중 GNSS 장비 정보, GNSS Base Station 정보, Wheel 센서정보, 자이로 센서 Scale/Bias 정보, 가속도계 Scale/Bias 정보, 위치/자세/속도/가속도/각속도/각가속도 정보 및 예상오차량, 항법정보 필터링 모델 및 소거 오차 정보, 촬영날짜/시간, 시간동기화 정보 전부 또는 일부 중 적어도 하나를 포함할 수 있다. The unique data of the
시간 정보는 각 센서(102~106)의 관측 데이터가 생성되는 시간일 수 있다. The time information may be a time when observation data of each sensor 102-106 is generated.
센서 데이터 처리부(110)는 관측 데이터와 기하 정보에 기초하여, 3차원 측량 센서(104)에 기반한 3차원 점군 데이터 관련 정보 및 영상 센서(102)에 기반한 지오코딩 영상 데이터 관련 정보를 생성할 수 있다. 본 실시예에서는 점군 데이터 및 지오코딩 영상 데이터 관련 정보의 전부를 생성하는 예를 들고 있으나, 경우에 따라 이들 중 일부만 생성할 수도 있다. The sensor
3차원 점군 데이터 관련 정보는 점군용 3차원 좌표 데이터, 점군용 색상 정보, 점군용 3차원 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 점군용 클래스 정보 및 3차원 측량 센서가 레이저 센서인 경우의 레이저 강도 정보 중 적어도 하나를 포함할 수 있다. The 3D point cloud data-related information includes point group 3D coordinate data, point group color information, point group class information estimated from the object extracted from point group 3D coordinate data, and laser when the 3D survey sensor is a laser sensor. It may include at least one of the intensity information.
지오코딩 영상 데이터 관련 정보는 각 픽셀마다의 지오코딩용 좌표 데이터, 지오코딩용 색상 정보 및 지오코딩용 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 지오코딩용 클래스 정보 중 적어도 하나를 포함할 수 있다. The geocoding image data-related information may include at least one of geocoding coordinate data for each pixel, color information for geocoding, and class information for geocoding whose type is estimated from an object extracted from the geocoding coordinate data. .
센서 데이터 처리부(110)는 3차원 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 하나에 기초하여 추출된 대상물의 속성과 관련된 객체 정보를 추출함과 아울러서, 지도를 작성하기 위한 지도 관련 정보를 생성하여 도화 과정을 통해 지도를 작성할 수 있다.The sensor
센서 데이터 처리부(110)는 3차원 점군 데이터 관련 정보 및 지오코딩 영상 데이터 관련 정보 중 적어도 하나로부터 파악된 대상물과 관련된 후보군 데이터를 기계학습을 적용하여 대상물의 정보를 인식할 수 있다. 이 경우에, 객체 정보는 대상물의 종류, 전체 모양, 대상물의 적어도 일부를 구성하는 선, 면, 원, 구 등과 같은 특정 기하학적 형상, 색상, 질감 관련 속성을 포함할 수 있다. The sensor
지도 관련 정보는 점군용 3차원 좌표 데이터 및 지오코딩용 좌표 데이터 중 적어도 하나에 기초한 지도용 좌표 데이터, 대상물로부터 추정된 객체 정보 중 적어도 하나를 포함할 수 있다. The map-related information may include at least one of map coordinate data based on at least one of point group 3D coordinate data and geocoding coordinate data, and object information estimated from an object.
아울러, 지도 관련 정보, 3차원 점군 데이터 관련 정보에 포함된 3차원 좌표 데이터 및 지오코딩 영상 데이터 관련 정보에 포함된 지오코딩용 좌표 데이터는 2차원 또는 3차원 변환 데이터로서 Rigid-body, Affine, Similartiy 중 어느 하나로 구성된 데이터일 수 있다. In addition, the map-related information, the 3D coordinate data included in the 3D point cloud data related information, and the geocoding coordinate data included in the geocoding image data related information are two-dimensional or three-dimensional transformation data, such as Rigid-body, Affine, Similartiy It may be composed of any one of the data.
유사성 분석부(112)는 이동형 플랫폼에 탑재된 적어도 하나의 센서(102~106)로부터 취득되어 센서 데이터 처리부(110)에서 가공된 관측 관련 데이터와 정사 데이터 중 적어도 어느 하나에 소정의 전처리를 실시하고, 관측 관련 데이터와 정사 데이터 간에 유사성 분석을 실행하여 다수의 관측 관련 데이터와 다수의 정사 데이터로부터 동일하게 추정되는 적어도 하나의 기준 데이터를 설정할 수 있다. The
상술한 전처리는 영상 휘도 조정 전처리, 영상 해상도 조정 전처리, 영상 선명도 조정 전처리, 영상 기하 변환 전처리, 영상 좌표계 변환 전처리, 관측 및 정사영상 관련 데이터들에서의 객체의 경계선 정보를 추출하는 전처리 중 적어도 어느 하나가 적용될 수 있다. 이러한 전처리는 센서(102~106)의 고유 데이터, 관측시 환경, 스케일/회전/변위값 등의 관측 기하 특성 차이로 인한 기하 정보, 좌표계, 해상도 등의 변형량을 최소화하여 유사성 분석의 정확도를 향상시키기 위해 실시된다. 예컨대, 정사 데이터의 정사영상은 정오의 맑은 날씨에 취득되며, 관측 관련 데이터는 일몰의 우천시에 취득된 경우에, 양 데이터의 해상도가 상이하여 유사성 분석의 오류가 유발될 수 있다. 이를 해소하기 위해, 양 데이터의 해상도를 근접한 값으로 조정하는 전처리가 실시될 수 있다. 영상 기하 변환 전처리는 영상 스케일 변환 또는 영상 회전 변화 등일 수 있다. The above-described pre-processing is at least one of pre-processing of image luminance adjustment, pre-processing of image resolution adjustment, pre-processing of image sharpness adjustment, pre-processing of image geometric transformation, pre-processing of image coordinate system transformation, and pre-extraction of object boundary information from observation and ortho-image related data. Can be applied. This pre-processing improves the accuracy of similarity analysis by minimizing the amount of deformation such as geometric information, coordinate system, and resolution due to differences in the observed data characteristics such as the unique data of the
또한, 영상 센서(102)로부터 관측 관련 데이터를 획득하는 경우, 유사성 분석부(112)는 관측 관련 데이터에 속한 지오코딩 영상 데이터 관련 정보 중 픽셀 좌표를 기반으로 하는 색상 변화를 분석하여 기하 형태 정보를 추출하여 기준 데이터를 설정하는 유사성 분석을 수행할 수 있다. 3차원 측량 센서(104)로부터 관측 관련 데이터를 획득하는 경우, 유사성 분석부(112)는 관측 관련 데이터에 속한 점군 데이터의 기하하적 형상 변화도 및 레이저 강도 변화도 중 적어도 하나를 분석하여 기하 형태 정보를 추출하여 기준 데이터를 설정하는 유사성 분석을 실행할 수 있다. In addition, when obtaining observation-related data from the
이에 따르면, 기준 데이터와 관측 관련 데이터의 객체 정보, 예컨대 객체의 종류 또는 특정 기하하적 형상 등의 기하 형태 정보를 활용하여 이들 데이터 간의 유사성을 분석함으로써 정합 정밀도를 향상시킬 수 있다. According to this, it is possible to improve the matching precision by analyzing the similarity between the reference data and the object information of the observation-related data, for example, geometrical information such as the type of object or specific geometric shape.
네트워크 모델 구성부(114)는 기준 데이터와 정사영상의 기준 좌표계에 근거하여, 기준 데이터 및 상기 관측 관련 데이터 간의 기하 모델을 생성한다. The network
구체적으로, 네트워크 모델 구성부(114)는 외부 기하 및 내부 기하로 구성된 기하 정보에 기초하여 기준 데이터와 관측 관련 데이터 간의 기하 모델을 생성할 수 있다. 또한, 기준 좌표계는 도 1에 도시된 정사영상(16)의 정사영상 좌표계(20)로 설정될 수 있다. 형상 모델링이나 수치해석의 기준이 되는 정사영상 좌표계를 이용함으로써, 관측 관련 데이터를 표준화된 좌표계로 변환하여 보정할 수 있다. Specifically, the network
이와 다른 실시예로서, 네트워크 모델 구성부(114)는 기하 정보 중 외부 기하에 기초하여 기준 데이터와 수집 데이터 간의 기하 모델을 생성할 수 있다. 관측 관련 데이터를 취득한 센서(102~106)가 탑재된 이동형 플랫폼과 정사영상을 취득한 센서의 위치와 자세가 서로 상이한 점을 감안하여, 기하 모델 생성시에 외부 기하가 우선적으로 활용될 수 있다. As another embodiment, the network
네트워크 모델 구성부(114) 복수의 파라미터가 적용되는 기하 모델을 통해 관측 관련 데이터와의 이격량이 최소화되는 목적함수를 산출할 수 있다. The network
상세한 기하 모델의 생성은 도 3 및 도 8을 통해 후술하기로 한다. The creation of the detailed geometric model will be described later with reference to FIGS. 3 and 8.
네트워크 모델 구성부(114)는 기하 모델의 구성시에 수직 기하 데이터 없는 상기 기준 데이터를 적용할 수도 있으나, 정사 데이터는 2차원 데이터이며, 3차원 측량 센서(104)로부터 획득된 관측 관련 데이터가 3차원 데이터일 경우에 기하 모델의 정합성을 증대하기 위해, 기하 모델에 적용되는 기준 데이터에 수직 기하 데이터를 추가하는 보완 처리를 더 포함하여 수행할 수도 있다. The network
이 경우에, 보완 처리는 수직 기하 데이터를 소정 값으로 설정하는 처리, 다수의 기준 데이터로 3차원 좌표를 역산하는 처리, 래스터(raster) 형태의 수치고도모델 또는 벡터 형태의 수치지형도의 수직 기하 데이터를 기준 데이터에 추가하는 처리 및 도 9와 같은 인터섹션 기하(30)에 의해 3차원 기하 데이터를 추가하는 처리 중 적어도 하나일 수 있다. 도 9의 처리는 이동형 플랫폼의 이동 궤적(18)에 따라 도 9에서와 같이, 센서(102~106)가 복수 지점에서 획득된 멀티뷰(multi-view) 또는 스테레오 뷰(stereo-view)로부터 복수 지점마다의 관측 범위(28) 중에 상호 중첩되는 영역에서 촬영된 기준 데이터의 특징 기하(22)에 대하여 인터섹션(intersection) 기하(30)를 구성함으로써 수직 기하 데이터를 산출하며, 이러한 수직 기하 데이터를 정사영상(24)의 기준 데이터(24)에 추가하는 처리이다. 인터섹션 기하에 의한 보완 처리로 기하적 안정성이 확보되지 않은 경우에, 전술한 다른 처리가 추가 적용될 수 있다. In this case, the complementary processing is a process of setting vertical geometric data to a predetermined value, a process of inverting three-dimensional coordinates with a large number of reference data, a vertical geometry data in a raster form, a high-resolution model or a vector form, It may be at least one of the process of adding to the reference data and the process of adding three-dimensional geometric data by the
관측 관련 데이터가 영상 센서(102)에 항법 센서(106)가 결합된 형태로 취득가능한 경우, 사진 해석에 사용이 되는 등거리투영(Equidistant), 등각투영(Equisolid-angle), 정사투영(orthographic), 스테레오형 (stereographic), 중심투영(perspective) 기하, 세로 원통형, 가로 원통형, 메르카토 (mercarto), 역 메르카토 (trasverse mercarto), 구형, 정사투영(orthographic), 어안렌즈형, 스테레오형 (stereographic), 중심투영(central perspective) 중 적어도 하나로 기하모델링이 가능하다. 관측 관련 데이터가 3차원 측량 센서(104)에 항법 센서(106)가 결합된 형태로 취득가능한 경우, 3차원 변환 기하를 포함한 모델로 기하모델링이 가능하다. When observation-related data can be obtained in the form of a
최확값 산출부(116)는 기하 모델에서 관측 관련 데이터와 상기 기준 데이터 간에 이격량을 최소화하는 최확값(most probable value)을 산출하며 최확값에 따라 상기 관측 관련 데이터로부터 추정된 보정 데이터를 생성한다. 최확값 산출부(116)는 소정의 해석 모델식을 이용하며, 이 모델식에는 복수의 파라미터 중 일부 파라미터가 적용될 수 있다. The most
이와 같이 산출된 최확값으로 보정 데이터를 추정함으로써, 기준 데이터를 이용한 관측 관련 데이터의 기하 보정이 수행되며, 이러한 기한 보정은 기준 데이터를 기하 모델에 적용한 결과와 기준 데이터와 대응하는 관측 관련 데이터의 기하 오차량을 분석하여, 기하 오차량이 최소 또는 최적화되는 파라미터를 최확값으로 산출하는 과정이다. By estimating the correction data with the calculated maximum value, geometric correction of observation-related data using the reference data is performed, and such time-limit correction is the result of applying the reference data to the geometric model and the geometry of observation-related data corresponding to the reference data This is the process of analyzing the error amount and calculating the minimum or optimized parameter as the maximum value.
최확값은 외부 기하, 내부 기하의 오차 정보 중 적어도 어느 하나일 수 있다. 또한, 최확값은 전술한 정보 및 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보, 객체 정보, 지도 관련 정보 중 적어도 하나에 의해 생성된 기하 형태 정보의 오차 정보 중 적어도 어느 하나로 산출될 수 있다. 최확값 산출 과정은 도 3을 통해 후술한다. The maximum value may be at least one of external geometric and internal geometric error information. In addition, the maximum value may be calculated as at least one of error information of geometric shape information generated by at least one of the above-described information, point group data related information, geocoding image data related information, object information, and map related information. The process of calculating the maximum value will be described later with reference to FIG. 3.
또한, 예상 오차 확률 분석부(118)는 최확값의 산출시에 이용된 최소 이격량에 근거하여 보정 데이터와 관측 관련 데이터 간의 예상 오차를 분석하여 예상 오차가 허용 오차보다 초과하는지 여부를 판단하고, 초과하는 경우에 이하의 처리 중 적어도 하나를 해당 부에 지시하여 처리한다. 예상 오차 확률 분석부(118)는 이와 같은 처리 후에 새로이 설정된 제약 조건과 관련된 해당 부(모듈)부터 보정 프로세스를 재차 개시하여, 최확값 및 보정 데이터를 재생성 하도록 제어한다. In addition, the predicted error
예상 오차 확률 분석부(118)는 예상 오차가 허용 오차보다 초과하는 경우에, 이동형 플랫폼의 이동 궤적(18)에 부합되는 관심 지역을 조정하여 정사 데이터를 검색하여 추출하는 처리를 수행하도록 정사영상 검색부(108)를 제어할 수 있다. The predicted error
예상 오차 확률 분석부(118)는 유사성 분석부(112)에서 행해지는 전처리들 중 적어도 하나를 변경하거나, 정사 데이터 및 관측 관련 데이터에서 다른 객체 또는 다른 특징 기하로 추정되는 기하 형태 정보를 신규의 기준 데이터로 샘플링하여 추출하는 처리를 수행하도록 유사성 분석부(112)를 제어할 수도 있다.The predicted error
예상 오차 확률 분석부(118)는 기하 모델을 통해 산출된 목적함수로부터 소정의 이격도를 나타내는 관측 관련 데이터를 이상 데이터로 판정하여 제거하는 처리를 수행하도록 네트워크 모델 구성부(114)를 제어할 수도 있다. The predicted error
예상 오차 확률 분석부(118)는 기하 모델에 적용되는 적어도 일부의 파라미터를 변경하는 처리를 수행하도록 네트워크 모델 구성부(114)를 제어할 수 있다. The predicted error
예상 오차 확률 분석부(118)는 최확값 산출부(116)에 적용되는 최확값의 해석 모델식에 이용된 적어도 일부 파라미터를 변경하거나, 해석 모델식을 변경하는 처리 중 적어도 어느 하나를 수행하도록 최확값 산출부(116)를 제어할 수도 있다. The predicted error
예상 오차 확률 분석부(118)에 의해, 보정 데이터의 충분한 정확도가 더욱 향상될 수 있다. By the predicted error
본 실시예에 따르면, 2차원 정사영상에서의 특징 기하를 활용하여 이동형 플랫폼에 탑재된 센서의 관측 관련 데이터와 정사영상 간의 다양한 기법의 유사성 분석을 진행하고, 이에 의한 기준 데이터를 기반으로 양 데이터 간의 기하 모델을 생성함으로써, 2차원 지형 정보로 구성된 정사영상을 이용한 이동형 플랫폼의 3차원적 기하 정보 보정의 정확도 및 안정도를 확보할 수 있다. According to this embodiment, by utilizing the feature geometry in a two-dimensional orthogonal image, a similarity analysis between various techniques between observation-related data and an orthogonal image of a sensor mounted on a mobile platform is performed, and based on this, between the two data By generating a geometric model, it is possible to secure accuracy and stability of 3D geometric information correction of a mobile platform using an orthogonal image composed of 2D terrain information.
본 실시예에 따르면, 정사영상은 지상의 좌표들과 1대1 관계에서 기준 데이터의 확보 및 활용에 용이하며, 이동형 플랫폼의 기하보정 시 기준 데이터에 대한 관리를 용이하게 할 수 있으므로, 기준 데이터에 기반하여 관측 관련 데이터의 보정함에 있어서 매우 정확한 보정 데이터를 생성할 수 있다. According to the present embodiment, the orthoimage is easy to secure and utilize the reference data in a one-to-one relationship with the coordinates of the ground, and can facilitate management of the reference data when performing geometric correction of the mobile platform. Based on this, it is possible to generate highly accurate correction data in correction of observation related data.
이하, 도 1 내지 도 9, 도 11을 참조하여, 본 발명의 일 실시예에 따른 시스템에서 구현되는 보정 데이터를 추정하는 과정에 대해 설명하기로 한다.Hereinafter, a process of estimating correction data implemented in a system according to an embodiment of the present invention will be described with reference to FIGS. 1 to 9 and 11.
도 3은 센서 탑재 이동형 플랫폼의 기하 보정 시스템에서 구현되는 보정 데이터를 추정하는 과정을 나타낸 순서도이며, 도 4는 일반적인 카메라 영상과 구별되는 정사영상을 설명하는 도면이다. 도 5는 정사영상에서 이동형 플랫폼의 이동 궤적에 따른 관심 지역에서 정사 데이터를 검출하여 추출하는 과정을 나타내는 도면이며, 도 6은 유사성 분석부에서 정사영상과 관측 관련 데이터에서 기하 형태 정보를 추출하는 과정을 나타내는 도면이다. 도 7은 유사성 분석부에서 정사영상과 관측 관련 데이터에서 추출된 기하 형태 정보를 기초로 기준 데이터를 설정하는 과정을 나타낸 도면이며, 도 8은 네트워크 모델 구성부에서 기준 데이터와 관측 관련 데이터 간의 기하 모델을 생성함과 아울러서, 최확값 산출부에서 보정 데이터를 도출하는 과정을 나타내는 도면이다. 도 9는 이동형 플랫폼의 이동 궤적에 따라 멀티뷰 또는 스테레오 뷰로부터 인터섹션 기하를 구성하여 3차원 기하 데이터를 산출하는 처리하는 것을 도시한 도면이며, 도 11은 3차원 측량 센서에 취득된 관측 관련 데이터가 정사영상을 기준으로 기하 보정된 보정 데이터가 표현된 도면이다. 3 is a flowchart illustrating a process of estimating correction data implemented in a geometric correction system of a mobile platform equipped with a sensor, and FIG. 4 is a diagram illustrating an orthogonal image distinguished from a general camera image. 5 is a view showing a process of detecting and extracting ortho data from a region of interest according to a movement trajectory of a mobile platform from an ortho image, and FIG. 6 is a process of extracting geometric shape information from ortho images and observation-related data in a similarity analysis unit It is a figure showing. FIG. 7 is a diagram illustrating a process of setting reference data based on geometric shape information extracted from orthoimages and observation-related data in a similarity analysis unit, and FIG. 8 is a geometric model between reference data and observation-related data in a network model construction unit It is a diagram showing a process of deriving correction data from the most accurate value calculation unit while generating. FIG. 9 is a diagram illustrating processing for calculating 3D geometric data by constructing an intersection geometry from a multi-view or stereo view according to a movement trajectory of a mobile platform, and FIG. 11 is observation-related data acquired by a 3D survey sensor A is a diagram representing geometrically corrected correction data based on a normal image.
먼저 도 3에 있어서, 이동형 플랫폼에 탑재된 센서부는 적어도 하나의 센서(102~106)로부터 센서 데이터를 취득함과 아울러서, 센서 데이터 처리부(110)는 센서 데이터를 가공하여 다수의 관측 관련 데이터를 취득하고, 정사영상 검색부(108)는 관측 관련 데이터를 기초로 정사영상(16)의 다수의 정사 데이터를 검색한다(S305). First, in FIG. 3, the sensor unit mounted on the mobile platform acquires sensor data from at least one
관측 관련 데이터는 각 센서(102~106)로부터 직접 출력된 관측 데이터, 이동형 플랫폼의 위치와 자세에 따른 센서의 기하 관계를 정의하는 외부 기하, 각 센서마다 고유하게 정의된 기하 파라미터에 기초로 산출된 내부 기하 중 적어도 하나를 포함할 수 있다. 외부 기하와 내부 기하는 기하 정보를 구성할 수 있다. Observation-related data is calculated based on observation data output directly from each sensor (102~106), external geometry defining the geometric relationship of the sensor according to the position and attitude of the mobile platform, and geometric parameters uniquely defined for each sensor. It may include at least one of the internal geometry. The external geometry and the internal geometry can constitute geometric information.
또한, 관측 관련 데이터는 전술한 관측 데이터, 기하 정보, 각 센서의 취득 시간에 대한 시간 정보, 각 센서(102~106)마다 장치 고유 속성과 관련된 고유 데이터, 3차원 측량 센서(104)에 기반한 점군 데이터 관련 정보, 영상 센서(102)에 기반한 지오코딩(geocoding) 영상 데이터 관련 정보, 점군 데이터 관련 정보 및 지오코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 근거하여 추출한 대상물의 속성이 추정된 객체 정보, 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 기초하여, 지도를 작성하기 위해 생성된 지도 관련 정보 중 적어도 어느 하나를 포함할 수 있다. In addition, the observation-related data includes the above-described observation data, geometric information, time information for the acquisition time of each sensor, unique data related to device-specific attributes for each sensor 102-106, point group based on the three-
정사영상 검색부(108)는 도 1 및 5에서와 같이, 정사영상(16)으로부터 이동형 플랫폼의 이동 궤적(18)에 부합되는 관심 지역에 대한 정사영상 관련 데이터로서의 다수의 정사 데이터를 검색하여 추출한다. 1 and 5, as shown in FIGS. 1 and 5, the orthogonal
정사 데이터는 관심 지역 내의 특징 기하로 추정되는 기하 형태 정보를 가지며, 기하 형태 정보는 관심 지역에 추출된 객체의 특정 기하하적 형상에 기초하여 추출될 수 있다. 객체는 도 5에서와 같이, 예컨대 도로 표지판, 특이 형상의 물체, 건물 경계선 등과 같이 지도 상에서 점, 선, 면, 기둥 등의 특징 기하가 용이하게 추출가능한 대상물로 랜덤으로 선정될 수 있다. Ortho data has geometric shape information estimated to be feature geometry in the region of interest, and the geometric shape information may be extracted based on a specific geometric shape of the object extracted in the region of interest. 5, the object may be randomly selected as an object capable of easily extracting feature geometries such as points, lines, faces, and columns on a map, such as a road sign, an object of unusual shape, and a building boundary line.
본 실시예에서와 같이, 이동형 플랫폼의 이동 궤적(18)에 부합되는 관심 지역을 설정하여 정사 데이터를 검색, 추출함으로써, 센서(102~106)로부터 취득된 센서 데이터로부터 처리된 관측 관련 데이터와 대비하는 기준 데이터의 설정과 유사성 분석에 소요되는 시간이 단축될 수 있을 뿐만 아니라, 보정 데이터를 추정하는 과정에서의 정확도가 향상될 수 있다. As in this embodiment, by setting the region of interest that matches the
다음으로, 유사성 분석부(112)는 검색된 정사 데이터와 관측 관련 데이터 간의 유사성 분석에 의해 양 데이터로부터 동일하게 추정되는 적어도 하나의 기준 데이터를 설정한다(S310).Next, the
유사성 분석부(112)는 유사성 분석 전에, 어도 하나의 센서(102~106)로부터 취득관측 관련 데이터와 정사 데이터 중 적어도 어느 하나에 소정의 전처리를 실시할 수 있다. The
상술한 전처리는 영상 휘도 조정 전처리, 영상 해상도 조정 전처리, 영상 선명도 조정 전처리, 영상 기하 변환 전처리, 영상 좌표계 변환 전치, 관측 및 정사영상 관련 데이터들에서의 객체의 경계선 정보를 추출하는 전처리 중 적어도 어느 하나가 적용될 수 있다. 이러한 전처리는 센서(102~106)의 고유 데이터, 관측시 환경, 스케일/회전/변위값 등의 관측 기하 특성 차이로 인한 기하 정보, 좌표계, 해상도 등의 변형량을 최소화하여 유사성 분석의 정확도를 향상시키기 위해 실시된다. 예컨대, 정사 데이터의 정사영상은 정오의 맑은 날씨에 취득되며, 관측 관련 데이터는 일몰의 우천시에 취득된 경우에, 양 데이터의 해상도가 상이하여 유사성 분석의 오류가 유발될 수 있다. 이를 해소하기 위해, 양 데이터의 해상도를 근접한 값으로 조정하는 전처리가 실시될 수 있다. 영상 기하 변환 전처리는 영상 스케일 변환 또는 영상 회전 변화 등일 수 있다. The above-described pre-processing is at least one of pre-processing of image luminance adjustment, pre-processing of image resolution adjustment, pre-processing of image sharpness adjustment, pre-processing of image geometric transformation, pre-transformation of image coordinate system, pre-extraction of object boundary information from observation and ortho-image related data. Can be applied. This pre-processing improves the accuracy of similarity analysis by minimizing the amount of deformation such as geometric information, coordinate system, and resolution due to differences in the observed data characteristics such as the unique data of the
전처리 후에 실시되는 유사성 분석에 있어서, 영상 센서(102)로부터 관측 관련 데이터를 획득하는 경우, 유사성 분석부(112)는 관측 관련 데이터에 속한 지오코딩 영상 데이터 관련 정보 중 픽셀 좌표를 기반으로 하는 색상 변화를 분석하여 기하 형태 정보를 추출하여 기준 데이터를 설정하는 유사성 분석을 수행할 수 있다. 3차원 측량 센서(104)로부터 관측 관련 데이터를 획득하는 경우, 유사성 분석부(112)는 도 6에서와 같이 관측 관련 데이터에 속한 점군 데이터의 기하하적 형상 변화도 및 레이저 강도 변화도 중 적어도 하나를 분석하여 기하 형태 정보를 추출하여 기준 데이터를 설정하는 유사성 분석을 실행할 수 있다. 도 6에 따르면, Lidar 센서의 관측 관련 데이터와 정사 데이터의 기하 형태 정보로서의 특징 기하가 면, 기둥, 점인 경우에 유사성 분석을 수행하여 기준 데이터를 설정하는 과정을 보여주고 있다. 도 7은 영상 센서(102)로부터 취득된 관측 관련 데이터과 정사 데이터의 특징 기하로서의 점, 경계선 정보 등을 이용한 유사성 분석을 진행하여 기준 데이터를 설정하는 과정을 보여주고 있다. In the similarity analysis performed after the pre-processing, when obtaining observation-related data from the
이에 따르면, 기준 데이터와 관측 관련 데이터의 객체 정보로서의 객체의 종류 또는 특정 기하하적 형상 등의 기하 형태 정보를 활용하여 이들 데이터 간의 유사성을 분석함으로써 정합 정밀도를 향상시킬 수 있다. According to this, it is possible to improve the matching precision by analyzing the similarity between the data by using geometric shape information such as a specific geometric shape or a type of object as object information of the reference data and observation-related data.
다음으로, 네트워크 모델 구성부(114)는 기준 데이터와 정사영상의 기준 좌표계(20)에 근거하여, 기준 데이터 및 관측 관련 데이터 간의 기하 모델을 생성한다(S315). Next, the network
구체적으로, 네트워크 모델 구성부(114)는 외부 기하 및 내부 기하로 구성된 기하 정보에 기초하여 기준 데이터와 상기 관측 관련 데이터 간의 기하 모델을 생성한다. 최확값 산출부(116)에서 보정 데이터가 불안정한 값을 나타내는 경우에, 기준 데이터 및 관측 관련 데이터에 포함된 내부 기하도 고려하는 최적화 과정을 거쳐 기하 모델을 생성한다.Specifically, the network
네트워크 모델 구성부(114) 복수의 파라미터가 적용되는 기하 모델을 통해 관측 관련 데이터와의 이격량이 최소화되는 목적함수를 산출할 수 있다. The network
도 8에서는 네트워크 모델 구성부(134)가 내부 기하와 외부 기하를 포함한 기하 정보에 의해 기준 데이터 및 기준 좌표계 관점의 기하 모델을 구성한 것이다. In FIG. 8, the network model constructing unit 134 configures a geometric model in terms of reference data and a reference coordinate system by geometric information including internal geometry and external geometry.
구체적으로, 각 센서(102~106)마다 내부 기하를 산출하는 상세 과정은 이하에서 예시한다. Specifically, the detailed process of calculating the internal geometry for each
도 8의 기하 모델에서 3차원 측량 센서(104)의 내부 기하 모델은 [수학식 1]과 같이 정의될 수 있다. In the geometric model of FIG. 8, the internal geometric model of the
[수학식 1][Equation 1]
또한, 도 8의 기하 모델에서 영상 센서(102)의 내부 기하 모델은 [수학식 2]와 같이 정의될 수 있다. Also, in the geometric model of FIG. 8, the internal geometric model of the
[수학식 2][Equation 2]
이에 더하여, 정의된 3차원 측량 센서(104)의 내부 기하 모델 및 정의된 영상 센서(102)의 내부 기하 모델을 적용하여 데이터 융합을 하기 위한, 3차원 측량 센서(104)의 외부 기하모델은 도 8의 기하모델 있어서, [수학식 3]에서와 같이 정의되고, 영상 센서(102)의 외부 기하 모델은 [수학식 4]에서와 같이 정의될 수 있다.In addition, the external geometric model of the three-
[수학식 3] [Equation 3]
[수학식 4] [Equation 4]
이와 다른 실시예로서, 최확값 산출부(116)에서 보정 데이터가 안정한 값을 나타내면, 네트워크 모델 구성부(114)는 기하 정보 중 외부 기하에 기초하여 기준 데이터와 관측 관련 데이터 간의 기하 모델을 생성할 수 있다. 관측 관련 데이터를 취득한 센서(102~106)가 탑재된 이동형 플랫폼과 정사영상을 취득한 센서의 위치와 자세가 서로 상이한 점을 감안하여, 기하 모델 생성시에 외부 기하가 우선적으로 활용될 수 있다. As another embodiment, if the correction data in the most accurate
네트워크 모델 구성부(114)는 기하 모델의 구성시에 수직 기하 데이터 없는 상기 기준 데이터를 적용할 수도 있으나, 정사 데이터는 2차원 데이터이며, 3차원 측량 센서(104)로부터 획득된 관측 관련 데이터가 3차원 데이터일 경우에 기하 모델의 정합성을 증대하기 위해, 기하 모델에 적용되는 기준 데이터에 수직 기하 데이터를 추가하는 보완 처리를 더 포함하여 수행할 수도 있다. The network
이 경우에, 보완 처리는 수직 기하 데이터를 소정 값으로 설정하는 처리, 다수의 기준 데이터로 3차원 좌표를 역산하는 처리, 래스터(raster) 형태의 수치고도모델 또는 벡터 형태의 수치지형도의 수직 기하 데이터를 기준 데이터에 추가하는 처리 및 인터섹션 기하(30)에 의해 3차원 기하 데이터를 산출하는 처리 중 적어도 하나일 수 있다. In this case, the complementary processing is a process of setting vertical geometric data to a predetermined value, a process of inverting three-dimensional coordinates with a large number of reference data, a vertical geometry data in a raster form, a high-resolution model or a vector form, It may be at least one of the process of adding 3D to the reference data and the process of calculating the 3D geometric data by the
인터섹션 기하에 의한 처리는 이동형 플랫폼의 이동 궤적(18)에 따라 도 9에서와 같이, 센서(102~106)가 복수 지점에서 획득된 멀티뷰(multi-view) 또는 스테레오 뷰(stereo-view)로부터 복수 지점마다의 관측 범위(28) 중에 상호 중첩되는 영역에서 촬영된 기준 데이터의 특징 기하(22)에 대하여 인터섹션(intersection) 기하(30)를 구성함으로써 수직 기하 데이터를 산출하며, 이러한 수직 기하 데이터를 정사영상(24)의 기준 데이터(24)에 추가하는 처리이다. 인터섹션 기하에 의한 보완 처리로 기하적 안정성이 확보되지 않은 경우에, 전술한 다른 처리가 추가 적용될 수 있다. The processing by the intersection geometry is performed according to the
다음으로, 최확값 산출부(116)는 기하 모델에서 관측 관련 데이터와 기준 데이터 간에 이격량을 최소화하는 최확값을 산출하며 최확값에 따라 상기 관측 관련 데이터로부터 보정 데이터를 추정한다(S320). Next, the maximum
최확값 산출부(116)는 소정의 해석 모델식을 이용하며, 이 모델식에는 복수의 파라미터 중 일부 파라미터가 적용될 수 있다. 최확값은 외부 기하, 내부 기하의 오차 정보 중 적어도 어느 하나일 수 있다. 또한, 최확값은 전술한 정보 및 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보, 객체 정보, 지도 관련 정보 중 적어도 하나에 의해 생성된 기하 형태 정보의 오차 정보 중 적어도 어느 하나로 산출될 수 있다. The most accurate
최확값은 예컨대 객체 정보, 좌표 데이터, 기하 정보, 시간 정보 등 기준 데이터와 수집 데이터에 속한 관련 정보들 간의 이격량을 통계적으로 최소화하는 수치 해석을 이용하여 산출될 수 있으며, 최확값은 스칼라 값, 행렬, 모델식 형태로 표현될 수 있다. The maximum value may be calculated using numerical analysis that statistically minimizes the separation between reference data such as object information, coordinate data, geometric information, and time information and related information belonging to the collected data, and the maximum value is a scalar value, It can be expressed in the form of a matrix or model.
예를 들어, 최확값을 구하는 과정으로서 최소제곱법을 적용하기 위해서는 데이터 기하모델을 Gauss-Markov 모델화하여야 하며 이는 다음 수식으로 정의될 수 있다.For example, in order to apply the least squares method as a process of finding the maximum value, the data geometric model must be Gauss-Markov modeled, which can be defined by the following equation.
[수학식 5][Equation 5]
여기서, 는 관측값, 는 기본 기하식, 는 기존 기하 모델 파라미터, 는 기본 기하식과 파라매터 간 관계에서 유도된 자코비안(Jacobian) 행렬, 는 기하 모델 파라미터 보정량, 는 부정 오차이다.here, Is the observation, Is the basic geometry, Is the existing geometric model parameter, Is a Jacobian matrix derived from the relationship between the basic geometrical and parametric, Is the geometric model parameter correction amount, Is the negative error.
Gauss-Markov을 이용하여 기하모델 파라미터 보정량을 역계산할 수 있으며, 이는 다음 수식으로 정의될 수 있다.The correction amount of the geometric model parameter can be inversely calculated using Gauss-Markov, which can be defined by the following equation.
[수학식 6][Equation 6]
여기서, 는 역계산된 기하 모델 파라미터 보정량으로서 최확값이고, 는 관측값의 정확도에 따라 설정되는 관측값의 경중률이다.here, Is the inverse computed geometric model parameter correction and is the maximum value, Is the weight ratio of the observations set according to the accuracy of the observations.
최확값 이 수집 데이터에 대해 병합함으로써, 도 7에서와 같이 보정 데이터(RL_1)가 생성될 수 있다. Maximum By merging the collected data, correction data RL_1 can be generated as in FIG. 7.
보정 데이터의 관련 데이터는 상술한 값과 함께, 이의 분산, 공분산 값을 포함할 수 있다. The related data of the correction data may include variance and covariance values thereof together with the above-described values.
이와 같이 산출된 최확값으로 보정 데이터를 추정함으로써, 기준 데이터를 이용한 관측 관련 데이터의 기하 보정이 수행되며, 이러한 기한 보정은 기준 데이터를 기하 모델에 적용한 결과와 기준 데이터와 대응하는 관측 관련 데이터의 기하 오차량을 분석하여, 기하 오차량이 최소 또는 최적화되는 파라미터를 최확값으로 산출하는 과정이다. By estimating the correction data with the calculated maximum value, geometric correction of observation-related data using the reference data is performed, and such time-limit correction is the result of applying the reference data to the geometric model and the geometry of observation-related data corresponding to the reference data This is the process of analyzing the error amount and calculating the minimum or optimized parameter as the maximum value.
본 실시예의 시스템(100)에 따라 보정 데이터가 추정되어 이동형 플랫폼에 탑재된 센서부와 관련된 기하 보정이 이루어진 이미지는 도 11을 통해 도시되어 있다. 이는 이동형 플랫폼에 탑재된 Lidar 센서로부터 취득된 3차원 관측 관련 데이터가 정사영상을 기준으로 기하 보정된 Lidar 데이터는 청색으로 표시되어 있으며, 이동형 프랫폼의 이동 궤적은 적색으로 표시되어 있다. An image in which the correction data is estimated according to the
본 실시예에 따르면, 정사영상에서의 특징 기하를 활용하여 이동형 플랫폼에 탑재된 센서의 관측 관련 데이터와 정사영상 간의 유사성 분석을 수행하고, 이에 의한 기준 데이터를 기반으로 양 데이터 간의 기하 모델을 생성함으로써, 2차원 지형 정보로 구성된 정사영상을 이용한 이동형 플랫폼의 3차원적 기하 정보 보정의 정확도 및 안정도를 확보할 수 있다. According to the present embodiment, by utilizing the feature geometry in the orthoimage to analyze the similarity between the observation-related data and the orthoimage of the sensor mounted on the mobile platform, thereby generating a geometric model between both data based on the reference data , It is possible to secure accuracy and stability of 3D geometric information correction of a mobile platform using an orthogonal image composed of 2D terrain information.
본 실시예에 따르면, 정사영상은 지상의 좌표들과 1대1 관계에서 기준 데이터의 확보 및 활용에 용이하며, 이동형 플랫폼의 기하보정 시 기준 데이터에 대한 관리를 용이하게 할 수 있으므로, 기준 데이터에 기반하여 관측 관련 데이터의 보정함에 있어서 매우 정확한 보정 데이터를 생성할 수 있다. According to the present embodiment, the orthoimage is easy to secure and utilize the reference data in a one-to-one relationship with the coordinates of the ground, and can facilitate management of the reference data when performing geometric correction of the mobile platform. Based on this, it is possible to generate highly accurate correction data in correction of observation related data.
이하, 도 2 및 도 10을 참조하여, 본 발명의 일 실시예에 따른 시스템에서 최확값에 따른 예상 오차가 허용 오차를 초과하는 경우의 처리 과정 과정에 대해 설명하기로 한다. Hereinafter, with reference to FIGS. 2 and 10, the process of processing in the case where the expected error according to the maximum value exceeds the allowable error in the system according to an embodiment of the present invention will be described.
도 10은 본 발명의 일 실시예에 따른 센서 탑재 이동형 플랫폼의 기하 보정 시스템에서 최확값에 따른 예상 오차가 허용 오차를 초과하는 경우의 처리 과정을 나타내는 순서도이다. 10 is a flowchart illustrating a processing process when an expected error according to a maximum value exceeds an allowable error in a geometric correction system of a mobile platform equipped with a sensor according to an embodiment of the present invention.
먼저, 예상 오차 확률 분석부(118)는 최확값의 산출시에 이용된 최소 이격량에 근거하여 보정 데이터와 관측 관련 데이터 간의 예상 오차를 분석하여(S1005), 예상 오차가 허용 오차보다 초과하는지 여부를 판단한다(S1010). First, the predicted error
초과하는 경우에 이하의 처리 중 적어도 하나를 해당 부(모듈), 즉 정사영상 검색부(108), 유사성 분석부(112), 네트워크 모델 구성부(114), 최확값 산출부(116) 중 적어도 어느 하나에 지시하여 처리하고, 새로이 설정된 제약 조건과 관련된 해당 부(모듈)부터 보정 프로세스를 재차 개시하여, 최확값 및 보정 데이터를 재생성 하도록 제어한다(S1015). In case of exceeding, at least one of the following processes (at least) of the corresponding unit (module), that is, an orthogonal
예상 오차 확률 분석부(118)는 예상 오차가 허용 오차보다 초과하는 경우에, 이동형 플랫폼의 이동 궤적(18)에 부합되는 관심 지역을 조정하여 정사 데이터를 검색하여 추출하는 처리를 수행하도록 정사영상 검색부(108)를 제어할 수 있다. 예컨대, 최초 관심 지역이 너무 넓거나, 산지 등과 같이 도심보다 특징 기하가 적게 선정되는 경우에, 관심 지역이 좁게 설정하나 특징 기하가 상대적으로 많은 지역으로 설정될 수 있다. The predicted error
예상 오차 확률 분석부(118)는 유사성 분석부(112)에서 행해지는 전처리들 중 적어도 하나를 변경하거나, 정사 데이터 및 관측 관련 데이터에서 다른 객체 또는 다른 특징 기하로 추정되는 기하 형태 정보를 신규의 기준 데이터로 샘플링하여 추출하는 처리를 수행하도록 유사성 분석부(112)를 제어할 수도 있다. 예컨대, 영상 휘도 조정 전처리, 영상 해상도 조정 전처리, 영상 선명도 조정 전처리, 영상 기하 변환, 영상 좌표계 변환, 관측 및 정사영상 관련 데이터들에서의 객체의 경계선 정보를 추출하는 전처리 등이 실시될 수 있다. The predicted error
예상 오차 확률 분석부(118)는 기하 모델을 통해 산출된 목적함수로부터 소정의 이격도를 나타내는 관측 관련 데이터를 이상 데이터로 판정하여 제거하는 처리를 수행하도록 네트워크 모델 구성부(114)를 제어할 수도 있다. 예컨대, 도 8에 나타난 제 1 객체의 관측 관련 데이터(L_1) 및 제 2 객체의 관측 관련 데이터(L_2) 중에서 목적함수와 이격도가 큰 관측 관련 데이터가 있다면, 해당 데이터를 이상 데이터로 판정하여 제거하고, 경우에 따라 이와 관련된 기준 데이터도 제외시킬 수 있다. The predicted error
예상 오차 확률 분석부(118)는 기하 모델에 적용되는 적어도 일부의 파라미터를 변경하는 처리를 수행하도록 네트워크 모델 구성부(114)를 제어할 수 있다. The predicted error
예상 오차 확률 분석부(118)는 최확값 산출부(116)에 적용되는 최확값의 해석 모델식에 이용된 적어도 일부 파라미터를 변경하거나, 해석 모델식을 변경하는 처리 중 적어도 어느 하나를 수행하도록 최확값 산출부(116)를 제어할 수도 있다. The predicted error
만약, 예상 오차가 허용 오차를 초과하지 않으면, S320 단계에서 추정된 보정 데이터가 최종으로 채택된다. If the expected error does not exceed the allowable error, the correction data estimated in step S320 is finally adopted.
본 실시예에 따르면, 도 3의 보정 프로세스를 검증하여 보다 신뢰도 있는 보정 데이터를 생성함으로써, 기하 보정의 정확성 및 안정성을 더욱 개선할 수 있다. According to the present embodiment, by correcting the correction process of FIG. 3 to generate more reliable correction data, the accuracy and stability of the geometric correction can be further improved.
도 2에 도시된 시스템(100)을 성하는 구성요소 또는 도 3, 도 10에 도시된 실시예들에 따른 단계는 그 기능을 실현시키는 프로그램의 형태로 컴퓨터 판독가능한 기록 매체에 기록될 수 있다. 여기에서, 컴퓨터 판독 가능한 기록 매체란, 데이터나 프로그램 등의 정보를 전기적, 자기적, 광학적, 기계적, 또는 화학적 작용에 의해 축적하고, 컴퓨터에서 판독할 수 있는 기록 매체를 말한다. 이러한 기록 매체 중 컴퓨터로부터 분리 가능한 것으로서는, 예를 들면, 휴대용 스토리지(portalbe storage), 플렉시블 디스크, 광자기 디스크, CD-ROM, CD-R/W, DVD, DAT, 메모리 카드 등이 있다. 또한, 모바일 디바이스 및 컴퓨터에 고정된 기록 매체로서 SSD(Solid State Disk), 하드디스크나 ROM 등이 있다.The components constituting the
또한, 이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. In addition, in the above, even if all components constituting the embodiments of the present invention have been described as being combined and operated, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all of the constituent elements may be selectively combined and operated. In addition, although all of the components may be implemented by one independent hardware, a part or all of the components are selectively combined to perform a program module that performs a part or all of functions combined in one or a plurality of hardware. It can also be implemented as a computer program.
이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리 범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태에 의하여 정해져야 한다.Although the present invention has been described in detail through exemplary embodiments above, those skilled in the art to which the present invention pertains are capable of various modifications to the above-described embodiments without departing from the scope of the present invention. Will understand. Therefore, the scope of rights of the present invention should not be limited to the described embodiments, but should be determined by any modified or modified form derived from the claims and equivalent concepts as well as the claims described below.
100: 시스템 102: 영상 센서
104: 3차원 측량 센서 106: 항법 센서
108: 정사영상 검색부 110: 센서 데이터 처리부
112: 유사성 분석부 114: 네트워크 모델 구성부
116: 최확값 산출부 118: 예상 오차 확률 분석부100: system 102: image sensor
104: three-dimensional measurement sensor 106: navigation sensor
108: orthographic image search unit 110: sensor data processing unit
112: similarity analysis unit 114: network model configuration unit
116: most accurate value calculation unit 118: expected error probability analysis unit
Claims (10)
영상 센서, 항법 센서 및 3차원 지리 데이터를 획득하는 3차원 측량 센서 중 적어도 하나를 포함하는 센서부;
상기 이동형 플랫폼에 탑재된 적어도 하나의 센서로부터 취득된 관측 관련 데이터와 2차원 지형 정보를 갖는 정사영상 관련 데이터 간에 유사성 분석을 실행하여 상기 관측 관련 데이터와 상기 정사영상 관련 데이터로부터 동일하게 추정되는 기준 데이터를 설정하는 유사성 분석부;
상기 기준 데이터와 상기 정사영상의 기준 좌표계를 기반으로 상기 기준 데이터 및 상기 관측 관련 데이터 간의 기하 모델을 생성하는 네트워크 모델 구성부;
상기 기하 모델에서 상기 관측 관련 데이터와 상기 기준 데이터 간에 이격량을 최소화하는 최확값(most probable value)을 산출하며 상기 최확값에 따라 상기 관측 관련 데이터로부터 추정된 보정 데이터를 생성하는 최확값 산출부; 및
상기 최확값의 산출시에 이용된 최소 이격량에 근거하여 보정 데이터와 관측 관련 데이터 간의 예상 오차를 분석하여 상기 예상 오차가 허용 오차보다 초과하는지 여부를 판단하는 예상 오차 확률 분석부를 포함하고,
상기 예상 오차 확률 분석부는 상기 예상 오차가 상기 허용 오차보다 초과하는 경우에,
상기 이동형 플랫폼의 이동 궤적에 부합되는 관심 지역을 조정하여 상기 정사영상 관련 데이터를 검색하여 추출하는 처리,
상기 유사성 분석부에서 상기 유사성 분석 전에 상기 관측 관련 데이터와 상기 정사 데이터 간의 관측 기하 특성 차이로 인한 변형량을 최소화하는 전처리를 실시한 경우에 상기 전처리의 조건을 변경하거나, 상기 정사영상 관련 데이터 및 상기 관측 관련 데이터에서 다른 객체 또는 다른 특징 기하로 추정되는 기하 형태 정보를 신규의 기준 데이터로 샘플링하여 추출하는 처리,
상기 네트워크 모델 구성부에서 생성된 상기 기하 모델에서 이상 데이터로 판정되는 관측 관련 데이터를 제거하는 처리,
상기 기하 모델에 적용되는 적어도 일부의 파라미터를 변경하는 처리, 및
상기 최확값 산출부에 적용되는 상기 최확값의 해석 모델식에 이용된 적어도 일부 파라미터를 변경하거나, 상기 해석 모델식을 변경하는 처리 중 적어도 어느 하나를 수행하도록 상기 유사성 분석부, 상기 네트워크 모델 구성부, 상기 최확값 산출부를 제어하고,
상기 처리 수행 후의 제약 조건에 따라 최확값 및 보정 데이터를 재차 생성하도록 제어하는 센서 탑재된 이동형 플랫폼의 기하 보정 시스템.In the geometric correction system of the mobile platform with a sensor based on orthoimage,
A sensor unit including at least one of an image sensor, a navigation sensor, and a 3D measurement sensor for obtaining 3D geographic data;
Similarity analysis is performed between observation-related data obtained from at least one sensor mounted on the mobile platform and orthoimage-related data having two-dimensional terrain information, and reference data estimated equally from the observation-related data and the orthoimage-related data. Similarity analysis unit for setting;
A network model construction unit generating a geometric model between the reference data and the observation-related data based on the reference data and a reference coordinate system of the orthoimage;
A most probable value that calculates a most probable value that minimizes the amount of separation between the observation-related data and the reference data in the geometric model and generates correction data estimated from the observation-related data according to the maximum value; And
And a predicted error probability analysis unit that analyzes a predicted error between the correction data and the observation-related data based on the minimum distance used when calculating the maximum value, and determines whether the predicted error exceeds the allowable error,
When the expected error probability analysis unit exceeds the expected error, the allowable error,
A process of retrieving and extracting the orthographic image-related data by adjusting a region of interest that matches the movement trajectory of the mobile platform,
When the similarity analysis unit performs pre-processing to minimize deformation due to a difference in observed geometric characteristics between the observation-related data and the ortho data before the similarity analysis, the conditions of the pre-processing are changed, or the ortho-image data and the observation-related A process of sampling and extracting geometric shape information estimated from another object or another feature geometry from data as new reference data,
A process of removing observation-related data determined as abnormal data from the geometric model generated by the network model construction unit;
A process of changing at least some parameters applied to the geometric model, and
The similarity analysis unit and the network model construction unit to perform at least one of the process of changing at least some parameters used in the analysis model formula of the most applicable value applied to the most accurate value calculation unit or changing the analysis model expression. , Control the most accurate value calculation unit,
A geometric correction system of a mobile platform equipped with a sensor that controls to generate the maximum value and correction data again according to constraints after performing the processing.
상기 정사영상은 카메라의 투영 기하 모델로 인해 발생하는 왜곡을 제거한 정사 투영 모델을 반영하는 영상 정보이고,
상기 관측 관련 데이터는 각 센서로부터 직접 출력된 관측 데이터, 상기 이동형 플랫폼의 위치와 자세에 따른 센서의 기하 관계를 정의하는 외부 기하, 각 센서의 취득 시간에 대한 시간 정보, 상기 3차원 측량 센서에 기반한 점군 데이터 관련 정보, 상기 영상 센서에 기반한 지오코딩(geocoding) 영상 데이터 관련 정보, 상기 점군 데이터 관련 정보 및 상기 지오코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 근거하여 추출한 대상물의 속성이 추정된 객체 정보, 상기 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 기초하여, 지도를 작성하기 위해 생성된 지도 관련 정보 중 적어도 어느 하나를 포함하는 센서 탑재된 이동형 플랫폼의 기하 보정 시스템. According to claim 1,
The orthogonal image is image information reflecting an orthogonal projection model in which distortion caused by the projection geometric model of the camera is removed,
The observation-related data is based on observation data directly output from each sensor, external geometry defining a sensor's geometric relationship according to the position and posture of the mobile platform, time information on the acquisition time of each sensor, and the three-dimensional survey sensor. Point group data-related information, geocoding image data-related information based on the image sensor, object information for which an attribute of the extracted object is estimated based on at least one of the point group data-related information and the geocoding image data-related information, Based on at least one of the point group data related information and geocoding image data related information, a geometric correction system of a mobile platform equipped with a sensor including at least one of map related information generated to create a map.
상기 관측 관련 데이터는 상기 센서마다 고유하게 정의된 기하 파라미터에 기초로 산출된 내부 기하를 더 포함하고,
상기 네트워크 모델 구성부는 상기 외부 기하 및 상기 내부 기하로 구성된 기하 정보에 기초하여 상기 기준 데이터와 상기 관측 관련 데이터 간의 기하 모델을 생성하는 센서 탑재된 이동형 플랫폼의 기하 보정 시스템. According to claim 2,
The observation-related data further includes an internal geometry calculated based on geometric parameters uniquely defined for each sensor,
The network model construction unit is a geometric correction system of a mobile platform equipped with a sensor that generates a geometric model between the reference data and the observation-related data based on the geometric information composed of the external geometry and the internal geometry.
상기 최확값은 상기 외부 기하, 상기 내부 기하의 오차 정보 및 상기 점군 데이터 관련 정보, 상기 지오코딩 영상 데이터 관련 정보, 상기 객체 정보, 상기 지도 관련 정보 중 적어도 하나에 의해 생성된 기하 형태 정보의 오차 정보로부터 선택된 적어도 어느 하나이고, 상기 기하 형태 정보는 상기 기준 데이터와 상기 관측 관련 데이터에서 동일하게 추정되는 특징 기하와 관련된 정보인 센서 탑재된 이동형 플랫폼의 기하 보정 시스템. The method of claim 3,
The maximum value is the error information of the geometry information generated by at least one of the external geometry, the error information of the internal geometry, the point group data related information, the geocoding image data related information, the object information, and the map related information. At least one selected from, and the geometric shape information is information related to the feature geometry estimated to be the same from the reference data and the observation related data. A geometric correction system for a mobile platform equipped with a sensor.
상기 정사영상으로부터 상기 이동형 플랫폼의 이동 궤적에 부합되는 관심 지역에 대한 정사 데이터를 검색하여 추출하는 정사영상 검색부를 더 포함하고,
상기 정사영상 관련 데이터는 상기 관심 지역 내의 특징 기하로 추정되는 기하 형태 정보를 갖는 정사 데이터를 포함하고, 상기 기하 형태 정보는 상기 관심 지역에 추출된 객체의 특정 기하하적 형상에 기초하여 추출되는 센서 탑재된 이동형 플랫폼의 기하 보정 시스템. According to claim 1,
Further comprising an orthogonal image search unit for retrieving and extracting orthogonal data for a region of interest corresponding to the movement trajectory of the mobile platform from the orthogonal image,
The orthoimage-related data includes orthogonal data having geometric shape information estimated to be feature geometry in the region of interest, and the geometric shape information is a sensor extracted based on a specific geometric shape of an object extracted in the region of interest Geometry correction system on the mobile platform.
상기 유사성 분석은 상기 정사 데이터와 상기 관측 관련 데이터 간에 동일하게 추정되는 상기 기준 데이터를 설정하도록 실행되고, 상기 유사성 분석부는 상기 영상 센서로부터 상기 관측 관련 데이터를 획득하는 경우, 상기 관측 관련 데이터에 속한 지오코딩 영상 데이터 관련 정보 중 픽셀 좌표를 기반으로 하는 색상 변화를 분석하여 상기 기하 형태 정보를 추출하여 상기 기준 데이터를 설정하는 유사성 분석을 실행하고, 상기 3차원 측량 센서로부터 상기 관측 관련 데이터를 획득하는 경우, 상기 관측 관련 데이터에 속한 점군 데이터의 기하하적 형상 변화도 및 레이저 강도 변화도 중 적어도 하나를 분석하여 상기 기하 형태 정보를 추출하여 상기 기준 데이터를 설정하는 유사성 분석을 실행하는 센서 탑재된 이동형 플랫폼의 기하 보정 시스템. The method of claim 5,
The similarity analysis is performed to set the reference data that is estimated to be equal between the orthonormal data and the observation-related data, and when the similarity analysis unit acquires the observation-related data from the image sensor, geo belonging to the observation-related data When analyzing the color change based on pixel coordinates among the information related to coded image data, extracting the geometric shape information and performing similarity analysis to set the reference data, and obtaining the observation-related data from the 3D survey sensor , A mobile platform equipped with a sensor that analyzes at least one of the geometric shape change and laser intensity change of the point cloud data belonging to the observation-related data to extract the geometric shape information and perform similarity analysis to set the reference data Geometric correction system.
상기 유사성 분석부는 상기 유사성 분석의 실행 전에, 상기 관측 관련 데이터와 상기 정사영상 관련 데이터 중 적어도 어느 하나에, 영상 휘도 조정 전처리, 영상 해상도 조정 전처리, 영상 선명도 조정 전처리, 영상 기하 변환 전처리, 영상 좌표계 변환 전처리, 상기 관측 및 상기 정사영상 관련 데이터들에서의 객체의 경계선 정보를 추출하는 전처리로부터 선택된 적어도 어느 하나의 전처리를 수행하는 센서 탑재된 이동형 플랫폼의 기하 보정 시스템. According to claim 1,
The similarity analysis unit prior to the execution of the similarity analysis, at least one of the observation-related data and the orthoimage-related data, image luminance adjustment pre-processing, image resolution adjustment pre-processing, image sharpness adjustment pre-processing, image geometry transformation pre-processing, image coordinate system conversion A geometric correction system of a mobile platform equipped with a sensor that performs at least one pre-processing selected from pre-processing, pre-processing for extracting boundary information of an object from the observation and ortho-image related data.
상기 네트워크 모델 구성부는 상기 기하 모델에 적용되는 상기 기준 데이터에 수직 기하 데이터를 추가하는 보완 처리를 더 포함하여 수행하거나, 상기 기하 모델의 구성시에 상기 수직 기하 데이터 없는 상기 기준 데이터를 적용하는 센서 탑재된 이동형 플랫폼의 기하 보정 시스템. According to claim 1,
The network model construction unit further includes a supplementary process of adding vertical geometric data to the reference data applied to the geometric model, or a sensor mounted to apply the reference data without the vertical geometric data when constructing the geometric model Correction system of the old mobile platform.
상기 보완 처리는 상기 수직 기하 데이터를 소정 값으로 설정하는 처리, 다수의 기준 데이터로 3차원 좌표를 역산하는 처리, 래스터(raster) 형태의 수치고도모델 또는 벡터 형태의 수치지형도의 상기 수직 기하 데이터를 상기 기준 데이터에 추가하는 처리 및 상기 이동형 플랫폼의 이동 궤적에 따라 상기 센서가 복수 지점에서 획득된 멀티뷰(multi-view) 또는 스테레오 뷰(stereo-view)로부터 상기 복수 지점마다의 관측 범위에서 상호 중첩되는 영역의 인터섹션(intersection) 기하를 구성하여 상기 수직 기하 데이터를 산출하는 처리 중 적어도 어느 하나에 의해 수행되는 센서 탑재된 이동형 플랫폼의 기하 보정 시스템. The method of claim 9,
The complementary processing includes processing of setting the vertical geometric data to a predetermined value, processing of inverting three-dimensional coordinates into a plurality of reference data, and raster-shaped digital elevation model or vector-shaped numerical geometry data. Depending on the processing added to the reference data and the movement trajectory of the mobile platform, the sensors overlap each other in a multi-view or stereo-view observation range for each of the multiple points obtained from multiple points. A geometric correction system for a mobile platform equipped with a sensor, which is performed by at least one of a process of calculating the vertical geometric data by configuring an intersection geometry of a region to be formed.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180140500A KR102127679B1 (en) | 2018-11-15 | 2018-11-15 | System for correcting geometry of mobile platform with sensor based on an orthophoto |
PCT/KR2019/010931 WO2020101156A1 (en) | 2018-11-15 | 2019-08-27 | Orthoimage-based geometric correction system for mobile platform having mounted sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180140500A KR102127679B1 (en) | 2018-11-15 | 2018-11-15 | System for correcting geometry of mobile platform with sensor based on an orthophoto |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200056613A KR20200056613A (en) | 2020-05-25 |
KR102127679B1 true KR102127679B1 (en) | 2020-06-29 |
Family
ID=70732176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180140500A KR102127679B1 (en) | 2018-11-15 | 2018-11-15 | System for correcting geometry of mobile platform with sensor based on an orthophoto |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102127679B1 (en) |
WO (1) | WO2020101156A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220068112A (en) * | 2020-11-18 | 2022-05-25 | 서울대학교산학협력단 | Navigation system of aircraft using low-resolution topographic information and its performing method |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102220151B1 (en) * | 2020-09-25 | 2021-02-24 | 서울대학교 산학협력단 | Complementing device and method for data of the sky using aerial lidar data and program recording medium |
KR102543871B1 (en) * | 2021-01-18 | 2023-06-20 | 네이버랩스 주식회사 | Method and system for updating road information changes in map data |
KR102528951B1 (en) * | 2021-03-31 | 2023-05-08 | 한국국토정보공사 | 3d model position correction method and device using building shape matching algorithm |
SE544823C2 (en) * | 2021-04-15 | 2022-12-06 | Saab Ab | A method, software product, and system for determining a position and orientation in a 3D reconstruction of the Earth´s surface |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100904078B1 (en) * | 2008-12-30 | 2009-06-23 | (주)대한지적기술단 | A system and a method for generating 3-dimensional spatial information using aerial photographs of image matching |
KR101404640B1 (en) * | 2012-12-11 | 2014-06-20 | 한국항공우주연구원 | Method and system for image registration |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100491724B1 (en) * | 2002-10-14 | 2005-05-27 | 한국전자통신연구원 | Spatial Image Information System and Method Supporting Efficient Storage and Retrieaval of Spatial Images |
KR100903629B1 (en) * | 2007-07-03 | 2009-06-18 | 주식회사 에이알맥스 | Method for measuring 3D information of object in single image using collinearity condition equation, Recorded Medium for performing the same and System for measuring 3D information of object in single image using collinearity condition equation |
KR101295747B1 (en) * | 2012-04-25 | 2013-08-20 | 서울시립대학교 산학협력단 | System of automatic geometric correction using rational polynomial cofficient and method thereof |
KR101617078B1 (en) * | 2014-02-24 | 2016-04-29 | 주식회사 한화 | Apparatus and method for image matching unmanned aerial vehicle image with map image |
-
2018
- 2018-11-15 KR KR1020180140500A patent/KR102127679B1/en active IP Right Grant
-
2019
- 2019-08-27 WO PCT/KR2019/010931 patent/WO2020101156A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100904078B1 (en) * | 2008-12-30 | 2009-06-23 | (주)대한지적기술단 | A system and a method for generating 3-dimensional spatial information using aerial photographs of image matching |
KR101404640B1 (en) * | 2012-12-11 | 2014-06-20 | 한국항공우주연구원 | Method and system for image registration |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220068112A (en) * | 2020-11-18 | 2022-05-25 | 서울대학교산학협력단 | Navigation system of aircraft using low-resolution topographic information and its performing method |
KR102635421B1 (en) * | 2020-11-18 | 2024-02-13 | 서울대학교산학협력단 | Navigation system of aircraft using low-resolution topographic information and its performing method |
Also Published As
Publication number | Publication date |
---|---|
KR20200056613A (en) | 2020-05-25 |
WO2020101156A1 (en) | 2020-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102127679B1 (en) | System for correcting geometry of mobile platform with sensor based on an orthophoto | |
US8855442B2 (en) | Image registration of multimodal data using 3D-GeoArcs | |
KR100912715B1 (en) | Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors | |
KR102200299B1 (en) | A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof | |
JP6595182B2 (en) | Systems and methods for mapping, locating, and attitude correction | |
US10262437B1 (en) | Decentralized position and navigation method, device, and system leveraging augmented reality, computer vision, machine learning, and distributed ledger technologies | |
US8437501B1 (en) | Using image and laser constraints to obtain consistent and improved pose estimates in vehicle pose databases | |
US10970924B2 (en) | Reconstruction of a scene from a moving camera | |
KR102118357B1 (en) | System for structuring observation data and platform for mobile mapping or autonomous vehicle | |
CN113673282A (en) | Target detection method and device | |
KR102239562B1 (en) | Fusion system between airborne and terrestrial observation data | |
Menozzi et al. | Development of vision-aided navigation for a wearable outdoor augmented reality system | |
JP7273927B2 (en) | Image-based positioning method and system | |
CN111815765A (en) | Heterogeneous data fusion-based image three-dimensional reconstruction method | |
CN108253942B (en) | Method for improving oblique photography measurement space-three quality | |
CN110986888A (en) | Aerial photography integrated method | |
KR102130687B1 (en) | System for information fusion among multiple sensor platforms | |
KR102249381B1 (en) | System for generating spatial information of mobile device using 3D image information and method therefor | |
CN113129422A (en) | Three-dimensional model construction method and device, storage medium and computer equipment | |
KR102225321B1 (en) | System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors | |
CN113960614A (en) | Elevation map construction method based on frame-map matching | |
KR20220062709A (en) | System for detecting disaster situation by clustering of spatial information based an image of a mobile device and method therefor | |
KR20230077278A (en) | Method for synchronizing and searching sensor data of multiple platforms and user devices | |
KR102520189B1 (en) | Method and system for generating high-definition map based on aerial images captured from unmanned air vehicle or aircraft | |
Defraiteur et al. | Towards a Reference Data Generation Framework for Performance Assessment of Perception Systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |