KR102239562B1 - Fusion system between airborne and terrestrial observation data - Google Patents

Fusion system between airborne and terrestrial observation data Download PDF

Info

Publication number
KR102239562B1
KR102239562B1 KR1020190163921A KR20190163921A KR102239562B1 KR 102239562 B1 KR102239562 B1 KR 102239562B1 KR 1020190163921 A KR1020190163921 A KR 1020190163921A KR 20190163921 A KR20190163921 A KR 20190163921A KR 102239562 B1 KR102239562 B1 KR 102239562B1
Authority
KR
South Korea
Prior art keywords
data
observation data
ground
aerial
geometric
Prior art date
Application number
KR1020190163921A
Other languages
Korean (ko)
Other versions
KR102239562B9 (en
Inventor
박일석
홍승환
최윤조
파고스 무하마드 고라미
Original Assignee
주식회사 스트리스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스트리스 filed Critical 주식회사 스트리스
Priority to KR1020190163921A priority Critical patent/KR102239562B1/en
Application granted granted Critical
Publication of KR102239562B1 publication Critical patent/KR102239562B1/en
Publication of KR102239562B9 publication Critical patent/KR102239562B9/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

Provided is a fusion system between aerial observation data and terrestrial observation data. The system includes: a geometric transformation part processing a first geometric transformation with respect to at least one of aerial observation data and terrestrial observation data; a similarity analysis part setting reference data estimated to be the same mutually from the aerial observation data and terrestrial observation data by conducting similarity analysis between the aerial observation data and the terrestrial observation data, in which the first geometric transformation with respect to the at least one is processed; a matching information extraction part conducting a second geometric transformation with respect to at least one of aerial geometric information of the aerial observation data and terrestrial geometric information of the terrestrial observation data, in which the first geometric transformation with respect to at least one of the observation data is processed, based on the reference data, thereby extracting matching information of a geometric transformation model between the aerial observation data and the terrestrial observation data; and a data fusion part registering the aerial observation data and the terrestrial observation data, in which the second geometric transformation is conducted, as fusion data of the same coordinate system based on the matching information. Therefore, the present invention is capable of securing a great deal of space information with high precision for creating a map.

Description

항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템{FUSION SYSTEM BETWEEN AIRBORNE AND TERRESTRIAL OBSERVATION DATA}Fusion system between aerial observation data and ground observation data {FUSION SYSTEM BETWEEN AIRBORNE AND TERRESTRIAL OBSERVATION DATA}

본 발명은 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템에 관한 것으로, 보다 상세하게는 항공 관측 시스템과 지상 관측 시스템과 같은 이종의 플랫폼에서 취득된 관측 데이터의 상호 보완적 보정 방식으로 항공 관측 데이터와 지상 관측 데이터를 정합하여 융합할 수 있는 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템에 관한 것이다. The present invention relates to a fusion system between aerial observation data and ground observation data, and more particularly, aerial observation data and ground observation data in a complementary correction method of observation data acquired from heterogeneous platforms such as an aerial observation system and a ground observation system. The present invention relates to a fusion system between aerial observation data and ground observation data that can be fused by matching observation data.

스마트시티, 디지털트윈, 자율주행 등 3차원 공간정보에 대한 수요의 증가에 따라 항공사진, 항공라이다, 모바일매핑시스템 (mobile mapping system), 지상라이다 등 항공, 지상에의 다양한 관측 센서 플랫폼의 활용도 또한 높아졌다. According to the increasing demand for 3D spatial information such as smart city, digital twin, autonomous driving, etc., various observation sensor platforms such as aerial photography, aerial lidar, mobile mapping system, and ground lidar The utilization has also increased.

예를 들어 무인기, 중형항공기 등 항공 관측 센서를 통해 상대적으로 광역 범위를 관측하여 공간정보 데이터를 생성하고, 차량, 로봇, 백팩 형태의 지상 관측을 통해 상대적으로 국소 지역을 정밀도 있게 구축할 수 있다. For example, it is possible to create spatial information data by observing a relatively wide area through aerial observation sensors such as unmanned aerial vehicles and medium-sized aircraft, and to construct a relatively local area with precision through ground observation in the form of vehicles, robots, and backpacks.

그러나, 공간정보 구축에 있어서 관측센서로부터 취득한 위치 정확도는 매우 중요한 요소로 작용한다. 일반적으로는 GNSS/INS (Global Navigation Satellite System / Inertial Navigation System)을 통해 항공 또는 지상 멀티센서 플랫폼의 위치 자세값을 측정하여 관측 데이터에 적용하는 방식을 통해 위치 등록을 수행한다. 이러한 측위 위성 관측을 통한 위치 추정과 관성 및 지자기 관측을 통한 위치 추정 기술은 위성 수신 상태, 관측 센서의 성능, 주위 환경에 따라 위치 정밀도에 오차가 발생하게 된다.However, in constructing spatial information, the positional accuracy acquired from the observation sensor acts as a very important factor. In general, location registration is performed by measuring the position and attitude value of an aerial or ground multi-sensor platform through GNSS/INS (Global Navigation Satellite System / Inertial Navigation System) and applying it to observation data. Position estimation through positioning satellite observation and position estimation technology through inertial and geomagnetic observations cause errors in position accuracy depending on the satellite reception state, the performance of the observation sensor, and the surrounding environment.

특히, 네트워크와 위성신호 강도가 약할 수 있는 도시지역, 복합 구조물 사이트(complex construction site)에서는 오차가 수직방향에서 수 미터까지 발생할 수 있다 In particular, in urban areas and complex construction sites where the strength of the network and satellite signals may be weak, errors can occur up to several meters in the vertical direction.

이 때, 위치 정확도를 보정하는 기술로 대류층 상태, 온도, 기압 등 주변 환경 및 센서 요소를 통한 직접 관측을 통한 보정, 지상기준점 기반의 간접 관측을 통한 보정 방식, 연속 관측 데이터를 통한 보정 방식이 있다. At this time, as a technology to correct the positional accuracy, the correction method through direct observation through the surrounding environment and sensor elements such as convective layer conditions, temperature, and air pressure, the correction method through indirect observation based on the ground reference point, and the correction method through continuous observation data have.

직접 관측 또는 연속 관측 데이터를 통한 보정 방식의 경우에는 환경 및 센서 요소 측정 오차로 인한 오차를 크게 수반하게 되며, 또한 연속 관측 데이터를 통한 보정 방식의 경우에는 누적오차를 수반하게 되어 결과 데이터의 품질을 보장하기 힘들다. In the case of the correction method using direct observation or continuous observation data, errors due to measurement errors of the environment and sensor elements are largely involved, and in the case of the correction method using continuous observation data, the cumulative error is accompanied, which improves the quality of the result data. It's hard to guarantee.

이와 같은 이유로, 공간정보 생성에 있어 관측 데이터 보정은 일반적으로 지상기준점 기반의 보정방식을 주로 택하게 된다. For this reason, in the generation of spatial information, observation data correction is generally mainly based on a ground reference point-based correction method.

과거 삼각측량, 수준측량, 삼변측량 등 측량에 있어서 지상기준점을 사용하여 관측 데이터의 보정 뿐 아니라 생성된 공간정보 데이터의 위치 정밀도 또한 추계학적으로 추정 가능하다는 장점이 있다. In surveys such as triangulation, leveling, trilateral surveying, etc. in the past, there is an advantage that it is possible to estimate the positional precision of the generated spatial information data as well as the correction of the observation data using the ground reference point.

그러나, 지상기준점 기반의 보정 방식은 지상기준점을 얻는 것이 시간과 비용이 많이 소모된다는 단점이 있다. However, the ground reference point-based correction method has a disadvantage in that it takes a lot of time and cost to obtain the ground reference point.

과거 점 기반 측량에 비해 최근 주로 이루어지는 항공 또는 차량 기반 관측 방식의 경우에는 단시간에 광범위한 지역을 관측할 수 있다는 장점이 있지만 그만큼 지상기준점의 개수가 많이 필요하다는 단점이 있다.Compared to past point-based surveying, the recent aviation or vehicle-based observation method has the advantage of being able to observe a wide area in a short time, but has a disadvantage in that it requires a large number of ground reference points.

본 발명이 이루고자 하는 기술적 과제는 지면 주변 환경을 정밀하게 구현하는 지상 관측 데이터와 지면으로부터 일정 고도 이상의 광범위한 지역을 관측하는 항공 관측 데이터가 융합됨으로써, 높은 정밀도로 많은 공간 정보를 확보할 수 있는 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템을 제공하는데 있다. The technical problem to be achieved by the present invention is an aerial observation that can secure a lot of spatial information with high precision by fusion of ground observation data that accurately implements the environment around the ground and aerial observation data that observes a wide area over a certain altitude from the ground. It is to provide a fusion system between data and ground observation data.

본 발명의 목적은 이상에서 언급된 목적으로 제한되지 않으며, 언급되지 않은 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. The object of the present invention is not limited to the objects mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 이루기 위한 본 발명의 일 양태에 따르면, 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템은 항공 관측 데이터와 지상 관측 데이터 중 적어도 어느 하나에 대해 제 1 기하 변환을 처리하는 기하 변환부와, 상기 적어도 어느 하나에 대해 제 1 기하 변환이 처리된 항공 관측 데이터와 지상 관측 데이터 간에 유사도 분석을 수행하여 상기 항공 관측 데이터와 상기 지상 관측 데이터에서 상호 동일하게 추정되는 기준 데이터를 설정하는 유사도 분석부와, 상기 기준 데이터를 기반으로, 상기 관측 데이터들 중 적어도 어느 하나에 대해 제 1 기하 변환이 처리된 상기 항공 관측 데이터의 항공 기하 정보와 상기 지상 관측 데이터의 지상 기하 정보의 적어도 하나에 대한 제 2 기하 변환이 수행되어, 항공 관측 데이터와 지상 관측 데이터 간의 기하 변환 모델의 정합 정보를 추출하는 정합 정보 추출부, 및 상기 정합 정보에 기초하여 제 2 기하 변환된 상기 항공 관측 데이터와 상기 지상 관측 데이터를 동일 좌표계의 융합 데이터로 등록(registration)하는 데이터 융합부를 포함한다. According to an aspect of the present invention for achieving the above technical problem, a fusion system between aerial observation data and ground observation data includes a geometric conversion unit that processes a first geometric transformation on at least one of aerial observation data and ground observation data, A similarity analysis unit configured to perform a similarity analysis between the aerial observation data processed with the first geometric transformation on the at least one of the ground observation data and the ground observation data to set reference data that are mutually estimated to be identical to each other from the aerial observation data and the ground observation data; , Based on the reference data, a second geometry for at least one of the aerial geometric information of the aerial observation data and the ground geometric information of the ground observation data for which a first geometric transformation has been processed for at least one of the observation data A matching information extraction unit for extracting matching information of a geometric transformation model between the aerial observation data and the ground observation data by performing the transformation, and the aerial observation data and the ground observation data subjected to a second geometric transformation based on the matching information are identical. It includes a data fusion unit that registers as fusion data of the coordinate system.

다른 실시예에서, 상기 제 1 기하 변환이 상기 항공 관측 데이터 및 상기 지상 관측 데이터 중 어느 하나에 처리되는 경우에, 상기 제 1 기하 변환이 처리되는 관측 데이터는 미처리되는 상기 관측 데이터의 위치 데이터와 상기 관측 데이터의 관측 방향을 정의하는 자세 데이터를 참조하여 처리되며, 상기 제 2 기하 변환은 상기 제 1 기하 변환이 미처리되는 관측 데이터의 상기 위치 데이터와 상기 자세 데이터를 참조하여, 상기 제 1 기하 변환이 처리된 관측 데이터에 대해 수행되고, 상기 제 1 기하 변환이 상기 항공 관측 데이터 및 상기 지상 관측 데이터의 전부에 처리되는 경우에, 상기 제 1 기하 변환은 상기 항공 관측 데이터의 관측 방향을 정의하는 항공용 자세 데이터와 상기 지상 관측 데이터의 관측 방향을 정의하는 지상용 자세 데이터와 상이한 자세 데이터를 참조하여 처리되며, 상기 상이한 자세 데이터를 참조하여, 상기 제 1 기하 변환이 전부 실행된 상기 항공 관측 데이터 및 상기 지상 관측 데이터에 대해 수행될 수 있다. In another embodiment, when the first geometric transformation is processed on any one of the aerial observation data and the ground observation data, the observation data subjected to the first geometric transformation is the position data of the unprocessed observation data and the It is processed with reference to attitude data defining the observation direction of the observation data, and the second geometric transformation refers to the position data and the attitude data of the observation data for which the first geometric transformation is not processed, and the first geometric transformation is When performed on the processed observation data, and the first geometric transformation is processed on all of the aerial observation data and the ground observation data, the first geometric transformation defines the observation direction of the aerial observation data. The aerial observation data and the aerial observation data in which all the first geometric transformation is performed are processed by referring to attitude data different from the attitude data for ground, which defines the attitude data and the observation direction of the ground observation data, and with reference to the different attitude data. Can be performed on ground observation data.

다른 실시예에서, 상기 항공 관측 데이터 및 상기 지상 관측 데이터 중 적어도 어느 하나가 영상 센서로부터 획득되는 경우, 상기 유사도 분석부는 상기 관측 데이터에 속한 지오코딩 영상 데이터 정보 중 픽셀 좌표를 기반으로 하는 색상 변화를 분석하며, 특징 기하로 추정되는 기하 형태 정보를 추출하여 상기 기준 데이터를 설정하는 유사도 분석을 실행하고, 상기 항공 관측 데이터 및 상기 지상 관측 데이터 중 적어도 어느 하나가 3차원 측량 센서로부터 상기 관측 데이터를 획득하는 경우, 상기 유사도 분석부는 상기 관측 데이터에 속한 점군 데이터의 기하하적 형상 변화도 및 레이저 강도 변화도 중 적어도 하나를 분석하여 상기 기하 형태 정보를 추출하여 상기 기준 데이터를 설정할 수 있다. In another embodiment, when at least one of the aerial observation data and the ground observation data is obtained from an image sensor, the similarity analysis unit performs a color change based on pixel coordinates among geocoding image data information belonging to the observation data. Analyzes and performs similarity analysis to set the reference data by extracting geometric information estimated as feature geometry, and at least one of the aerial observation data and the ground observation data acquires the observation data from a 3D survey sensor In this case, the similarity analysis unit may set the reference data by analyzing at least one of a geometric shape gradient and a laser intensity gradient of point group data belonging to the observation data to extract the geometric shape information.

또 다른 실시예에서, 상기 유사도 분석부는 상기 항공 관측 데이터 및 상기 지상 관측 데이터의 일부 위치들 중 적어도 하나에서 관측 검출 정밀도가 검출 임계치보다 낮은 경우에, 상기 관측 검출 임계치보다 낮은 상기 항공 관측 데이터의 항공용 위치 데이터와 상기 검출 임계치보다 낮은 상기 지상 관측 데이터의 지상용 위치 데이터를 참조하여, 상기 기준 데이터를 설정하지 않도록 상기 검출 임계치보다 낮은 위치에 상응하는 상기 항공 관측 데이터 및 상기 지상용 관측 데이터를 필터링할 수 있다. In another embodiment, the similarity analysis unit, when the observation detection precision at at least one of the aerial observation data and some locations of the ground observation data is lower than the detection threshold, the aerial observation data lower than the observation detection threshold Filtering the aerial observation data and the ground observation data corresponding to a position lower than the detection threshold so as not to set the reference data, by referring to the dragon location data and the ground location data of the ground observation data lower than the detection threshold. can do.

또한, 상기 정합 정보 추출부는 상기 정합 정보 추출부는 상기 항공 관측 데이터 및 상기 지상 관측 데이터 중 어느 하나가 필터링된 위치에서, 상기 관측 검출 임계치보다 높은 상기 관측 데이터의 기하 정보에 대한 제 2 기하 변환이 수행되어, 상기 기하 변환 모델의 정합 정보를 추출할 수 있다. In addition, the matching information extraction unit, the matching information extraction unit, at a location where any one of the aerial observation data and the ground observation data is filtered, performs a second geometric transformation on the geometric information of the observation data higher than the observation detection threshold. As a result, it is possible to extract matching information of the geometric transformation model.

또 다른 실시예에서, 상기 기준 데이터 기반의 상기 정합 정보를 검증하여 상기 정합 정보를 재추출하는 정합 정보 검증부를 더 포함할 수 있다. In another embodiment, a matching information verification unit may further include a matching information verification unit to re-extract the matching information by verifying the matching information based on the reference data.

여기서, 상기 정합 정보 검증부는 상기 제 2 기하 변환된 상기 항공 관측 데이터 및 상기 지상 관측 데이터에서 동일 추정된 상기 기준 데이터들 중에서 표본용 특징 기하들을 랜덤 샘플링하여, 상기 표본용 특징 기하들의 상호 이격량이 최소가 되는 상기 표본용 특징 기하와 관련된 정합 정보를 산출하며, 상기 표본용 특징 기하와 관련된 정합 정보로 구성된 제 2 기하 변환으로 기하 변환 모델의 정합 정보를 재추출하고, 상기 데이터 융합부는 상기 재추출된 정합 정보에 기초하여 제 2 기하 변환된 상기 항공 관측 데이터와 상기 지상 관측 데이터를 동일 좌표계의 융합 데이터로 등록할 수 있다. Here, the matching information verification unit randomly samples feature geometries for a sample from among the reference data estimated to be the same from the aerial observation data and the ground observation data converted from the second geometric shape, and the mutual separation of the sample feature geometries is minimum. Calculates matching information related to the sample feature geometry to be, and re-extracts the matching information of the geometric transformation model with a second geometric transformation consisting of matching information related to the sample feature geometry, and the data fusion unit re-extracts the re-extracted The aerial observation data and the ground observation data, which are second geometrically transformed based on the matching information, may be registered as fusion data of the same coordinate system.

다른 예로서, 상기 정합 정보 검증부는 상기 제 2 기하 변환된 상기 항공 관측 데이터 및 상기 지상 관측 데이터에서 동일 추정된 상기 기준 데이터들 간에 이격량을 최소화하는 최확값(most probable value)을 산출하며, 상기 최확값의 산출시에 이용된 최소 이격량에 근거하여 동일 추정된 상기 기준 데이터들 간의 예상 오차 확률을 분석하고, 상기 예상 오차 확률에 따른 예상 오차가 허용 오차보다 초과하는 경우에, 상기 항공 관측 데이터 및 상기 지상 관측 데이터에서 다른 특징 기하로 추정되는 기하 형태 정보를 신규의 기준 데이터로 샘플링하여 추출하는 처리, 상기 정합 정보 추출부에서 생성된 상기 기하 변환 모델에서 이상 데이터로 판정되는 기준 데이터를 제거하는 처리, 상기 기하 변환 모델에 적용되는 적어도 일부의 파라미터를 변경하는 처리, 및 상기 최확값 산출시에 적용된 해석 모델식에 이용된 적어도 일부 파라미터를 변경하거나, 상기 해석 모델식을 변경하는 처리 중 적어도 어느 하나를 수행하도록 상기 유사도 분석부 및 상기 정합 정보 추출부를 제어하고, 상기 처리 수행 후의 제약 조건에 따라, 상기 정합 정보 추출부는 상기 제 2 기하 변환으로 기하 변환 모델의 정합 정보를 재추출하고, 상기 데이터 융합부는 상기 재추출된 정합 정보에 기초하여 제 2 기하 변환된 상기 항공 관측 데이터와 상기 지상 관측 데이터를 동일 좌표계의 융합 데이터로 등록할 수 있다. As another example, the matching information verification unit calculates a most probable value for minimizing the amount of separation between the second geometrically transformed aerial observation data and the reference data estimated to be the same from the ground observation data, and the Analyzing the predicted error probability between the reference data estimated to be the same based on the minimum separation amount used in calculating the maximum value, and when the predicted error according to the predicted error probability exceeds the allowable error, the aerial observation data And a process of sampling and extracting geometric shape information estimated as different feature geometry from the ground observation data as new reference data, and removing reference data determined as abnormal data from the geometric transformation model generated by the matching information extraction unit. At least one of processing, processing of changing at least some parameters applied to the geometric transformation model, and processing of changing at least some parameters used in the analysis model equation applied at the time of calculating the maximum value, or changing the analysis model equation The similarity analysis unit and the matching information extraction unit are controlled to perform one, and according to the constraint condition after the processing is performed, the matching information extraction unit re-extracts the matching information of the geometric transformation model by the second geometric transformation, and the data The fusion unit may register the second geometrically transformed aerial observation data and the ground observation data as fusion data of the same coordinate system based on the re-extracted matching information.

또 다른 실시예에서, 상기 항공 관측 데이터가 영상 센서 및 3차원 측량 센서 중 어느 하나로부터 획득되고, 상기 지상 관측 데이터가 상기 항공 관측 데이터의 센서와 다른 이종의 센서로부터 획득되는 경우에, 상기 3차원 측량 센서로부터 획득된 관측 데이터는 점군 데이터가 변환된 가상의 영상 데이터를 이용하고, 상기 3차원 측량 센서와 관련된 상기 관측 데이터의 위치 데이터는 상기 가상의 영상 데이터의 위치 데이터로 정의되며, 상기 관측 데이터의 자세 데이터는 상기 가상의 영상 데이터의 시야 방향으로 정의될 수 있다. In another embodiment, when the aerial observation data is obtained from any one of an image sensor and a three-dimensional survey sensor, and the ground observation data is obtained from a sensor different from the sensor of the aerial observation data, the three-dimensional The observation data obtained from the survey sensor uses virtual image data converted from point cloud data, and the location data of the observation data related to the 3D survey sensor is defined as the location data of the virtual image data, and the observation data The posture data of may be defined as a viewing direction of the virtual image data.

또 다른 실시예에서, 상기 기하 변환 모델이 위치 데이터와 관측 방향을 정의하는 자세 데이터로 구성된 외부 기하 데이터와 상기 관측 데이터를 생성하는데 설정된 센서에 정의된 기하 파라미터에 기초로 산출되는 내부 기하 데이터를 이용하는 물리적 센서 모델(physical sensor model)인 경우에, 상기 항공 기하 정보는 적어도 항공용 위치 데이터와 항공용 자세 데이터를 포함하며, 상기 지상 기하 정보는 적어도 지상용 위치 데이터와 지상용 자세 데이터를 포함하고, 상기 기하 변환 모델이 상기 외부 기하 데이터가 아닌 대체 모델 파라미터를 이용하는 대체 센서 모델 (replacement sensor model)인 경우에, 상기 항공 기하 정보 및 상기 지상 기하 정보는 각각 항공용 대체 모델 파라미터 및 지상용 대체 모델 파라미터를 포함할 수 있다. In another embodiment, the geometric transformation model uses external geometric data consisting of position data and attitude data defining an observation direction, and internal geometric data calculated based on a geometric parameter defined in a sensor set to generate the observation data. In the case of a physical sensor model, the aerial geometric information includes at least position data for aviation and attitude data for aviation, and the ground geometric information includes at least position data for ground and posture data for ground, When the geometric transformation model is a replacement sensor model using a replacement model parameter other than the external geometric data, the aerial geometry information and the ground geometry information are respectively an aviation replacement model parameter and a ground replacement model parameter It may include.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. Details of other embodiments are included in the detailed description and drawings.

본 발명에 따르면, 지면 주변 환경을 정밀하게 구현하는 지상 관측 데이터와 지면으로부터 일정 고도 이상의 광범위한 지역을 관측하는 항공 관측 데이터가 융합됨으로써, 공간 정보 및 이를 기반으로 하는 지도 생성시에 높은 정밀도로 많은 공간 정보를 확보할 수 있다. According to the present invention, ground observation data that accurately implements the environment around the ground and aerial observation data that observes a wide area over a certain altitude from the ground are fused. Information can be obtained.

또한, 융합을 위해 항공 관측 데이터와 지상 관측 데이터를 상호 유사한 기하 형태로 변환하며, 유사도 분석을 통해 공통으로 추정되는 기준 데이터를 기반으로 양 관측 데이터의 기하 변환 모델을 수립함으로써, 데이터 융합의 정확도를 향상시킬 수 있다. In addition, for fusion, aerial observation data and ground observation data are converted into similar geometric shapes, and the accuracy of data fusion is improved by establishing a geometric conversion model of both observation data based on the reference data commonly estimated through similarity analysis. Can be improved.

이에 더하여, 기하 변환 모델의 수립시에 항공 관측 데이터와 지상 관측 데이터의 기준 데이터들 간의 이격량을 최소로 하는 양쪽의 기준 데이터들을 활용함으로써 최적의 정합 정보를 산출할 수 있다. In addition, when establishing a geometric transformation model, optimal matching information can be calculated by utilizing both reference data that minimizes the amount of separation between the reference data of the aerial observation data and the ground observation data.

도 1은 본 발명의 일 실시예에 따른 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템에 관한 개념 블록도이다.
도 2a 내지 도 2c는 기하 변환부의 다양한 구성예를 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템을 이용한 융합 방법에 관한 순서도이다.
도 4는 지면에 대해 연직 방향으로 획득된 정사영상으로서의 항공 관측 데이터 및 지면에 대해 비연직 방향으로 획득된 항공 관측 데이터를 예시한 도면이다.
도 5는 영상 센서, 3차원 측량 센서 및 이들 센서들로 구성된 멀티 센서 플랫폼으로부터 획득된 지상 관측 데이터를 예시한 도면이다.
도 6은 3차원 측량 센서로부터 획득된 관측 데이터가 탑뷰 형태로 기하 변환된 것을 도시한 도면이다.
도 7은 3차원 측량 센서로부터 획득된 관측 데이터에서 기준 데이터를 설정하는 과정을 도시한 도면이다.
도 8은 영상 센서들로부터 획득된 항공 관측 데이터 및 지상 관측 데이터에서 기준 데이터들을 설정하는 과정을 도시한 도면이다.
도 9는 3차원 라이다 센서로부터 획득된 지상 관측 데이터에서 기준 데이터들을 설정하는 과정을 도시한 도면이다.
도 10은 기준 데이터 기반의 정합 정보를 검증하여 정합 정보를 재추출하는 일 실시예에 관한 순서도이다.
도 11은 기준 데이터 기반의 정합 정보를 검증하여 정합 정보를 재추출하는 다른 실시예에 관한 순서도이다.
도 12는 항공 관측 데이터와 지상 관측 데이터가 융합한 것을 예시한 도면이다.
1 is a conceptual block diagram of a fusion system between aerial observation data and ground observation data according to an embodiment of the present invention.
2A to 2C are block diagrams showing various configuration examples of a geometric conversion unit.
3 is a flowchart of a fusion method using a fusion system between aerial observation data and ground observation data according to an embodiment of the present invention.
4 is a diagram illustrating aerial observation data as an orthogonal image acquired in a vertical direction with respect to the ground and aerial observation data acquired in a non-vertical direction with respect to the ground.
5 is a diagram illustrating ground observation data acquired from an image sensor, a 3D survey sensor, and a multi-sensor platform composed of these sensors.
6 is a diagram illustrating that observation data acquired from a 3D survey sensor is geometrically transformed into a top view.
7 is a diagram illustrating a process of setting reference data from observation data obtained from a 3D survey sensor.
8 is a diagram illustrating a process of setting reference data from aerial observation data and ground observation data acquired from image sensors.
9 is a diagram illustrating a process of setting reference data from ground observation data acquired from a 3D lidar sensor.
10 is a flowchart illustrating an embodiment of re-extracting matching information by verifying matching information based on reference data.
11 is a flowchart of another embodiment of re-extracting matching information by verifying matching information based on reference data.
12 is a diagram illustrating the fusion of aerial observation data and ground observation data.

이하, 첨부한 도면들 및 후술되어 있는 내용을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 그러나, 본 발명은 여기서 설명되어지는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되어지는 것이다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급되지 않는 한 복수형도 포함된다. 명세서에서 사용되는 "포함한다(comprises)"및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자가 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings and the following description. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed contents may be thorough and complete, and the spirit of the present invention may be sufficiently conveyed to those skilled in the art. The same reference numbers throughout the specification indicate the same elements. Meanwhile, terms used in the present specification are for explaining embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used herein, "comprises" and/or "comprising" refers to the presence of one or more other components, steps, actions and/or elements in which the recited component, step, operation and/or element is Or does not preclude additions.

또한, "부" 내지 모듈 이란, 일반적으로 논리적으로 분리 가능한 소프트웨어(컴퓨터ㅇ프로그램), 하드웨어 등의 부품을 가리킨다. 따라서, 본 실시형태에 있어서의 모듈은 컴퓨터 프로그램에 있어서의 모듈뿐만 아니라, 하드웨어 구성에 있어서의 모듈도 가리킨다. 그 때문에, 본 실시형태는, 그것들을 모듈로서 기능시키기 위한 컴퓨터 프로그램(컴퓨터에 각각의 단계를 실행시키기 위한 프로그램, 컴퓨터를 각각의 수단으로서 기능시키기 위한 프로그램, 컴퓨터에 각각의 기능을 실현시키기 위한 프로그램), 시스템 및 방법의 설명도 겸하고 있다. 다만, 설명의 형편상, 「저장한다」, 「저장시킨다」, 이것들과 동등한 문언을 이용하지만, 이들 문언은, 실시형태가 컴퓨터ㅇ프로그램일 경우에는, 기억 장치에 기억시키는, 또는 기억 장치에 기억시키는 것과 같이 제어하는 것을 의미한다. 또한, "부" 내지 모듈은 기능에 일대일로 대응하고 있어도 되지만, 실장에 있어서는, 1모듈을 1프로그램으로 구성해도 되고, 복수 모듈을 1프로그램으로 구성해도 되고, 반대로 1모듈을 복수 프로그램으로 구성해도 된다. 또한, 복수 모듈은 1컴퓨터에 의해 실행되어도 되고, 분산 또는 병렬 환경에 있어서의 컴퓨터에 의해 1모듈이 복수 컴퓨터로 실행되어도 된다. 또한, 1개의 모듈에 다른 모듈이 포함되어 있어도 된다. 또한, 이하, 「접속」이란 물리적인 접속 외에, 논리적인 접속(데이터의 주고받기, 지시, 데이터간의 참조 관계 등)일 경우에도 채용한다. 「미리 정해진」이란, 대상으로 하고 있는 처리 전에 정해져 있음을 말하고, 본 실시형태에 의한 처리가 개시되기 전은 물론이고, 본 실시형태에 의한 처리가 개시된 후에도, 대상으로 하고 있는 처리 전이면, 그 때의 상황, 상태에 따라, 또는 그때까지의 상황ㅇ상태에 따라 정해지는 것의 의미를 포함해서 이용한다.In addition, "unit" to "module" generally refer to components such as software (computer programs) and hardware that can be logically separated. Therefore, the module in this embodiment refers not only to the module in the computer program, but also to the module in the hardware configuration. Therefore, the present embodiment is a computer program for making them function as modules (a program for executing each step in a computer, a program for making a computer function as each means, a program for realizing each function in a computer) ), also describes the system and method. However, for convenience of explanation, phrases equivalent to "save" and "save" are used, but these words are stored in a memory device or stored in a memory device when the embodiment is a computer program. It means to control like letting you do. In addition, the "sub" to the module may correspond to the function one-to-one, but in mounting, one module may be configured as one program, multiple modules may be configured as one program, and conversely, one module may be configured as multiple programs. do. Further, a plurality of modules may be executed by one computer, or one module may be executed by a plurality of computers by a computer in a distributed or parallel environment. In addition, another module may be included in one module. In addition, hereinafter, "connection" is adopted in the case of logical connection (data exchange, instruction, reference relationship between data, etc.) in addition to physical connection. The term "predetermined" means that it is determined before the target processing, as well as before the processing according to the present embodiment is started, even after the processing according to the present embodiment is started, and before the target processing, the It is used by including the meaning of what is determined according to the situation or state of the time, or the situation or state up to that time.

또한, 시스템 또는 장치란, 복수의 컴퓨터, 하드웨어, 장치 등이 네트워크(일대 일 대응의 통신 접속을 포함함) 등의 통신 수단에 의해 접속되어 구성되는 것 외에, 1개의 컴퓨터, 하드웨어, 장치 등에 의해 실현될 경우도 포함된다. 「장치」와 「시스템」이란, 서로 동의(同意)의 용어로서 이용한다. 물론이지만, 「시스템」에는, 인위적인 결정인 사회적인 「기구」(사회 시스템)에 지나지 않는 것은 포함하지 않는다.In addition, a system or device is configured by connecting a plurality of computers, hardware, devices, etc. by means of communication such as a network (including a one-to-one communication connection), and a single computer, hardware, device, etc. This includes cases where it is realized. The terms "device" and "system" are used as terms of mutual agreement. Of course, the "system" does not include anything but an artificial decision, a social "mechanism" (social system).

또한, 각 부 내지 각 모듈에 의한 처리마다 또는 각 부 내지 모듈 내에서 복수의 처리를 행할 경우는 그 처리마다, 대상이 되는 정보를 기억 장치로부터 판독 입력하고, 그 처리를 행한 후에, 처리 결과를 기억 장치에 기입하는 것이다. 따라서, 처리 전의 기억 장치로부터의 판독 입력, 처리 후의 기억 장치에의 기입에 관해서는, 설명을 생략할 경우가 있다. 또한, 여기에서의 기억 장치로서는, 하드디스크, RAM(Random Access Memory), 외부 기억 매체, 통신 회선을 통한 기억 장치, CPU(Central Processing Unit) 내의 레지스터 등을 포함하고 있어도 된다.In addition, when processing by each unit or module or a plurality of processing within each unit or module, the target information is read and input from the storage device for each processing, and after the processing is performed, the processing result is displayed. It is to write to the storage device. Therefore, the description of the read input from the storage device before processing and the writing to the storage device after processing may be omitted in some cases. Further, the storage device herein may include a hard disk, a random access memory (RAM), an external storage medium, a storage device through a communication line, a register in a CPU (Central Processing Unit), and the like.

이하, 도 1 및 도 2c를 참조하여, 본 발명의 일 실시예에 따른 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템에 대하여 상세히 설명하기로 한다. Hereinafter, a fusion system between aerial observation data and ground observation data according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 and 2C.

도 1은 본 발명의 일 실시예에 따른 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템에 관한 개념 블록도이고, 도 2a 내지 도 2c는 기하 변환부의 다양한 구성예를 도시한 블록도이다. 1 is a conceptual block diagram of a fusion system between aerial observation data and ground observation data according to an embodiment of the present invention, and FIGS. 2A to 2C are block diagrams showing various configuration examples of a geometric conversion unit.

항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템(100)은 용도에 따라 모바일 맵핑 시스템(Mobile Mapping System) 또는 자율주행용 시스템에 적용될 수 있다. The fusion system 100 between aerial observation data and ground observation data may be applied to a mobile mapping system or a system for autonomous driving according to a purpose.

상기 시스템(100)은 항공 관측 데이터와 지상 관측 데이터를 입력하는 입력부(102), 기하 변환부(104), 유사도 분석부(106), 정합 정보 추출부(108), 정합 정보 검증부(110) 및 데이터 융합부(112)를 포함할 수 있다. The system 100 includes an input unit 102 for inputting aerial observation data and ground observation data, a geometric conversion unit 104, a similarity analysis unit 106, a matching information extraction unit 108, and a matching information verification unit 110. And a data fusion unit 112.

항공 관측 데이터는 공중 이동형 플랫폼에 탑재된 센서들에 의해 획득되며, 지면으로부터 일정 고도 이상에서 촬영된 지면 주변 대상물의 관측 데이터이다. 공중 이동형 플랫폼은 비행기, 글라이더, 헬리콥터, 비행선(non-rigid airship 포함), 열기구, 드론 등 유인 또는 무인 비행체 등일 수 있다.Aerial observation data is acquired by sensors mounted on an aerial mobile platform, and is observation data of objects around the ground photographed at a certain altitude or higher from the ground. The aerial mobile platform may be an airplane, a glider, a helicopter, an airship (including a non-rigid airship), a hot air balloon, a manned or unmanned vehicle such as a drone.

지상 관측 데이터는 지상 이동형 플랫폼에 탑재된 센서들에 의해 획득된 지면 주변의 대상물의 관측 데이터이다. 지상 이동형 플랫폼은 차량, 로봇, 백팩, 핸드헬드(hand-held), 삼각대 등의 장치 플랫폼일 수 있다. Ground observation data is observation data of objects around the ground obtained by sensors mounted on a ground mobile platform. The ground mobile platform may be a device platform such as a vehicle, a robot, a backpack, a hand-held, and a tripod.

항공 및 지상 관측 데이터들을 획득하는 센서들은 영상 센서 및 3차원 측량 센서 중 적어도 어느 하나일 수 있으며, 항공 및 지상 이동형 플랫폼에 탑재되는 항법 센서는 측위 정보, 플랫폼의 위치, 자세 및 속도 등의 항법 정보를 검출하여 항법용 관측 데이터를 취득할 수 있다. Sensors that acquire aerial and ground observation data may be at least one of an image sensor and a 3D survey sensor, and a navigation sensor mounted on an aerial and ground mobile platform includes positioning information, navigation information such as position, attitude, and speed of the platform. Can be detected to obtain observation data for navigation.

영상 센서는 지상 또는 공중 이동형 플랫폼에 탑재되어 그 주위의 주변 대상물, 예컨대 지형, 지물을 이미지로 촬영하여 영상용 관측 데이터를 취득하는 센서이며, 측량용 또는 비측량용 카메라, 스테레오 카메라일 있으며, 이에 제한되지 않는다. The image sensor is a sensor that is mounted on a ground or aerial mobile platform and captures an image of surrounding objects, such as terrain and features, and acquires observation data for images, and may be a surveying or non-surveying camera or a stereo camera. Not limited.

3차원 측량 센서는 플랫폼에 탑재되어 그 주위의 대상물과 관련된 3차원 지리 데이터, 예컨대 지형, 지물 관련 데이터를 획득하여 3차원 측량용 관측 데이터를 취득하는 센서로서, 능동형 원격 탐사용 센서이다. 예를 들어, 3차원 측량 센서(104)는 레이저 또는 초음파 센서 등일 수 있으며, 레이저 센서의 경우, 라이다(Light Detection and Ranging; LiDAR) 센서일 수 있다. 이러한 라이다 센서는 데이터를 취득하고자 하는 대상물에 레이저를 주사하며 대상물로부터 반사되어 복귀하는 전자파의 시차와 에너지 변화를 감지하여 대상물에 대한 거리와 반사 강도를 산출한다. The 3D survey sensor is a sensor that is mounted on a platform and acquires 3D geographic data related to objects around it, for example, terrain and feature related data to acquire observation data for 3D surveying, and is an active remote sensing sensor. For example, the 3D survey sensor 104 may be a laser or ultrasonic sensor, and in the case of a laser sensor, it may be a Light Detection and Ranging (LiDAR) sensor. Such a lidar sensor scans a laser on an object to obtain data and detects the parallax and energy change of the electromagnetic wave reflected and returned from the object, and calculates the distance and reflection intensity to the object.

항법 센서는 위성 항법 장치(GPS)를 통해 플랫폼의 이동 위치를 취득하는 위치 취득 장치와 관성 측정 장치(Inertial Measurement Unit; IMU), 관성 항법 장치(Inertial Navigation System; INS)를 통해 차량의 자세를 취득하는 자세 취득 장치 등으로 구성될 수 있다. The navigation sensor acquires the attitude of the vehicle through a positioning device that acquires the moving position of the platform through a satellite navigation system (GPS), an Inertial Measurement Unit (IMU), and an Inertial Navigation System (INS). It may be configured with a posture acquisition device or the like.

항공 및 지상 관측 데이터는 상술한 센서들로부터 취득된 센서 데이터들에 대해 소정의 처리가 수행되어 다양한 데이터를 포함하도록 생성될 수 있다. Aerial and ground observation data may be generated to include various data by performing predetermined processing on sensor data acquired from the above-described sensors.

항공 관측 데이터는 항공 기하 정보를 포함할 수 있다. 항공 기하 정보는 정합 정보 추출부(108)에서 활용될 기하 변환 모델의 종류에 따라 상이할 수 있다. The aerial observation data may include aerial geometric information. The aerial geometric information may be different according to the type of the geometric transformation model to be used in the matching information extraction unit 108.

예컨대, 기하 변환 모델이 위치 데이터와 관측 방향을 정의하는 자세 데이터로 구성된 외부 기하 데이터와 관측 데이터를 생성하는데 설정된 센서에 정의된 기하 파라미터에 기초로 산출되는 내부 기하 데이터를 이용하는 물리적 센서 모델(physical sensor model)인 경우에, 항공 기하 정보는 항공용 위치 데이터와 항공용 자세 데이터를 갖는 항공용 외부 기하 데이터와 항공용 내부 기하 데이터를 포함할 수 있다. For example, a physical sensor model using internal geometric data calculated based on a geometric parameter defined in a sensor set to generate the observation data and external geometric data consisting of position data and attitude data defining the observation direction in which the geometric transformation model is used. model), the aviation geometric information may include aviation external geometric data including aviation position data and aviation attitude data and aviation internal geometric data.

기하 변환 모델이 외부 기하 데이터가 아닌, 수학식 1에 적용되는 대체 모델 파라미터를 이용하는 대체 센서 모델(replacement sensor model)인 경우에, 항공 기하 정보는 항공용 대체 모델 파라미터를 포함할 수 있다.When the geometric transformation model is not external geometric data, but a replacement sensor model using a replacement model parameter applied to Equation 1, the aviation geometric information may include a replacement model parameter for aviation.

[수학식 1][Equation 1]

Figure 112019127630418-pat00001
Figure 112019127630418-pat00001

지상 관측 데이터도 항공 관측 데이터와 마찬가지로, 기하 변환 모델의 종류에 따라 서로 상이한 지상 기하 정보를 가질 수 있다. Like aerial observation data, ground observation data may have different ground geometric information depending on the type of the geometric transformation model.

예를 들어, 기하 변환 모델이 물리적 센서 모델인 경우에, 지상 기하 정보는 지상용 위치 데이터와 지상용 자세 데이터를 갖는 지상용 외부 기하 데이터와 지상용 내부 기하 데이터를 포함할 수 있다. For example, when the geometric transformation model is a physical sensor model, the ground geometric information may include external geometric data for the ground and internal geometric data for the ground having position data for the ground and attitude data for the ground.

기하 변환 모델이 수학식 1에 적용되는 대체 모델 파라미터를 이용하는 대체 센서 모델(replacement sensor model)인 경우에, 지상 기하 정보는 지상용 대체 모델 파라미터를 포함할 수 있다.When the geometric transformation model is a replacement sensor model using a replacement model parameter applied to Equation 1, the ground geometry information may include a replacement model parameter for the ground.

여기서, 항공용 기하 정보 및 지상용 기하 정보가 항공용 및 지상용 대체 모델 파라미터를 사용하는 것은 항공용 및 지상용 외부 기하 데이터가 전혀 존재하지 않거나 불충분, 낮은 정밀도의 데이터 등인 경우이다. Here, the use of the aviation and ground replacement model parameters for the aviation geometry information and the ground geometry information is a case where there is no, insufficient, or low-precision data for aviation and ground external geometry data.

또한, 항공 및 지상 관측 데이터는 전술한 기하 정보, 각 센서의 취득 시간에 대한 시간 정보, 각 센서마다 장치 고유 속성과 관련된 고유 데이터, 3차원 측량 센서에 의해 관측 데이터가 획득되는 경우의 점군 데이터 관련 정보, 영상 센서로부터 관측 데이터가 획득되는 경우의 지오코딩(geocoding) 영상 데이터 관련 정보, 점군 데이터 관련 정보 및 지오코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 근거하여 추출한 대상물의 속성이 추정된 객체 정보를 포함할 수 있다. In addition, the aerial and ground observation data is related to the above-described geometric information, time information on the acquisition time of each sensor, unique data related to device specific properties for each sensor, and point cloud data when observation data is acquired by a 3D survey sensor. The object information for which the attribute of the extracted object is estimated based on at least one of information, information related to geocoding image data, information related to point cloud data, and information related to geocoding image data when observation data is obtained from an image sensor. Can include.

내부 기하 데이터는 센서 자체의 고유값으로서, 플랫폼 등의 이동 여부에 관계없이 유지되는 기하 파라미터에 기인하는 각 센서마다의 관측 데이터의 오차이다. The internal geometric data is an inherent value of the sensor itself, and is an error in observed data for each sensor due to a geometric parameter maintained regardless of whether the platform or the like is moved.

여기서, 영상 센서용 기하 파라미터는 초점거리, 주점 위치, 렌즈왜곡 파라미터 및 센서 포맷 크기 중 적어도 하나일 수 있다. 3차원 측량 센서용 기하 파라미터는 라이다 센서를 예로 들면, 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋 및 축방향 오프셋 중 적어도 하나일 수 있다. 또한, 항법 센서용 기하 파라미터는 축방향의 스케일 및 축방향의 오프셋 중 적어도 하나일 수 있다.Here, the geometric parameter for the image sensor may be at least one of a focal length, a main point position, a lens distortion parameter, and a sensor format size. The geometric parameter for the 3D survey sensor may be at least one of an incidence angle of each laser, a distance scale, a distance direction offset, and an axial offset, for example, a lidar sensor. In addition, the geometric parameter for the navigation sensor may be at least one of a scale in an axial direction and an offset in an axial direction.

만약, 영상 센서와 라이다 센서가 조합된 멀티센서 플랫폼의 경우에, 항공 및 지상 관측 데이터는 각 센서마다의 내부 기하 및 센서들이 탑재된 플랫폼의 위치와 자세에 따른 각 센서 간의 기하 관계를 정의하는 외부 기하로 구성된 기하 구조 정보에 근거하여 기하학적 모델링 관련 정보를 포함할 수 있다. 이 경우에, 관측 데이터는 영상 센서 및 3차원 측량 센서로부터 획득된 영상 데이터 및 점군 데이터가 결합하여 융합될 수 있으며, 점군 데이터는 색상 정보를 가질 수 있거나, 영상 정보는 픽셀마다 3차원 위치 좌표를 가질 수 있다. If, in the case of a multi-sensor platform in which an image sensor and a lidar sensor are combined, aerial and ground observation data define the internal geometry of each sensor and the geometric relationship between each sensor according to the position and attitude of the platform on which the sensors are mounted. Geometric modeling-related information may be included based on geometry information composed of external geometry. In this case, the observation data may be fused by combining image data and point cloud data obtained from an image sensor and a 3D survey sensor, and the point cloud data may have color information, or the image information may have three-dimensional position coordinates for each pixel. I can have it.

항공 및 지상 관측 데이터는 센서의 고유 데이터를 포함할 수도 있다. 예를 들어, 영상 센서의 고유 데이터는 센서의 조도, ISO, 셔터속도, 촬영날짜/시간, 시간 동기화정보, 센서 모델, 렌즈 모델, 센서 시리얼번호, 영상파일 이름, 파일 저장 위치 중 적어도 하나를 포함할 수 있다. Aerial and ground observation data may include sensor-specific data. For example, the unique data of the image sensor includes at least one of the sensor's illuminance, ISO, shutter speed, shooting date/time, time synchronization information, sensor model, lens model, sensor serial number, image file name, and file storage location. can do.

3차원 측량 센서의 고유 데이터는 라이다 정보를 예로 들면, 센서의 촬영날짜와 시간, 센서모델, 센서 시리얼 번호, 레이저파장, 레이저강도, 레이저송수신 시간, 레이저 관측 각/거리, 레이저 펄스, 전자적 시간지연, 대기 지연, 센서 온도 중 적어도 하나를 포함할 수 있다. The unique data of the 3D survey sensor include LiDAR information, for example, the sensor's photographing date and time, sensor model, sensor serial number, laser wavelength, laser intensity, laser transmission/reception time, laser observation angle/distance, laser pulse, and electronic time. It may include at least one of a delay, a standby delay, and a sensor temperature.

항법 센서의 고유 데이터는 GNSS/IMU/INS의 센서 모델 정보, GNSS 수신정보, GNSS 위성 정보, GNSS 신호 정보, GNSS 네비게이션 정보, GNSS 신호의 전리층/대류층 신호지연 정보, DOP 정보, 지구 거동정보, 이중/다중 GNSS 장비 정보, GNSS Base Station 정보, Wheel 센서정보, 자이로 센서 Scale/Bias 정보, 가속도계 Scale/Bias 정보, 위치/자세/속도/가속도/각속도/각가속도 정보 및 예상오차량, 항법정보 필터링 모델 및 소거 오차 정보, 촬영날짜/시간, 시간동기화 정보 전부 또는 일부 중 적어도 하나를 포함할 수 있다. The unique data of the navigation sensor includes sensor model information of GNSS/IMU/INS, GNSS reception information, GNSS satellite information, GNSS signal information, GNSS navigation information, ionospheric/convective layer signal delay information of GNSS signal, DOP information, earth behavior information, Dual/multi GNSS equipment information, GNSS base station information, wheel sensor information, gyro sensor scale/bias information, accelerometer scale/bias information, position/position/speed/acceleration/angular velocity/angular acceleration information and predicted error amount, navigation information filtering model And at least one of erasing error information, a photographing date/time, and all or part of time synchronization information.

시간 정보는 각 센서의 관측 데이터가 생성되는 시간일 수 있다. The time information may be a time when observation data of each sensor is generated.

항공 및 지상 관측 데이터는 센서로부터 획득된 센서 데이터와 기하 정보에 기초하여, 3차원 측량 센서에 기반한 3차원 점군 데이터 관련 정보 및 영상 센서에 기반한 지오코딩 영상 데이터 관련 정보를 더 포함할 수 있다. The aerial and ground observation data may further include information related to 3D point cloud data based on the 3D survey sensor and information related to geocoding image data based on the image sensor, based on sensor data and geometric information acquired from the sensor.

3차원 점군 데이터 관련 정보는 점군용 3차원 좌표 데이터, 점군용 색상 정보, 점군용 3차원 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 점군용 클래스 정보 및 3차원 측량 센서가 레이저 센서인 경우의 레이저 강도 정보 중 적어도 하나를 포함할 수 있다. Information related to 3D point group data includes 3D coordinate data for point group, color information for point group, class information for point group estimated from the object extracted from 3D coordinate data for point group, and laser when the 3D survey sensor is a laser sensor. It may include at least one of strength information.

지오코딩 영상 데이터 관련 정보는 각 픽셀마다의 지오코딩용 좌표 데이터, 지오코딩용 색상 정보 및 지오코딩용 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 지오코딩용 클래스 정보 중 적어도 하나를 포함할 수 있다. The geocoding image data related information may include at least one of geocoding coordinate data for each pixel, geocoding color information, and geocoding class information whose type is estimated from the object extracted from the geocoding coordinate data. .

항공 및 지상 관측 데이터는 3차원 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 하나에 기초하여 추출된 대상물의 속성과 관련되어 추출된 객체 정보를 포함할 수 있다. 객체 정보는 대상물의 종류, 전체 모양, 대상물의 적어도 일부를 구성하는 선, 면, 원, 구 등과 같은 특정 기하학적 형상, 색상, 질감 관련 속성을 포함할 수 있다. The aerial and ground observation data may include object information extracted in relation to an attribute of an object extracted based on at least one of information related to 3D point cloud data and information related to geocoding image data. The object information may include a type of an object, an overall shape, a specific geometric shape such as a line, plane, circle, or sphere constituting at least a part of the object, a color, and a texture-related attribute.

항공 관측 데이터가 영상 센서 및 3차원 측량 센서 중 어느 하나로부터 획득되고, 지상 관측 데이터가 상기 항공 관측 데이터의 센서와 다른 이종의 센서로부터 획득되는 경우에, 입력부(102)는 3차원 측량 센서로부터 획득된 점군 데이터를 가상의 영상 데이터로 변환하고, 관측 데이터의 위치 데이터를 가상의 영상 데이터의 위치 데이터로 정의하며, 관측 데이터의 자세 데이터를 가상의 영상 데이터의 시야 방향으로 정의할 수 있다. When aerial observation data is obtained from either an image sensor or a 3D survey sensor, and ground observation data is acquired from a sensor different from the sensor of the aerial observation data, the input unit 102 is obtained from a 3D survey sensor. The obtained point cloud data may be converted into virtual image data, the position data of the observation data may be defined as the position data of the virtual image data, and the attitude data of the observation data may be defined as the viewing direction of the virtual image data.

기하 변환부(104)는 항공 관측 데이터와 지상 관측 데이터 중 적어도 어느 하나에 대해 제 1 기하 변환을 처리하여 항공 관측 데이터와 지상 관측 데이터는 유사한 기하 형태를 갖도록 변환된다. The geometric conversion unit 104 converts the aerial observation data and the ground observation data to have a similar geometric shape by processing a first geometric transformation on at least one of the aerial observation data and the ground observation data.

기하 변환부(104a, 104c)의 다양한 처리는 도 2a 및 도 2b에서와 같이, 제 1 기하 변환이 처리되는 관측 데이터가 미처리되는 관측 데이터의 기하 정보를 구성하는 위치 데이터와 자세 데이터를 참조하여 제 1 기하 변환이 수행될 수 있다. Various processing of the geometric conversion units 104a and 104c is performed by referring to the position data and attitude data constituting the geometric information of the unprocessed observation data, as shown in FIGS. 2A and 2B. 1 Geometric transformation can be performed.

예를 들어, 도 2a에서와 같이, 지상 관측 데이터는 지상 기하 변환 모듈(104b)에 의해 기하 변환되나, 항공 관측 데이터는 기하 변환되지 않는다. 이 경우에, 지상 관측 데이터는 항공 관측 데이터의 항공용 위치 데이터, 항공용 자세 데이터, 항공용 내부 기하 데이터 등의 항공 기하 정보를 기반으로 항공 관측 데이터의 기하 형태에 유사하게 변환될 수 있다. For example, as shown in FIG. 2A, the ground observation data is geometrically converted by the ground geometric conversion module 104b, but the aerial observation data is not geometrically converted. In this case, the ground observation data may be converted similarly to the geometry of the aerial observation data based on the aerial geometric information such as the aerial position data, the aerial attitude data, and the aerial internal geometric data of the aerial observation data.

도 2b와 같은 다른 예로서, 항공 관측 데이터는 항공 기하 변환 모듈(104d)에 의해 기하 변환되나, 지상 관측 데이터는 기하 변환되지 않는다. 이 경우에, 항공 관측 데이터는 지상 관측 데이터의 지상용 위치 데이터, 지상용 자세 데이터, 지상용 내부 기하 데이터 등의 지상 기하 정보를 기반으로 지상 관측 데이터의 기하 형태에 유사하게 변환될 수 있다. As another example as shown in FIG. 2B, the aerial observation data is geometrically converted by the aerial geometric conversion module 104d, but the ground observation data is not geometrically converted. In this case, the aerial observation data may be converted similarly to the geometry of the ground observation data based on ground geometric information such as ground position data, ground attitude data, and ground internal geometric data of the ground observation data.

또 다른 예로서, 도 2c와 같이 제 1 기하 변환은 항공 기하 변환 모듈(104f) 및 지상 기하 변환 모듈(104g)을 이용하여, 항공 관측 데이터 및 지상 관측 데이터의 전부에 처리되는 경우에, 기하 변환부(104e)는 항공용 자세 데이터와 지상용 자세 데이터와 상이한 자세 데이터를 참조하여 제 1 기하 변환을 처리할 수 있다. As another example, as shown in FIG. 2C, when the first geometric conversion is processed on all of the aerial observation data and the ground observation data using the aerial geometric conversion module 104f and the ground geometric conversion module 104g, the geometric conversion The unit 104e may process the first geometric transformation by referring to attitude data different from the aviation attitude data and the ground attitude data.

유사도 분석부(106)는 도 2a 내지 도 2c에서와 같이, 적어도 어느 하나에 대해 제 1 기하 변환이 처리된 항공 관측 데이터와 지상 관측 데이터 간에 유사도 분석을 수행하여, 항공 관측 데이터와 지상 관측 데이터에서 상호 동일하게 추정되는 기준 데이터를 설정한다. As shown in FIGS. 2A to 2C, the similarity analysis unit 106 performs a similarity analysis between the aerial observation data and the ground observation data on which the first geometric transformation has been processed for at least one of them, so that the aerial observation data and the ground observation data Reference data estimated to be identical to each other are set.

항공 관측 데이터 및 지상 관측 데이터 중 적어도 어느 하나가 영상 센서로부터 획득되는 경우, 유사도 분석부(106)는 관측 데이터에 속한 지오코딩 영상 데이터 정보 중 픽셀 좌표를 기반으로 하는 색상 변화를 분석하며, 특징 기하로 추정되는 기하 형태 정보를 추출하여 기준 데이터를 설정하는 유사도 분석을 실행할 수 있다. When at least one of aerial observation data and ground observation data is acquired from an image sensor, the similarity analysis unit 106 analyzes a color change based on pixel coordinates among geocoding image data information belonging to the observation data, and Similarity analysis can be performed to set the reference data by extracting the geometric information estimated to be.

항공 관측 데이터 및 상기 지상 관측 데이터 중 적어도 어느 하나가 3차원 측량 센서로부터 관측 데이터를 획득하는 경우, 유사도 분석부(106)는 관측 데이터에 속한 점군 데이터의 기하하적 형상 변화도 및 레이저 강도 변화도 중 적어도 하나를 분석하여 상기 기하 형태 정보를 추출하여 기준 데이터를 설정할 수 있다. When at least one of the aerial observation data and the ground observation data acquires observation data from a 3D survey sensor, the similarity analysis unit 106 is a geometric shape change degree and a laser intensity change degree of point cloud data belonging to the observation data. Reference data may be set by analyzing at least one of them to extract the geometric shape information.

또한, 유사도 분석부(106)는 항공 관측 데이터 및 지상 관측 데이터의 일부 위치들 중 적어도 하나에서 관측 검출 정밀도가 검출 임계치보다 낮은 경우에, 검출 임계치보다 낮은 항공용 위치 데이터와 관측 검출 임계치보다 낮은 지상용 위치 데이터를 참조하여, 기준 데이터를 설정하지 않도록 검출 임계치보다 낮은 위치에 상응하는 항공 관측 데이터 및 상기 지상용 관측 데이터를 필터링할 수 있다. In addition, when the observation detection accuracy is lower than the detection threshold at at least one of the aerial observation data and some of the ground observation data, the similarity analysis unit 106 The aerial observation data corresponding to a position lower than the detection threshold and the ground observation data may be filtered so as not to set the reference data with reference to the dragon location data.

관측 데이터에서 관측 검출 정밀도가 낮게 되는 이유는 센서의 종류에 따라 관측되지 않는 폐색 지역에서의 센서의 관측 데이터의 미획득 내지 불량, 또는, 우천, 강설 및 어두운 상황 등과 같은 센서 관측시의 주변 환경 요인에 기인한다. 폐색 지역 관측과 관련하여, 3차원 측량 센서의 레이저의 직진성으로 인해 도로면과 레이저가 조사되는 건물면 외의 데이터가 확보가 곤란한다. 또한, 항공 관측 데이터의 경우에는 촬영 기하로 인해 건물 측면 데이터가 확보가 곤란하여, 관측 검출 정밀도가 낮다. The reason that the observation detection accuracy is low in the observation data is that the observation data of the sensor in the occluded area that is not observed is not obtained or is defective, depending on the type of the sensor, or environmental factors during sensor observation such as rainy weather, snowfall, and dark conditions. Is caused by. Regarding the observation of the occluded area, it is difficult to secure data other than the road surface and the building surface to which the laser is irradiated due to the linearity of the laser of the 3D survey sensor. In addition, in the case of aerial observation data, it is difficult to secure building side data due to photographing geometry, and the observation detection accuracy is low.

이를 극복하기 위해, 유사도 분석부(106)는 위치정보를 기반으로 이종 플랫폼의 관측 데이터 전부서 높은 정밀도 확보가 가능한 지역을 필터링하여 사용할 수 있다. In order to overcome this, the similarity analysis unit 106 may filter and use an area capable of securing high precision from all observation data of heterogeneous platforms based on location information.

유사도 분석부(106)는 유사도 분석을 수행하기 전에, 소정의 전처리를 진행할 수 있다. The similarity analysis unit 106 may perform a predetermined pre-process before performing the similarity analysis.

상술한 전처리는 영상 휘도 조정 전처리, 영상 해상도 조정 전처리, 영상 선명도 조정 전처리, 영상 기하 변환, 영상 좌표계 변환, 관측 및 정사영상 관련 데이터들에서의 객체의 경계선 정보를 추출하는 전처리 중 적어도 어느 하나가 적용될 수 있다. 이러한 전처리는 센서의 고유 데이터, 관측시 환경, 스케일/회전/변위값 등의 관측 기하 특성 차이로 인한 기하 정보, 좌표계, 해상도 등의 변형량을 최소화하여 유사성 분석의 정확도를 향상시키기 위해 실시된다. 예컨대, 항공 관측 데이터의 정사영상은 정오의 맑은 날씨에 취득되며, 지상 관측 데이터의 영상 데이터는 일몰의 우천시에 취득된 경우에, 양 데이터의 해상도가 상이하여 유사성 분석의 오류가 유발될 수 있다. 이를 해소하기 위해, 양 데이터의 해상도를 근접한 값으로 조정하는 전처리가 실시될 수 있다. The above-described pre-processing includes at least one of image luminance adjustment pre-processing, image resolution adjustment pre-processing, image sharpness adjustment pre-processing, image geometry transformation, image coordinate system transformation, and pre-processing of extracting boundary information of objects from observation and ortho-image related data I can. This pre-processing is performed to improve the accuracy of the similarity analysis by minimizing the amount of deformation such as geometric information, coordinate system, and resolution due to differences in observed geometric characteristics such as sensor's unique data, observation environment, scale/rotation/displacement value, etc. For example, when an orthogonal image of aerial observation data is acquired in clear weather at noon, and when image data of ground observation data is acquired in rainy weather at sunset, the resolution of both data is different, and an error in similarity analysis may be caused. In order to solve this, a pre-process of adjusting the resolution of both data to a value close to each other may be performed.

유사도 분석부(106)의 동작, 기능에 따르면, 기준 데이터와 관측 관련 데이터의 객체 정보, 예컨대 객체의 종류 또는 특정 기하하적 형상 등의 기하 형태 정보를 활용하여 이들 데이터 간의 유사성을 분석함으로써 정합 정밀도를 향상시킬 수 있다. According to the operation and function of the similarity analysis unit 106, the accuracy of matching is performed by analyzing the similarity between these data by using object information of reference data and observation-related data, for example, the type of object or geometric shape information such as a specific geometric shape. Can improve.

정합 정보 추출부(108)는 기준 데이터를 기반으로, 관측 데이터들 중 적어도 어느 하나에 대해 제 1 기하 변환이 처리된 항공 관측 데이터의 항공 기하 정보와 지상 관측 데이터의 지상 기하 정보의 적어도 하나에 대한 제 2 기하 변환이 수행되어, 항공 관측 데이터와 지상 관측 데이터 간의 기하 변환 모델의 정합 정보를 추출한다. Based on the reference data, the matching information extracting unit 108 includes at least one of the aerial geometric information of the aerial observation data and the ground geometric information of the ground observation data for which the first geometric transformation has been processed for at least one of the observation data. A second geometric transformation is performed to extract matching information of a geometric transformation model between the aerial observation data and the ground observation data.

정합 정보 추출부(108)는 기하 변환 모델을 사용하여 정합 정보를 추출할 수 있다. 이 경우에, 기하 변환 모델은 항공 관측 데이터 및 지상 관측 데이터를 획득한 센서의 외부 기하 데이터들 및 내부 기하 데이터를 이용하는 물리적 센서 모델 (physical sensor model)이거나, 외부 기하 데이터들의 사용이 곤란한 경우에, 대체 모델 파라미터로 표현되는 선형식, 다항식, 비례식과 같은 대체 센서 모델 (replacement sensor model)일 수 있다.The matching information extraction unit 108 may extract matching information using a geometric transformation model. In this case, the geometric transformation model is a physical sensor model using external geometric data and internal geometric data of a sensor that has acquired aerial observation data and ground observation data, or when it is difficult to use external geometric data, It may be a replacement sensor model such as a linear equation, a polynomial equation, or a proportional equation expressed as a replacement model parameter.

이하에서는 정합 정보 추출부(108)가 물리적 센서 모델을 이용하여 정합 정보를 추출하는 실시예를 위주로 설명한다. Hereinafter, an embodiment in which the matching information extracting unit 108 extracts matching information using a physical sensor model will be mainly described.

도 2a 및 도 2b에서와 같이, 제 1 기하 변환이 항공 관측 데이터 및 지상 관측 데이터 중 어느 하나에 처리되는 경우에, 제 2 기하 변환은 제 1 기하 변환이 미처리되는 관측 데이터의 위치 데이터와 자세 데이터를 참조하여, 제 1 기하 변환이 처리된 관측 데이터에 대해 수행될 수 있다. 2A and 2B, when the first geometric transformation is processed on either of aerial observation data and ground observation data, the second geometric transformation is the position data and attitude data of the observation data for which the first geometric transformation is unprocessed. With reference to, the first geometric transformation may be performed on the processed observation data.

이와는 다른 실시예로, 제 2 기하 변환은 제 1 기하 변환이 처리된 관측 데이터와 미처리된 관측 데이터와 전혀 상이한 자세 데이터 등의 기하 정보를 참조하여, 양 관측 데이터에 대해 실행될 수도 있다. In another embodiment, the second geometric transformation may be performed on both observation data by referring to geometric information such as the observed data processed with the first geometric transformation and the attitude data completely different from the unprocessed observation data.

도 2c에서와 같이, 제 1 기하 변환이 항공 관측 데이터 및 지상 관측 데이터의 전부에 처리되는 경우에, 제 1 기하 변환에서 활용된 상이한 자세 데이터를 참조하여, 제 1 기하 변환이 전부 실행된 항공 관측 데이터 및 지상 관측 데이터에 대해 모두 수행될 수 있다. As shown in FIG. 2C, when the first geometric transformation is processed on all of the aerial observation data and the ground observation data, the aerial observation in which the first geometric transformation is all performed with reference to different attitude data utilized in the first geometric transformation. It can be performed on both data and ground observation data.

정합 정보 추출부(108)는 항공 관측 데이터 및 지상 관측 데이터 중 어느 하나가 필터링된 위치에서, 관측 검출 임계치보다 높은 상기 관측 데이터의 기하 정보에 대한 제 2 기하 변환이 수행되어, 기하 변환 모델의 정합 정보를 추출할 수 있다.The matching information extraction unit 108 performs a second geometric transformation on the geometric information of the observation data higher than the observation detection threshold at a location where any one of the aerial observation data and the ground observation data is filtered, so that the geometric transformation model is matched. Information can be extracted.

정합 정보 추출부(108)는 기하 변환 모델링에 의해 설정된 좌표계에 근거하여, 기준 데이터, 항공 및 지상 관측 데이터 간의 기하 변환 모델을 생성한다. The matching information extraction unit 108 generates a geometric transformation model between reference data and aerial and ground observation data based on a coordinate system set by geometric transformation modeling.

구체적으로, 정합 정보 추출부(108)는 항공용, 지상용 외부 기하 데이터 및 항공용, 지상용 내부 기하 데이터로 구성된 항공, 지상 기하 정보에 기초하여 기준 데이터와 관측 데이터 간의 기하 변환 모델을 생성할 수 있다. 또한, 설정된 좌표계는 미처리된 관측 데이터의 좌표계, 상이한 자세 데이터에 근거한 좌표계 및 절대 좌표계 중 어느 하나로 설정될 수 있다. 이에 의해, 관측 관련 데이터를 표준화된 좌표계로 변환하여 보정할 수 있다. Specifically, the matching information extraction unit 108 may generate a geometric conversion model between reference data and observation data based on aviation and ground geometric information consisting of aviation, ground external geometric data, and aviation, ground internal geometric data. I can. In addition, the set coordinate system may be set to one of a coordinate system of unprocessed observation data, a coordinate system based on different attitude data, and an absolute coordinate system. As a result, observation-related data can be converted into a standardized coordinate system and corrected.

이와 다른 실시예로서, 정합 정보 추출부(108)는 기하 정보 중 항공, 지상 외부 기하 데이터에 기초하여 기준 데이터들 간의 기하 변환 모델을 생성할 수 있다. 항공 관측 데이터와 지상 관측 데이터를 취득한 센서의 위치와 자세가 서로 상이한 점을 감안하여, 기하 변환 모델 생성시에 외부 기하가 우선적으로 활용될 수 있다. In another embodiment, the matching information extracting unit 108 may generate a geometric transformation model between reference data based on aerial and ground external geometric data among geometric information. In consideration of the fact that the positions and attitudes of the sensors acquiring aerial observation data and ground observation data are different from each other, the external geometry may be preferentially utilized when generating the geometric transformation model.

정합 정보 추출부(108)는 복수의 파라미터가 적용되는 기하 모델을 통해 관측 관련 데이터와의 이격량이 최소화되는 목적함수를 산출할 수 있다. The matching information extraction unit 108 may calculate an objective function that minimizes an amount of separation from observation-related data through a geometric model to which a plurality of parameters are applied.

유사도 분석부(106)에서 항공 관측 데이터와 지상 관측 데이터 양쪽의 관측 검출 정밀도가 전부 검출 임계치보다 낮아 전부 필터링되더라도, 정합 정보 추출부(108)는 검출 임계치보다 낮으나 관측 검출 정밀도가 높은 관측 데이터에 대해 제 2 기하 변환을 수행하여 기하 변환 모델을 수립하고, 잔류한 관측 데이터에 대한 정합 정보를 추출할 수 있다. In the similarity analysis unit 106, even if the observation detection precision of both aerial observation data and ground observation data is lower than the detection threshold and all of them are filtered, the matching information extraction unit 108 is lower than the detection threshold, but the observation detection precision is high. By performing the second geometric transformation, a geometric transformation model may be established, and matching information for residual observation data may be extracted.

정합 정보 검증부(110)는 기준 데이터 기반의 상기 정합 정보를 검증하여 상기 정합 정보를 재추출할 수 있다. The matching information verification unit 110 may re-extract the matching information by verifying the matching information based on the reference data.

정합 정보 검증부(110)는 2 가지 방식으로 진행될 수 있으며, 기준 데이터들에 대한 랜덤 샘플링 방식과 예상 오차 분석 방식일 수 있다. The matching information verification unit 110 may be performed in two ways, and may be a random sampling method and an expected error analysis method for reference data.

랜덤 샘플링 방식에 의히면, 정합 정보 검증부(110)는 제 2 기하 변환된 항공 관측 데이터 및 지상 관측 데이터에서 동일 추정된 기준 데이터들 중에서 표본용 특징 기하들을 랜덤 샘플링하여, 표본용 특징 기하들의 상호 이격량이 최소가 되는 표본용 특징 기하와 관련된 정합 정보를 산출한다. 정합 정보 검증부(110)는 표본용 특징 기하와 관련된 정합 정보로 구성된 제 2 기하 변환으로 기하 변환 모델의 정합 정보를 재추출하여 데이터 융합부(112)에 전달한다. According to the random sampling method, the matching information verification unit 110 randomly samples the sample feature geometries among the reference data estimated to be the same from the second geometrically-transformed aerial observation data and the ground observation data. Matching information related to the feature geometry for the sample with the minimum amount of separation is calculated. The matching information verification unit 110 re-extracts the matching information of the geometric transformation model as a second geometric transformation composed of matching information related to the sample feature geometry, and transmits the re-extracted matching information to the data fusion unit 112.

구체적으로, 정합 정보 검증부(110)는 동일 추정되는 표본용 특징 기하마다 이를 공유하는 항공 및 영상 관측 데이터들을 복수로 샘플링한다. 이러한 샘플링 세트는 서로 상이한 표준용 특징 기하 별로 복수로 획득한다. 이와 동시에, 표본용 특징 기하와 동일 추정되는 특징 기하를 갖는 기준 데이터를 연동하여 선별한다. 이어서, 동일 추정되는 표본용 특징 기하들을 공유하는 항공, 지상 관측 데이터들과 기준 데이터를 제 2 기하 변환된 기하 정보에 따라 배열하는 경우에, 항공, 지상 관측 데이터들의 표본용 특징 기하들과 기준 데이터의 특징 기하에서 상호 이격량이 최소로 판단되는 관측 데이터들의 표본용 특징 기하를 선별한다. 이러한 표본용 특징 기하가 기준 데이터로 재선별되어 이와 관련된 정합 정보가 재추출된다. Specifically, the matching information verification unit 110 samples a plurality of aerial and image observation data sharing the same estimated feature geometry for each sample. These sampling sets are acquired in plurality for different standard feature geometries. At the same time, the reference data having the feature geometry estimated to be the same as the sample feature geometry are interlocked to be selected. Subsequently, when the aerial and ground observation data and reference data that share the same estimated sample feature geometries are arranged according to the second geometric-transformed geometric information, the sample feature geometries and reference data of the aerial and ground observation data We select the sample feature geometry of the observed data whose mutual separation is determined to be the minimum in the feature geometry of. This sample feature geometry is re-selected as reference data, and matching information related thereto is re-extracted.

예상 오차 분석 방식에 의하면, 정합 정보 검증부(110)는 제 2 기하 변환된 항공 관측 데이터 및 지상 관측 데이터에서 동일 추정된 상기 기준 데이터들 간에 이격량을 최소화하는 최확값을 산출하며, 최확값의 산출시에 이용된 최소 이격량에 근거하여 동일 추정된 기준 데이터들 간의 예상 오차 확률을 분석한다. According to the predicted error analysis method, the matching information verification unit 110 calculates a maximum value for minimizing the amount of separation between the reference data estimated to be the same from the second geometrically transformed aerial observation data and the ground observation data. Based on the minimum separation amount used at the time of calculation, the predicted error probability between the same estimated reference data is analyzed.

최확값은 소정의 해석 모델식로 산출되며, 이 모델식에는 복수의 파라미터 중 일부 파라미터가 적용될 수 있다. The most probable value is calculated by a predetermined analysis model equation, and some parameters among a plurality of parameters may be applied to this model equation.

이와 같이 산출된 최확값을 산출함으로써, 기준 데이터를 이용한 항공 및 지상 관측 데이터의 기하 보정이 수행되며, 이에 기한 보정은 기준 데이터를 기하 변환 모델에 적용한 결과와 기준 데이터와 대응하는 관측 데이터의 기하 오차량을 분석하여, 기하 오차량이 최소 또는 최적화되는 파라미터를 최확값으로 산출하는 과정이다. By calculating the calculated maximum value as described above, geometric correction of aerial and ground observation data using the reference data is performed, and the time limit correction is the result of applying the reference data to the geometric transformation model and the geometric error of the observation data corresponding to the reference data. This is a process of analyzing a vehicle and calculating a parameter whose geometric error amount is minimal or optimized as a maximum value.

최확값은 외부 기하, 내부 기하의 오차 정보 중 적어도 어느 하나일 수 있다. 또한, 최확값은 전술한 정보 및 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보, 객체 정보, 지도 관련 정보 중 적어도 하나에 의해 생성된 기하 형태 정보의 오차 정보 중 적어도 어느 하나로 산출될 수 있다.The maximum value may be at least one of error information of an external geometry and an internal geometry. In addition, the maximum probable value may be calculated as at least one of error information of geometric shape information generated by at least one of the above-described information and point cloud data related information, geocoding image data related information, object information, and map related information.

정합 정보 검증부(110)는 예상 오차 확률에 따른 예상 오차가 허용 오차보다 초과하는 경우에, 항공 관측 데이터 및 상기 지상 관측 데이터에서 다른 특징 기하로 추정되는 기하 형태 정보를 신규의 기준 데이터로 샘플링하여 추출하는 처리, 정합 정보 추출부(108)에서 생성된 기하 변환 모델에서 이상 데이터로 판정되는 기준 데이터를 제거하는 처리, 기하 변환 모델에 적용되는 적어도 일부의 파라미터를 변경하는 처리, 및 최확값 산출시에 적용된 해석 모델식에 이용된 적어도 일부 파라미터를 변경하거나, 해석 모델식을 변경하는 처리 중 적어도 어느 하나를 수행할 수 있다. 정합 정보 검증부(110)는 상술한 처리를 수행하도록 유사도 분석부(106) 및 정합 정보 추출부(108)를 제어할 수 있으며, 상기 처리 수행 후의 제약 조건에 따라, 정합 정보 추출부(108)는 제 2 기하 변환으로 기하 변환 모델의 정합 정보를 재추출할 수 있다.When the predicted error according to the predicted error probability exceeds the allowable error, the matching information verification unit 110 samples the aerial observation data and the geometric information estimated by different feature geometries from the ground observation data as new reference data. Extracting processing, processing of removing reference data determined as abnormal data from the geometric transformation model generated by the matching information extraction unit 108, processing of changing at least some parameters applied to the geometric transformation model, and calculating the maximum value At least one of the processing of changing at least some parameters used in the analysis model equation applied to or changing the analysis model equation may be performed. The matching information verification unit 110 may control the similarity analysis unit 106 and the matching information extraction unit 108 to perform the above-described processing, and according to the constraint condition after performing the processing, the matching information extraction unit 108 May re-extract the matching information of the geometric transformation model through the second geometric transformation.

데이터 융합부(112)는 재추출된 정합 정보에 기초하여 제 2 기하 변환된 항공 관측 데이터와 지상 관측 데이터를 기하 변환 모델에서 규정한 동일 좌표계의 융합 데이터로 등록한다(register). The data fusion unit 112 registers the second geometrically-transformed aerial observation data and the ground observation data as fusion data of the same coordinate system defined by the geometric transformation model based on the re-extracted matching information.

동일 좌표계 내의 동일 위치마다 항공 관측 데이터와 지상 관측 데이터에 속한 다양한 정보들이 등록되어, 항공 관측 데이터와 지상 관측 데이터 중 정밀도가 높은 위치 데이터로 특정 위치 정보를 정확하게 파악할 수 있을 뿐만 아니라, 다양항 정보로 구성된 공간 정보를 구현하는데 유익하다. Various information belonging to aerial observation data and ground observation data are registered for each same location in the same coordinate system, so that specific location information can be accurately identified as high-precision location data among aerial observation data and ground observation data, as well as various port information. It is useful for realizing structured spatial information.

본 실시예에서는 정합 정보 검증부(110)에 의해 재추출된 정합 정보에 기초하여 양 관측 데이터를 융합하는 것을 위주로 설명하였으나, 정합 정보 검증부(110)가 생략되는 경우에, 정합 정보 추출부(108)에서 추출된 정합 정보에 근거하여 양 관측 데이터가 융합될 수 있다. In the present embodiment, it has been described focusing on fusing both observation data based on the matching information re-extracted by the matching information verification unit 110, but when the matching information verification unit 110 is omitted, the matching information extracting unit ( 108), both observation data may be fused.

본 실시예에 따르면, 지면 주변 환경을 정밀하게 구현하는 지상 관측 데이터와 지면으로부터 일정 고도 이상의 광범위한 지역을 관측하는 항공 관측 데이터가 융합됨으로써, 공간 정보 및 이를 기반으로 하는 지도 생성시에 높은 정밀도로 많은 공간 정보를 확보할 수 있다. According to the present embodiment, ground observation data that accurately implements the environment around the ground and aerial observation data that observes a wide area of a certain altitude or higher from the ground are fused. Space information can be secured.

또한, 융합을 위해 항공 관측 데이터와 지상 관측 데이터를 상호 유사한 기하 형태로 변환하며, 유사도 분석을 통해 공통으로 추정되는 기준 데이터를 기반으로 양 관측 데이터의 기하 변환 모델을 수립함으로써, 데이터 융합의 정확도를 향상시킬 수 있다. In addition, for fusion, aerial observation data and ground observation data are converted into similar geometric shapes, and the accuracy of data fusion is improved by establishing a geometric conversion model of both observation data based on the reference data commonly estimated through similarity analysis. Can be improved.

이에 더하여, 기하 변환 모델의 수립시에 항공 관측 데이터와 지상 관측 데이터의 기준 데이터들 간의 이격량을 최소로 하는 양쪽의 기준 데이터들을 활용함으로써 최적의 정합 정보를 산출할 수 있다. In addition, when establishing a geometric transformation model, optimal matching information can be calculated by utilizing both reference data that minimizes the amount of separation between the reference data of the aerial observation data and the ground observation data.

이하, 도 1 내지 도 12을 참조하여, 본 발명의 일 실시예에 따른 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템을 이용한 융합 방법에 대해 설명하기로 한다.Hereinafter, a fusion method using a fusion system between aerial observation data and ground observation data according to an embodiment of the present invention will be described with reference to FIGS. 1 to 12.

도 3은 본 발명의 일 실시예에 따른 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템을 이용한 융합 방법에 관한 순서도이다. 3 is a flowchart of a fusion method using a fusion system between aerial observation data and ground observation data according to an embodiment of the present invention.

도 4는 지면에 대해 연직 방향으로 획득된 정사영상으로서의 항공 관측 데이터 및 지면에 대해 비연직 방향으로 획득된 항공 관측 데이터를 예시한 도면이며, 도 5는 영상 센서, 3차원 측량 센서 및 이들 센서들로 구성된 멀티 센서 플랫폼으로부터 획득된 지상 관측 데이터를 예시한 도면이다. 4 is a diagram illustrating aerial observation data as orthogonal images acquired in a vertical direction with respect to the ground and aerial observation data acquired in a non-vertical direction with respect to the ground, and FIG. 5 is an image sensor, a three-dimensional survey sensor, and these sensors. It is a diagram illustrating ground observation data acquired from a multi-sensor platform consisting of.

도 6은 3차원 측량 센서로부터 획득된 관측 데이터에서 기준 데이터를 설정하는 과정을 도시한 도면이고, 도 7은 영상 센서들로부터 획득된 항공 관측 데이터 및 지상 관측 데이터에서 기준 데이터들을 설정하는 과정을 도시한 도면이다. 도 8은 3차원 라이다 센서로부터 획득된 지상 관측 데이터에서 기준 데이터들을 설정하는 과정을 도시한 도면이다. 도 9는 3차원 측량 센서로부터 획득된 관측 데이터가 탑뷰 형태로 기하 변환된 것을 도시한 도면이다.6 is a diagram illustrating a process of setting reference data from observation data obtained from a 3D survey sensor, and FIG. 7 shows a process of setting reference data from aerial observation data and ground observation data obtained from image sensors. It is a drawing. 8 is a diagram illustrating a process of setting reference data from ground observation data acquired from a 3D lidar sensor. 9 is a diagram illustrating that observation data acquired from a 3D survey sensor is geometrically transformed into a top view.

먼저, 입력부(102)로부터 수신된 항공 관측 데이터 및 지상 관측 데이터 중 적어도 어느 하나에 대해 제 1 기하 변환을 처리한다(S305). First, a first geometric transformation is processed for at least one of aerial observation data and ground observation data received from the input unit 102 (S305).

항공 및 지상 관측 데이터는 영상 센서, 3차원 측량 센서 중 적어도 어느 하나와 항법 센서들로부터 취득된 센서 데이터들에 대해 소정의 처리가 수행되어 다양한 데이터를 포함하도록 생성될 수 있다. Aerial and ground observation data may be generated to include various data by performing predetermined processing on at least one of an image sensor and a 3D survey sensor and sensor data acquired from navigation sensors.

영상 센서에 의한 항공 관측 데이터는 도 4(a)와 같이 지면에 연직 방향으로 촬영된 정사영상 및/또는 도 4(b)와 같이 지면에 대한 비연직 방향으로 촬영된 영상일 수 있다. The aerial observation data by the image sensor may be an orthogonal image photographed in a vertical direction on the ground as shown in FIG. 4(a) and/or an image photographed in a non-vertical direction with respect to the ground as in FIG. 4(b).

지상 관측 데이터는 도 5(a)와 같이 지면에서 상방을 향한 방향의 영상 데이터, 도 5(b)와 같이 3차원 측량 센서에 의한 점군 데이터, 또는, 영상 센서와 3차원 측량 센서의 멀티 센서 플랫폼으로 획득된 영상 데이터와 점군 데이터가 결합된 데이터일 수도 있다. Ground observation data is image data in a direction upward from the ground as shown in FIG. 5(a), point cloud data by a 3D survey sensor as shown in FIG. 5(b), or a multi-sensor platform of an image sensor and a 3D survey sensor It may be data obtained by combining the acquired image data and point cloud data.

항공 관측 데이터는 항공 기하 정보를 포함할 수 있다. 항공 기하 정보는 정합 정보 추출부(108)에서 활용될 기하 변환 모델의 종류에 따라 상이할 수 있다. The aerial observation data may include aerial geometric information. The aerial geometric information may be different according to the type of the geometric transformation model to be used in the matching information extraction unit 108.

예컨대, 기하 변환 모델이 물리적 센서 모델인 경우에, 항공 기하 정보는 항공용 위치 데이터와 항공용 자세 데이터를 갖는 항공용 외부 기하 데이터와 항공용 내부 기하 데이터를 포함할 수 있다. 기하 변환 모델이 수학식 1에 적용되는 대체 모델 파라미터를 이용하는 대체 센서 모델인 경우에, 항공 기하 정보는 항공용 대체 모델 파라미터를 포함할 수 있다. For example, when the geometric transformation model is a physical sensor model, the aerial geometric information may include external geometric data for aviation and internal geometric data for aviation having position data for aviation and attitude data for aviation. When the geometric transformation model is an alternative sensor model using a substitute model parameter applied to Equation 1, the aircraft geometric information may include a substitute model parameter for aviation.

지상 관측 데이터도 항공 관측 데이터와 마찬가지로, 기하 변환 모델의 종류에 따라 서로 상이한 지상 기하 정보를 가질 수 있다. 예컨대, 기하 변환 모델이 물리적 센서 모델인 경우에, 지상 기하 정보는 지상용 위치 데이터와 지상용 자세 데이터를 갖는 지상용 외부 기하 데이터와 지상용 내부 기하 데이터를 포함할 수 있다. 기하 변환 모델이 수학식 1에 적용되는 대체 모델 파라미터를 이용하는 대체 센서 모델인 경우에, 지상 기하 정보는 지상용 대체 모델 파라미터를 포함할 수 있다. Like aerial observation data, ground observation data may have different ground geometric information depending on the type of the geometric transformation model. For example, when the geometric transformation model is a physical sensor model, the ground geometric information may include external geometric data for ground and internal geometric data for ground having position data for the ground and attitude data for the ground. When the geometric transformation model is a replacement sensor model using the replacement model parameter applied to Equation 1, the ground geometry information may include a replacement model parameter for the ground.

또한, 항공 및 지상 관측 데이터는 전술한 기하 정보, 각 센서의 취득 시간에 대한 시간 정보, 각 센서마다 장치 고유 속성과 관련된 고유 데이터, 3차원 측량 센서에 의해 관측 데이터가 획득되는 경우의 점군 데이터 관련 정보, 영상 센서로부터 관측 데이터가 획득되는 경우의 지오코딩(geocoding) 영상 데이터 관련 정보, 점군 데이터 관련 정보 및 지오코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 근거하여 추출한 대상물의 속성이 추정된 객체 정보를 포함할 수 있다. In addition, the aerial and ground observation data is related to the above-described geometric information, time information on the acquisition time of each sensor, unique data related to device specific properties for each sensor, and point cloud data when observation data is acquired by a 3D survey sensor. The object information for which the attribute of the extracted object is estimated based on at least one of information, information related to geocoding image data, information related to point cloud data, and information related to geocoding image data when observation data is obtained from an image sensor. Can include.

내부 기하 데이터는 센서 자체의 고유값으로서, 플랫폼 등의 이동 여부에 관계없이 유지되는 기하 파라미터에 기인하는 각 센서마다의 관측 데이터의 오차이다.The internal geometric data is an inherent value of the sensor itself, and is an error in observed data for each sensor due to a geometric parameter maintained regardless of whether the platform or the like is moved.

항공 및 지상 관측 데이터는 센서로부터 획득된 센서 데이터와 기하 정보에 기초하여, 3차원 측량 센서에 기반한 3차원 점군 데이터 관련 정보 및 영상 센서에 기반한 지오코딩 영상 데이터 관련 정보를 더 포함할 수 있다. The aerial and ground observation data may further include information related to 3D point cloud data based on the 3D survey sensor and information related to geocoding image data based on the image sensor, based on sensor data and geometric information acquired from the sensor.

3차원 점군 데이터 관련 정보는 점군용 3차원 좌표 데이터, 점군용 색상 정보, 점군용 3차원 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 점군용 클래스 정보 및 3차원 측량 센서가 레이저 센서인 경우의 레이저 강도 정보 중 적어도 하나를 포함할 수 있다. Information related to 3D point group data includes 3D coordinate data for point group, color information for point group, class information for point group estimated from the object extracted from 3D coordinate data for point group, and laser when the 3D survey sensor is a laser sensor. It may include at least one of strength information.

지오코딩 영상 데이터 관련 정보는 각 픽셀마다의 지오코딩용 좌표 데이터, 지오코딩용 색상 정보 및 지오코딩용 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 지오코딩용 클래스 정보 중 적어도 하나를 포함할 수 있다. The geocoding image data related information may include at least one of geocoding coordinate data for each pixel, geocoding color information, and geocoding class information whose type is estimated from the object extracted from the geocoding coordinate data. .

항공 및 지상 관측 데이터는 3차원 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 하나에 기초하여 추출된 대상물의 속성과 관련되어 추출된 객체 정보를 포함할 수 있다. The aerial and ground observation data may include object information extracted in relation to an attribute of an object extracted based on at least one of information related to 3D point cloud data and information related to geocoding image data.

항공 관측 데이터가 영상 센서 및 3차원 측량 센서 중 어느 하나로부터 획득되고, 지상 관측 데이터가 상기 항공 관측 데이터의 센서와 다른 이종의 센서로부터 획득되는 경우에, 입력부(102)는 3차원 측량 센서로부터 획득된 점군 데이터를 레이저의 반사강도값 또는 고도값에 기초하여 가상의 영상 데이터로 변환하고, 관측 데이터의 위치 데이터를 가상의 영상 데이터의 위치 데이터로 정의하며, 관측 데이터의 자세 데이터를 가상의 영상 데이터의 시야 방향으로 정의할 수 있다. When aerial observation data is obtained from either an image sensor or a 3D survey sensor, and ground observation data is acquired from a sensor different from the sensor of the aerial observation data, the input unit 102 is obtained from a 3D survey sensor. The resultant point cloud data is converted into virtual image data based on the reflection intensity value or altitude value of the laser, the position data of the observation data is defined as the position data of the virtual image data, and the attitude data of the observation data is virtual image data. It can be defined as the viewing direction of.

기하 변환부(104)는 항공 관측 데이터와 지상 관측 데이터 중 적어도 어느 하나에 대해 제 1 기하 변환을 처리하여 항공 관측 데이터와 지상 관측 데이터는 유사한 기하 형태를 갖도록 변환된다. The geometric conversion unit 104 converts the aerial observation data and the ground observation data to have a similar geometric shape by processing a first geometric transformation on at least one of the aerial observation data and the ground observation data.

기하 변환부(104a, 104c)의 다양한 처리는 도 2a 및 도 2b에서와 같이, 제 1 기하 변환이 처리되는 관측 데이터가 미처리되는 관측 데이터의 기하 정보를 구성하는 위치 데이터와 자세 데이터를 참조하여 제 1 기하 변환이 수행될 수 있다. Various processing of the geometric conversion units 104a and 104c is performed by referring to the position data and attitude data constituting the geometric information of the unprocessed observation data, as shown in FIGS. 2A and 2B. 1 Geometric transformation can be performed.

예를 들어, 도 2a에서와 같이, 지상 관측 데이터는 지상 기하 변환 모듈(104b)에 의해 기하 변환되나, 항공 관측 데이터는 기하 변환되지 않는다. 이 경우에, 지상 관측 데이터는 항공 관측 데이터의 항공용 위치 데이터, 항공용 자세 데이터, 항공용 내부 기하 데이터 등의 항공 기하 정보를 기반으로, 도 6과 같이, 항공 관측 데이터의 정사영상의 기하 형태로 유사하게 변환될 수 있다. 도 6은 3차원 측량 센서로부터 획득된 관측 데이터가 탑뷰 형태로 기하 변환된 것을 도시한 도면이다.For example, as shown in FIG. 2A, the ground observation data is geometrically converted by the ground geometric conversion module 104b, but the aerial observation data is not geometrically converted. In this case, the ground observation data is based on aviation geometric information such as aviation position data, aviation attitude data, and aviation internal geometric data of aviation observation data, as shown in FIG. Can be converted similarly to 6 is a diagram illustrating that observation data acquired from a 3D survey sensor is geometrically transformed into a top view.

도 2b의 다른 예로서, 항공 관측 데이터는 항공 기하 변환 모듈(104d)에 의해 기하 변환되나, 지상 관측 데이터는 기하 변환되지 않는다. 이 경우에, 항공 관측 데이터는 지상 관측 데이터의 지상용 위치 데이터, 지상용 자세 데이터, 지상용 내부 기하 데이터 등의 지상 기하 정보를 기반으로 지상 관측 데이터의 기하 형태에 유사하게 변환될 수 있다. As another example of FIG. 2B, the aerial observation data is geometrically converted by the aerial geometric conversion module 104d, but the ground observation data is not geometrically converted. In this case, the aerial observation data may be converted similarly to the geometry of the ground observation data based on ground geometric information such as ground position data, ground attitude data, and ground internal geometric data of the ground observation data.

또 다른 예로서, 도 2c와 같이 제 1 기하 변환은 항공 기하 변환 모듈(104f) 및 지상 기하 변환 모듈(104g)을 이용하여, 항공 관측 데이터 및 지상 관측 데이터의 전부에 처리되는 경우에, 기하 변환부(104e)는 항공용 자세 데이터와 지상용 자세 데이터와 상이한 자세 데이터를 참조하여 제 1 기하 변환을 처리할 수 있다. As another example, as shown in FIG. 2C, when the first geometric conversion is processed on all of the aerial observation data and the ground observation data using the aerial geometric conversion module 104f and the ground geometric conversion module 104g, the geometric conversion The unit 104e may process the first geometric transformation by referring to attitude data different from the aviation attitude data and the ground attitude data.

예컨대, 도 4(b)와 같이 비연직 방향의 항공 관측 데이터와 도 5(a)의 지상 관측 데이터의 제 1 기하 변환은 도 2c의 예와 같이, 상이한 자세 데이터로서 도 4(a)의 정사영상의 자세 데이터를 참조하여 구현될 수 있다. For example, the first geometric transformation of the aerial observation data in the non-vertical direction and the ground observation data of FIG. 5(a) as shown in FIG. 4(b) is different attitude data as shown in FIG. It can be implemented by referring to the posture data of the image.

다음으로, 유사도 분석부(106)는 도 2a 내지 도 2c에서와 같이, 적어도 하나에 대해 제 1 기하 변환이 처리된 항공 관측 데이터와 지상 관측 데이터 간에 유사도 분석을 수행하여 항공 관측 데이터와 지상 관측 데이터에서 상호 동일하게 추정되는 기준 데이터를 설정한다(S310).Next, as shown in FIGS. 2A to 2C, the similarity analysis unit 106 performs a similarity analysis between the aerial observation data and the ground observation data on which the first geometric transformation has been processed for at least one of the aerial observation data and the ground observation data. Reference data that are estimated to be identical to each other are set (S310).

항공 관측 데이터 및 지상 관측 데이터 중 적어도 어느 하나가 영상 센서로부터 획득되는 경우, 유사도 분석부(106)는 도 8과 같이, 관측 데이터에 속한 지오코딩 영상 데이터 정보 중 픽셀 좌표를 기반으로 하는 색상 변화를 분석하며, 특징 기하로 추정되는 기하 형태 정보를 추출하여 기준 데이터를 설정하는 유사도 분석을 실행할 수 있다. When at least one of the aerial observation data and the ground observation data is obtained from the image sensor, the similarity analysis unit 106 performs color change based on pixel coordinates among geocoding image data information belonging to the observation data, as shown in FIG. 8. After analyzing, it is possible to perform a similarity analysis to set reference data by extracting geometric information estimated as a feature geometry.

항공 관측 데이터 및 상기 지상 관측 데이터 중 적어도 어느 하나가 3차원 측량 센서로부터 관측 데이터를 획득하는 경우, 유사도 분석부(106)는 도 7, 도 9와 같이, 관측 데이터에 속한 점군 데이터의 기하하적 형상 변화도 및 레이저 강도 변화도 중 적어도 하나를 분석하여 상기 기하 형태 정보를 추출하여 기준 데이터를 설정할 수 있다. When at least one of the aerial observation data and the ground observation data acquires observation data from a 3D survey sensor, the similarity analysis unit 106 performs a geometrical geometry of point cloud data belonging to the observation data, as shown in FIGS. 7 and 9. Reference data may be set by extracting the geometric shape information by analyzing at least one of a change in shape and a change in laser intensity.

상술한 기하 형태 정보는 정합이 용이한 선, 폴리라인(polyline), 면, 기둥, 구 등과 같은 단순한 형상 또는 도로의 차선, 노면 표시 등의 객체 등일 수 있다. The above-described geometric shape information may be a simple shape such as a line, a polyline, a surface, a column, a sphere, etc. that is easy to match, or an object such as a lane of a road or a road surface mark.

또한, 유사도 분석부(106)는 항공 관측 데이터 및 지상 관측 데이터의 일부 위치들 중 적어도 하나에서 관측 검출 정밀도가 검출 임계치보다 낮은 경우에, 검출 임계치보다 낮은 항공용 위치 데이터와 관측 검출 임계치보다 낮은 지상용 위치 데이터를 참조하여, 기준 데이터를 설정하지 않도록 검출 임계치보다 낮은 위치에 상응하는 항공 관측 데이터 및 상기 지상용 관측 데이터를 필터링할 수 있다. In addition, when the observation detection accuracy is lower than the detection threshold at at least one of the aerial observation data and some of the ground observation data, the similarity analysis unit 106 The aerial observation data corresponding to a position lower than the detection threshold and the ground observation data may be filtered so as not to set the reference data with reference to the dragon location data.

유사도 분석부(106)는 유사도 분석을 수행하기 전에, 도 1을 통해 이미 언급한 전처리를 진행할 수 있다. Before performing the similarity analysis, the similarity analysis unit 106 may perform the preprocessing already mentioned through FIG. 1.

다음으로, 정합 정보 추출부(108)는 기준 데이터를 기반으로, 관측 데이터들 중 적어도 어느 하나에 대해 제 1 기하 변환이 처리된 항공 관측 데이터의 항공용 기하 정보와 지상 관측 데이터의 지상용 기하 정보의 적어도 하나에 대한 제 2 기하 변환이 수행되어, 항공 관측 데이터와 지상 관측 데이터 간의 기하 변환 모델의 정합 정보를 추출한다(S315).Next, the matching information extraction unit 108 is based on the reference data, the first geometric transformation of at least one of the observation data is processed for aviation geometric information of the aerial observation data and the ground geometric information of the ground observation data A second geometric transformation for at least one of is performed to extract matching information of a geometric transformation model between aerial observation data and ground observation data (S315).

정합 정보 추출부(108)는 기하 변환 모델을 사용하여 정합 정보를 추출할 수 있다. 이 경우에, 기하 변환 모델은 물리적 센서 모델이거나, 외부 기하 데이터들의 사용이 곤란한 경우에, 수학식 1에 나타난 바와 같이, 대체 모델 파라미터로 표현되는 선형식, 다항식, 비례식과 같은 대체 센서 모델일 수 있다.The matching information extraction unit 108 may extract matching information using a geometric transformation model. In this case, the geometric transformation model may be a physical sensor model, or when it is difficult to use external geometric data, as shown in Equation 1, an alternative sensor model such as a linear equation, polynomial equation, or proportional equation expressed as an alternative model parameter. have.

이하에서는 정합 정보 추출부(108)가 물리적 센서 모델을 이용하여 정합 정보를 추출하는 실시예를 위주로 설명한다. Hereinafter, an embodiment in which the matching information extracting unit 108 extracts matching information using a physical sensor model will be mainly described.

도 2a 및 도 2b에서와 같이, 제 1 기하 변환이 항공 관측 데이터 및 지상 관측 데이터 중 어느 하나에 처리되는 경우에, 제 2 기하 변환은 제 1 기하 변환이 미처리되는 관측 데이터의 위치 데이터와 자세 데이터를 참조하여, 제 1 기하 변환이 처리된 관측 데이터에 대해 수행될 수 있다. 2A and 2B, when the first geometric transformation is processed on either of aerial observation data and ground observation data, the second geometric transformation is the position data and attitude data of the observation data for which the first geometric transformation is unprocessed. With reference to, the first geometric transformation may be performed on the processed observation data.

이와는 다른 실시예로, 제 2 기하 변환은 제 1 기하 변환이 처리된 관측 데이터와 미처리된 관측 데이터와 전혀 상이한 자세 데이터 등의 기하 정보를 참조하여, 양 관측 데이터에 대해 실행될 수도 있다. In another embodiment, the second geometric transformation may be performed on both observation data by referring to geometric information such as the observed data processed with the first geometric transformation and the attitude data completely different from the unprocessed observation data.

도 2c에서와 같이, 제 1 기하 변환이 항공 관측 데이터 및 지상 관측 데이터의 전부에 처리되는 경우에, 제 1 기하 변환에서 활용된 상이한 자세 데이터를 참조하여, 제 1 기하 변환이 전부 실행된 항공 관측 데이터 및 지상 관측 데이터에 대해 수행될 수 있다. As shown in FIG. 2C, when the first geometric transformation is processed on all of the aerial observation data and the ground observation data, the aerial observation in which the first geometric transformation is all performed with reference to different attitude data utilized in the first geometric transformation. It can be performed on data and ground observation data.

정합 정보 추출부(108)는 항공 관측 데이터 및 지상 관측 데이터 중 어느 하나가 필터링된 위치에서, 관측 검출 임계치보다 높은 상기 관측 데이터의 기하 정보에 대한 제 2 기하 변환이 수행되어, 기하 변환 모델의 정합 정보를 추출할 수 있다.The matching information extraction unit 108 performs a second geometric transformation on the geometric information of the observation data higher than the observation detection threshold at a location where any one of the aerial observation data and the ground observation data is filtered, so that the geometric transformation model is matched. Information can be extracted.

정합 정보 추출부(108)는 물리적 센서 모델에 따른 기하 변환 모델을 사용할 때, 항공 관측 데이터 및 지상 관측 데이터를 획득한 센서의 외부 기하 데이터들 및 내부 기하 데이터를 활용할 수 있다. When using the geometric transformation model according to the physical sensor model, the matching information extraction unit 108 may utilize external geometric data and internal geometric data of a sensor that has obtained aerial observation data and ground observation data.

유사도 분석부(106)에서 항공 관측 데이터와 지상 관측 데이터 양쪽의 관측 검출 정밀도가 전부 검출 임계치보다 낮아 전부 필터링되더라도, 정합 정보 추출부(108)는 검출 임계치보다 낮으나 관측 검출 정밀도가 높은 관측 데이터에 대해 제 2 기하 변환을 수행하여 기하 변환 모델을 수립하고, 잔류한 관측 데이터에 대한 정합 정보를 추출할 수 있다. In the similarity analysis unit 106, even if the observation detection precision of both aerial observation data and ground observation data is lower than the detection threshold and all of them are filtered, the matching information extraction unit 108 is lower than the detection threshold, but the observation detection precision is high. By performing the second geometric transformation, a geometric transformation model may be established, and matching information for residual observation data may be extracted.

정합 정보 검증부(110)는 기준 데이터 기반의 정합 정보를 검증하여 상기 정합 정보를 재추출한다(S320). The matching information verification unit 110 verifies the matching information based on the reference data and re-extracts the matching information (S320).

정합 정보 검증부(110)는 2 가지 방식으로 진행될 수 있으며, 기준 데이터들에 대한 랜덤 샘플링 방식과 예상 오차 분석 방식일 수 있다. The matching information verification unit 110 may be performed in two ways, and may be a random sampling method and an expected error analysis method for reference data.

도 10은 기준 데이터 기반의 정합 정보를 검증하여 정합 정보를 재추출하는 일 실시예에 관한 순서도이며, 도 11은 기준 데이터 기반의 정합 정보를 검증하여 정합 정보를 재추출하는 다른 실시예에 관한 순서도이다. FIG. 10 is a flowchart illustrating an embodiment of re-extracting matching information by verifying matching information based on reference data, and FIG. 11 is a flowchart of another embodiment of re-extracting matching information by verifying matching information based on reference data to be.

도 10에 따른 랜덤 샘플링 방식에 의히면, 정합 정보 검증부(110)는 제 2 기하 변환된 항공 관측 데이터 및 지상 관측 데이터에서 동일 추정된 기준 데이터들 중에서 표본용 특징 기하들을 랜덤 샘플링하여, 표본용 특징 기하들의 상호 이격량이 최소가 되는 표본용 특징 기하와 관련된 정합 정보를 산출한다(S1005). According to the random sampling method according to FIG. 10, the matching information verification unit 110 randomly samples feature geometries for a sample among reference data estimated from the second geometrically-transformed aerial observation data and ground observation data. Matching information related to the sample feature geometry for which the mutually spaced amount of the feature geometries is minimum is calculated (S1005).

다음으로, 정합 정보 검증부(110)는 표본용 특징 기하와 관련된 정합 정보로 구성된 제 2 기하 변환으로 기하 변환 모델의 정합 정보를 재추출하여 데이터 융합부(112)에 전달한다(S1010). Next, the matching information verification unit 110 re-extracts the matching information of the geometric transformation model as a second geometric transformation consisting of matching information related to the sample feature geometry, and transmits the re-extracted to the data fusion unit 112 (S1010).

구체적으로, 정합 정보 검증부(110)는 동일 추정되는 표본용 특징 기하마다 이를 공유하는 항공 및 영상 관측 데이터들을 복수로 샘플링한다. 이러한 샘플링 세트는 서로 상이한 표준용 특징 기하 별로 복수로 획득한다. 이와 동시에, 표본용 특징 기하와 동일 추정되는 특징 기하를 갖는 기준 데이터를 연동하여 선별한다. 이어서, 동일 추정되는 표본용 특징 기하들을 공유하는 항공, 지상 관측 데이터들과 기준 데이터를 제 2 기하 변환된 기하 정보에 따라 배열하는 경우에, 항공, 지상 관측 데이터들의 표본용 특징 기하들과 기준 데이터의 특징 기하에서 상호 이격량이 최소로 판단되는 관측 데이터들의 표본용 특징 기하를 선별한다. 이러한 표본용 특징 기하가 기준 데이터로 재선별되어 이와 관련된 정합 정보가 재추출된다. Specifically, the matching information verification unit 110 samples a plurality of aerial and image observation data sharing the same estimated feature geometry for each sample. These sampling sets are acquired in plurality for different standard feature geometries. At the same time, the reference data having the feature geometry estimated to be the same as the sample feature geometry are interlocked to be selected. Subsequently, when the aerial and ground observation data and reference data that share the same estimated sample feature geometries are arranged according to the second geometric-transformed geometric information, the sample feature geometries and reference data of the aerial and ground observation data We select the sample feature geometry of the observed data whose mutual separation is determined to be the minimum in the feature geometry of. This sample feature geometry is re-selected as reference data, and matching information related thereto is re-extracted.

다른 실시예로서 도 11에 따른 예상 오차 분석 방식에 의하면, 정합 정보 검증부(110)는 제 2 기하 변환된 항공 관측 데이터 및 지상 관측 데이터에서 동일 추정된 상기 기준 데이터들 간에 이격량을 최소화하는 최확값을 산출한다(S1105). As another embodiment, according to the predicted error analysis method according to FIG. 11, the matching information verification unit 110 minimizes the amount of separation between the reference data estimated to be the same from the second geometrically transformed aerial observation data and the ground observation data. The probability value is calculated (S1105).

최확값의 산출시에 이용된 최소 이격량에 근거하여 동일 추정된 기준 데이터들 간의 예상 오차 확률을 분석한다(S1110). The predicted error probability between the same estimated reference data is analyzed based on the minimum separation amount used when calculating the maximum value (S1110).

최확값은 소정의 해석 모델식로 산출되며, 이 모델식에는 복수의 파라미터 중 일부 파라미터가 적용될 수 있다. The most probable value is calculated by a predetermined analysis model equation, and some parameters among a plurality of parameters may be applied to this model equation.

이와 같이 산출된 최확값을 산출함으로써, 기준 데이터를 이용한 항공 및 지상 관측 데이터의 기하 보정이 수행되며, 이에 기한 보정은 기준 데이터를 기하 변환 모델에 적용한 결과와 기준 데이터와 대응하는 관측 데이터의 기하 오차량을 분석하여, 기하 오차량이 최소 또는 최적화되는 파라미터를 최확값으로 산출하는 과정이다. By calculating the calculated maximum value as described above, geometric correction of aerial and ground observation data using the reference data is performed, and the time limit correction is the result of applying the reference data to the geometric transformation model and the geometric error of the observation data corresponding to the reference data. This is a process of analyzing a vehicle and calculating a parameter whose geometric error amount is minimal or optimized as a maximum value.

최확값은 외부 기하, 내부 기하의 오차 정보 중 적어도 어느 하나일 수 있다. 또한, 최확값은 전술한 정보 및 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보, 객체 정보, 지도 관련 정보 중 적어도 하나에 의해 생성된 기하 형태 정보의 오차 정보 중 적어도 어느 하나로 산출될 수 있다.The maximum value may be at least one of error information of an external geometry and an internal geometry. In addition, the maximum probable value may be calculated as at least one of error information of geometric shape information generated by at least one of the above-described information and point cloud data related information, geocoding image data related information, object information, and map related information.

이어서, 정합 정보 검증부(110)는 예상 오차 확률에 따른 예상 오차가 허용 오차보다 초과하는 경우에(S1115의 Y), 제 2 기하 변환에 적용되는 기하 변환 모델에 따른 정합 정보 추출 프로세스의 제약 조건을 변경한다(S1120). Subsequently, when the expected error according to the expected error probability exceeds the allowable error (Y in S1115), the matching information verification unit 110 is a constraint condition of the matching information extraction process according to the geometric transformation model applied to the second geometric transformation. To change (S1120).

제약 조건의 변경과 관련하여, 항공 관측 데이터 및 상기 지상 관측 데이터에서 다른 특징 기하로 추정되는 기하 형태 정보를 신규의 기준 데이터로 샘플링하여 추출하는 처리, 정합 정보 추출부(108)에서 생성된 기하 변환 모델에서 이상 데이터로 판정되는 기준 데이터를 제거하는 처리, 기하 변환 모델에 적용되는 적어도 일부의 파라미터를 변경하는 처리, 및 최확값 산출시에 적용된 해석 모델식에 이용된 적어도 일부 파라미터를 변경하거나, 해석 모델식을 변경하는 처리 중 적어도 어느 하나를 수행할 수 있다. 정합 정보 검증부(110)는 상술한 처리를 수행하도록 유사도 분석부(106) 및 정합 정보 추출부(108)를 제어할 수 있으며, 상기 처리 수행 후의 제약 조건에 따라, 정합 정보 추출부(108)는 제 2 기하 변환으로 기하 변환 모델의 정합 정보를 재추출할 수 있다. In relation to the change of the constraint condition, a process of sampling and extracting geometric shape information estimated as different feature geometry from aerial observation data and the ground observation data as new reference data, and geometric transformation generated by the matching information extraction unit 108 Processing of removing reference data that is judged as abnormal data from the model, processing of changing at least some parameters applied to the geometric transformation model, and processing of changing or analyzing at least some parameters used in the analysis model equation applied at the time of calculating the maximum value At least one of the processes of changing the model expression may be performed. The matching information verification unit 110 may control the similarity analysis unit 106 and the matching information extraction unit 108 to perform the above-described processing, and according to the constraint condition after performing the processing, the matching information extraction unit 108 May re-extract the matching information of the geometric transformation model through the second geometric transformation.

다음으로, 데이터 융합부(112)는 재추출된 정합 정보에 기초하여 제 2 기하 변환된 항공 관측 데이터와 지상 관측 데이터를 기하 변환 모델에서 규정한 동일 좌표계의 융합 데이터로 등록한다(register). Next, the data fusion unit 112 registers the second geometrically-transformed aerial observation data and the ground observation data as fusion data of the same coordinate system defined in the geometric transformation model based on the re-extracted matching information.

도 12는 항공 관측 데이터와 지상 관측 데이터가 융합한 것을 예시한 도면이다. 12 is a diagram illustrating the fusion of aerial observation data and ground observation data.

동일 좌표계 내의 동일 위치마다 항공 관측 데이터와 지상 관측 데이터에 속한 다양한 정보들이 등록되어, 도 12와 같이, 항공 관측 데이터와 지상 관측 데이터 중 정밀도가 높은 위치 데이터로 특정 위치 정보을 비롯한 객체 정보 등을 정확하게 파악할 수 있을 뿐만 아니라, 다양항 정보로 구성된 공간 정보를 구현하는데 유익하다. Various information belonging to aerial observation data and ground observation data are registered for each same location in the same coordinate system, and as shown in FIG. 12, it is possible to accurately grasp specific location information and object information with high-precision location data among aerial observation data and ground observation data. Not only can it be possible, but it is also useful for realizing spatial information composed of various information.

도 1에 도시된 시스템(100)을 성하는 구성요소 또는 도 3, 도 10, 도 11에 도시된 실시예들에 따른 단계는 그 기능을 실현시키는 프로그램의 형태로 컴퓨터 판독가능한 기록 매체에 기록될 수 있다. 여기에서, 컴퓨터 판독 가능한 기록 매체란, 데이터나 프로그램 등의 정보를 전기적, 자기적, 광학적, 기계적, 또는 화학적 작용에 의해 축적하고, 컴퓨터에서 판독할 수 있는 기록 매체를 말한다. 이러한 기록 매체 중 컴퓨터로부터 분리 가능한 것으로서는, 예를 들면, 휴대용 스토리지(portalbe storage), 플렉시블 디스크, 광자기 디스크, CD-ROM, CD-R/W, DVD, DAT, 메모리 카드 등이 있다. 또한, 모바일 디바이스 및 컴퓨터에 고정된 기록 매체로서 SSD(Solid State Disk), 하드디스크나 ROM 등이 있다.The components that make up the system 100 shown in Fig. 1 or the steps according to the embodiments shown in Figs. 3, 10, and 11 may be recorded on a computer-readable recording medium in the form of a program that realizes its function. I can. Here, the computer-readable recording medium refers to a recording medium that can be read by a computer by storing information such as data or programs by electrical, magnetic, optical, mechanical, or chemical action. Examples of such recording media that can be separated from a computer include portable storage, flexible disks, magneto-optical disks, CD-ROMs, CD-R/Ws, DVDs, DATs, and memory cards. In addition, as recording media fixed to mobile devices and computers, there are solid state disks (SSDs), hard disks, and ROMs.

또한, 이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. Further, in the above, even if all the constituent elements constituting the embodiments of the present invention are described as being combined and operated as one, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all the constituent elements may be selectively combined and operated in one or more. In addition, although all of the components may be each implemented as one independent hardware, some or all of the components are selectively combined to provide a program module that performs some or all functions combined in one or a plurality of hardware. It may be implemented as a computer program having.

이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리 범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태에 의하여 정해져야 한다.Although the present invention has been described in detail through exemplary embodiments above, a person of ordinary skill in the art to which the present invention pertains can make various modifications to the above-described embodiments without departing from the scope of the present invention. I will understand. Therefore, the scope of the present invention is limited to the described embodiments and should not be determined, and should be determined by all changes or modifications derived from the claims and the concept of equality as well as the claims to be described later.

Claims (10)

항공 관측 데이터와 지상 관측 데이터 중 적어도 어느 하나에 대해 제 1 기하 변환을 처리하는 기하 변환부;
상기 적어도 어느 하나에 대해 제 1 기하 변환이 처리된 항공 관측 데이터와 지상 관측 데이터 간에 유사도 분석을 수행하여 상기 항공 관측 데이터와 상기 지상 관측 데이터에서 상호 동일하게 추정되는 기준 데이터를 설정하는 유사도 분석부;
상기 기준 데이터를 기반으로, 상기 관측 데이터들 중 적어도 어느 하나에 대해 제 1 기하 변환이 처리된 상기 항공 관측 데이터의 항공 기하 정보와 상기 지상 관측 데이터의 지상 기하 정보의 적어도 하나에 대한 제 2 기하 변환이 수행되어, 항공 관측 데이터와 지상 관측 데이터 간의 기하 변환 모델의 정합 정보를 추출하는 정합 정보 추출부; 및
상기 정합 정보에 기초하여 제 2 기하 변환된 상기 항공 관측 데이터와 상기 지상 관측 데이터를 동일 좌표계의 융합 데이터로 등록(registration)하는 데이터 융합부를 포함하고,
상기 유사도 분석부는 상기 항공 관측 데이터 및 상기 지상 관측 데이터의 일부 위치들 중 적어도 하나에서 관측 검출 정밀도가 검출 임계치보다 낮은 경우에, 상기 관측 검출 임계치보다 낮은 상기 항공 관측 데이터의 항공용 위치 데이터와 상기 검출 임계치보다 낮은 상기 지상 관측 데이터의 지상용 위치 데이터를 참조하여, 상기 기준 데이터를 설정하지 않도록 상기 검출 임계치보다 낮은 위치에 상응하는 상기 항공 관측 데이터 및 상기 지상용 관측 데이터를 필터링하는 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템.
A geometric conversion unit for processing a first geometric conversion on at least one of aerial observation data and ground observation data;
A similarity analysis unit configured to perform a similarity analysis between the aerial observation data and the ground observation data subjected to the first geometric transformation on the at least one of the at least one of the above and set reference data that are mutually estimated to be the same from the aerial observation data and the ground observation data;
Based on the reference data, a second geometric transformation for at least one of the aerial geometric information of the aerial observation data for which a first geometric transformation has been processed for at least one of the observation data and the ground geometric information of the ground observation data A matching information extracting unit configured to extract matching information of a geometric transformation model between aerial observation data and ground observation data; And
A data fusion unit for registering the aerial observation data and the ground observation data, which are second geometrically transformed based on the matching information, as fusion data of the same coordinate system,
When the observation detection accuracy is lower than a detection threshold at at least one of the aerial observation data and some of the ground observation data, the similarity analysis unit aviation position data and the detection of the aerial observation data lower than the observation detection threshold. Aerial observation data and ground for filtering the aerial observation data and the ground observation data corresponding to a position lower than the detection threshold so as not to set the reference data by referring to the ground position data of the ground observation data lower than a threshold. A system of fusion between observational data.
제 1 항에 있어서,
상기 제 1 기하 변환이 상기 항공 관측 데이터 및 상기 지상 관측 데이터 중 어느 하나에 처리되는 경우에, 상기 제 1 기하 변환이 처리되는 관측 데이터는 미처리되는 상기 관측 데이터의 위치 데이터와 상기 관측 데이터의 관측 방향을 정의하는 자세 데이터를 참조하여 처리되며, 상기 제 2 기하 변환은 상기 제 1 기하 변환이 미처리되는 관측 데이터의 상기 위치 데이터와 상기 자세 데이터를 참조하여, 상기 제 1 기하 변환이 처리된 관측 데이터에 대해 수행되고,
상기 제 1 기하 변환이 상기 항공 관측 데이터 및 상기 지상 관측 데이터의 전부에 처리되는 경우에, 상기 제 1 기하 변환은 상기 항공 관측 데이터의 관측 방향을 정의하는 항공용 자세 데이터와 상기 지상 관측 데이터의 관측 방향을 정의하는 지상용 자세 데이터와 상이한 자세 데이터를 참조하여 처리되며, 상기 상이한 자세 데이터를 참조하여, 상기 제 1 기하 변환이 전부 실행된 상기 항공 관측 데이터 및 상기 지상 관측 데이터에 대해 수행되는 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템.
The method of claim 1,
When the first geometric transformation is processed on one of the aerial observation data and the ground observation data, the observation data subjected to the first geometric transformation is the position data of the unprocessed observation data and the observation direction of the observation data. The second geometric transformation is processed with reference to the attitude data defining the, and the second geometric transformation refers to the position data and the attitude data of the observation data in which the first geometric transformation is not processed, and the first geometric transformation is processed into the observation data. Is done about,
When the first geometric transformation is processed on all of the aerial observation data and the ground observation data, the first geometric transformation is an observation of the aerial attitude data and the ground observation data defining an observation direction of the aerial observation data. Aerial observation performed on the aerial observation data and the ground observation data, which are processed by referring to attitude data different from the ground attitude data defining a direction, and with reference to the different attitude data, all of which the first geometric transformation has been performed A system of fusion between data and ground observation data.
제 1 항에 있어서,
상기 항공 관측 데이터 및 상기 지상 관측 데이터 중 적어도 어느 하나가 영상 센서로부터 획득되는 경우, 상기 유사도 분석부는 상기 관측 데이터에 속한 지오코딩 영상 데이터 정보 중 픽셀 좌표를 기반으로 하는 색상 변화를 분석하며, 특징 기하로 추정되는 기하 형태 정보를 추출하여 상기 기준 데이터를 설정하는 유사도 분석을 실행하고, 상기 항공 관측 데이터 및 상기 지상 관측 데이터 중 적어도 어느 하나가 3차원 측량 센서로부터 상기 관측 데이터를 획득하는 경우, 상기 유사도 분석부는 상기 관측 데이터에 속한 점군 데이터의 기하하적 형상 변화도 및 레이저 강도 변화도 중 적어도 하나를 분석하여 상기 기하 형태 정보를 추출하여 상기 기준 데이터를 설정하는 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템.
The method of claim 1,
When at least one of the aerial observation data and the ground observation data is obtained from an image sensor, the similarity analysis unit analyzes a color change based on pixel coordinates among geocoding image data information belonging to the observation data, and When the similarity analysis is performed to set the reference data by extracting geometric shape information estimated to be, and at least one of the aerial observation data and the ground observation data acquires the observation data from a 3D survey sensor, the similarity degree The analysis unit is a fusion system between aerial observation data and ground observation data for setting the reference data by analyzing at least one of a geometric shape gradient and a laser intensity gradient of point cloud data belonging to the observation data to extract the geometric shape information .
삭제delete 제 1 항에 있어서,
상기 정합 정보 추출부는 상기 항공 관측 데이터 및 상기 지상 관측 데이터 중 어느 하나가 필터링된 위치에서, 상기 관측 검출 임계치보다 높은 상기 관측 데이터의 기하 정보에 대한 제 2 기하 변환이 수행되어, 상기 기하 변환 모델의 정합 정보를 추출하는 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템.
The method of claim 1,
The matching information extraction unit performs a second geometric transformation on the geometric information of the observation data higher than the observation detection threshold at a location where any one of the aerial observation data and the ground observation data is filtered, and the geometric transformation model A fusion system between aerial observation data and ground observation data to extract matching information.
제 1 항에 있어서,
상기 기준 데이터 기반의 상기 정합 정보를 검증하여 상기 정합 정보를 재추출하는 정합 정보 검증부를 더 포함하는 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템.
The method of claim 1,
A fusion system between aerial observation data and ground observation data, further comprising a matching information verification unit for re-extracting the matching information by verifying the matching information based on the reference data.
제 6 항에 있어서,
상기 정합 정보 검증부는 상기 제 2 기하 변환된 상기 항공 관측 데이터 및 상기 지상 관측 데이터에서 동일 추정된 상기 기준 데이터들 중에서 표본용 특징 기하들을 랜덤 샘플링하여, 상기 표본용 특징 기하들의 상호 이격량이 최소가 되는 상기 표본용 특징 기하와 관련된 정합 정보를 산출하며, 상기 표본용 특징 기하와 관련된 정합 정보로 구성된 제 2 기하 변환으로 기하 변환 모델의 정합 정보를 재추출하고,
상기 데이터 융합부는 상기 재추출된 정합 정보에 기초하여 제 2 기하 변환된 상기 항공 관측 데이터와 상기 지상 관측 데이터를 동일 좌표계의 융합 데이터로 등록하는 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템.
The method of claim 6,
The matching information verification unit randomly samples sample feature geometries from among the reference data estimated to be the same from the second geometrically transformed aerial observation data and the ground observation data, so that the mutually spaced amount of the sample feature geometries is minimized. Calculate matching information related to the sample feature geometry, and re-extract the matching information of the geometric transformation model with a second geometric transformation consisting of matching information related to the sample feature geometry,
The data fusion unit is a fusion system between aerial observation data and ground observation data for registering the aerial observation data and the ground observation data, which are second geometrically transformed based on the re-extracted matching information, as fusion data of the same coordinate system.
제 6 항에 있어서,
상기 정합 정보 검증부는 상기 제 2 기하 변환된 상기 항공 관측 데이터 및 상기 지상 관측 데이터에서 동일 추정된 상기 기준 데이터들 간에 이격량을 최소화하는 최확값(most probable value)을 산출하며, 상기 최확값의 산출시에 이용된 최소 이격량에 근거하여 동일 추정된 상기 기준 데이터들 간의 예상 오차 확률을 분석하고,
상기 예상 오차 확률에 따른 예상 오차가 허용 오차보다 초과하는 경우에, 상기 항공 관측 데이터 및 상기 지상 관측 데이터에서 다른 특징 기하로 추정되는 기하 형태 정보를 신규의 기준 데이터로 샘플링하여 추출하는 처리, 상기 정합 정보 추출부에서 생성된 상기 기하 변환 모델에서 이상 데이터로 판정되는 기준 데이터를 제거하는 처리, 상기 기하 변환 모델에 적용되는 적어도 일부의 파라미터를 변경하는 처리, 및 상기 최확값 산출시에 적용된 해석 모델식에 이용된 적어도 일부 파라미터를 변경하거나, 상기 해석 모델식을 변경하는 처리 중 적어도 어느 하나를 수행하도록 상기 유사도 분석부 및 상기 정합 정보 추출부를 제어하고,
상기 처리 수행 후의 제약 조건에 따라, 상기 정합 정보 추출부는 상기 제 2 기하 변환으로 기하 변환 모델의 정합 정보를 재추출하고,
상기 데이터 융합부는 상기 재추출된 정합 정보에 기초하여 제 2 기하 변환된 상기 항공 관측 데이터와 상기 지상 관측 데이터를 동일 좌표계의 융합 데이터로 등록하는 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템.
The method of claim 6,
The matching information verification unit calculates a most probable value that minimizes the amount of separation between the second geometrically transformed aerial observation data and the reference data estimated to be the same from the ground observation data, and calculates the maximum value. Analyzing the predicted error probability between the reference data estimated to be the same based on the minimum separation amount used at the time,
When the predicted error according to the predicted error probability exceeds the allowable error, the process of sampling and extracting geometric shape information estimated by different feature geometries from the aerial observation data and the ground observation data as new reference data, the matching A process of removing reference data determined as abnormal data from the geometric conversion model generated by the information extraction unit, a process of changing at least some parameters applied to the geometric conversion model, and an analysis model equation applied at the time of calculating the maximum value Controlling the similarity analysis unit and the matching information extraction unit to perform at least one of processing of changing at least some parameters used for or changing the analysis model equation,
According to the constraint condition after performing the processing, the matching information extracting unit re-extracts the matching information of the geometric transformation model by the second geometric transformation,
The data fusion unit is a fusion system between aerial observation data and ground observation data for registering the aerial observation data and the ground observation data, which are second geometrically transformed based on the re-extracted matching information, as fusion data of the same coordinate system.
제 1 항에 있어서,
상기 항공 관측 데이터가 영상 센서 및 3차원 측량 센서 중 어느 하나로부터 획득되고, 상기 지상 관측 데이터가 상기 항공 관측 데이터의 센서와 다른 이종의 센서로부터 획득되는 경우에, 상기 3차원 측량 센서로부터 획득된 관측 데이터는 점군 데이터가 변환된 가상의 영상 데이터를 이용하고, 상기 3차원 측량 센서와 관련된 상기 관측 데이터의 위치 데이터는 상기 가상의 영상 데이터의 위치 데이터로 정의되며, 상기 관측 데이터의 자세 데이터는 상기 가상의 영상 데이터의 시야 방향으로 정의되는 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템.
The method of claim 1,
When the aerial observation data is obtained from any one of an image sensor and a 3D survey sensor, and the ground observation data is obtained from a sensor different from the sensor of the aerial observation data, observation obtained from the 3D survey sensor The data uses virtual image data converted from point cloud data, the position data of the observation data related to the 3D survey sensor is defined as the position data of the virtual image data, and the attitude data of the observation data is the virtual image data. A fusion system between aerial observation data and ground observation data, which is defined as the viewing direction of the image data.
제 1 항에 있어서,
상기 기하 변환 모델이 위치 데이터와 관측 방향을 정의하는 자세 데이터로 구성된 외부 기하 데이터와 상기 관측 데이터를 생성하는데 설정된 센서에 정의된 기하 파라미터에 기초로 산출되는 내부 기하 데이터를 이용하는 물리적 센서 모델(physical sensor model)인 경우에, 상기 항공 기하 정보는 적어도 항공용 위치 데이터와 항공용 자세 데이터를 포함하며, 상기 지상 기하 정보는 적어도 지상용 위치 데이터와 지상용 자세 데이터를 포함하고,
상기 기하 변환 모델이 상기 외부 기하 데이터가 아닌 대체 모델 파라미터를 이용하는 대체 센서 모델 (replacement sensor model)인 경우에, 상기 항공 기하 정보 및 상기 지상 기하 정보는 각각 항공용 대체 모델 파라미터 및 지상용 대체 모델 파라미터를 포함하는 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템.
The method of claim 1,
The geometric transformation model uses external geometric data consisting of position data and attitude data defining an observation direction, and internal geometric data calculated based on a geometric parameter defined in a sensor set to generate the observation data. model), the aviation geometric information includes at least aviation position data and aviation attitude data, and the ground geometric information includes at least ground position data and ground attitude data,
When the geometric transformation model is a replacement sensor model using a replacement model parameter other than the external geometric data, the aerial geometry information and the ground geometry information are respectively an aviation replacement model parameter and a ground replacement model parameter Convergence system between aerial observation data and ground observation data comprising a.
KR1020190163921A 2019-12-10 2019-12-10 Fusion system between airborne and terrestrial observation data KR102239562B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190163921A KR102239562B1 (en) 2019-12-10 2019-12-10 Fusion system between airborne and terrestrial observation data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190163921A KR102239562B1 (en) 2019-12-10 2019-12-10 Fusion system between airborne and terrestrial observation data

Publications (2)

Publication Number Publication Date
KR102239562B1 true KR102239562B1 (en) 2021-04-13
KR102239562B9 KR102239562B9 (en) 2021-10-27

Family

ID=75482636

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190163921A KR102239562B1 (en) 2019-12-10 2019-12-10 Fusion system between airborne and terrestrial observation data

Country Status (1)

Country Link
KR (1) KR102239562B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113822832A (en) * 2021-09-03 2021-12-21 国家林业和草原局中南调查规划设计院 Natural resource multi-source vector data fusion method
KR20220158570A (en) * 2021-05-24 2022-12-01 이재영 Drone used 3d mapping method
KR20220163227A (en) * 2021-06-02 2022-12-09 이재영 Drone used 3d mapping method
KR20220166689A (en) * 2021-06-10 2022-12-19 이재영 Drone used 3d mapping method
KR20220169342A (en) * 2021-06-18 2022-12-27 이재영 Drone used 3d mapping method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101404640B1 (en) * 2012-12-11 2014-06-20 한국항공우주연구원 Method and system for image registration
KR101935824B1 (en) * 2018-11-29 2019-03-06 네이버시스템(주) Image processing system for synthesizing aerial image and ground-based image
KR102008772B1 (en) * 2018-01-15 2019-08-09 주식회사 스트리스 System and Method for Calibration and Integration of Multi-Sensor using Feature Geometry

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101404640B1 (en) * 2012-12-11 2014-06-20 한국항공우주연구원 Method and system for image registration
KR102008772B1 (en) * 2018-01-15 2019-08-09 주식회사 스트리스 System and Method for Calibration and Integration of Multi-Sensor using Feature Geometry
KR101935824B1 (en) * 2018-11-29 2019-03-06 네이버시스템(주) Image processing system for synthesizing aerial image and ground-based image

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220158570A (en) * 2021-05-24 2022-12-01 이재영 Drone used 3d mapping method
KR102525519B1 (en) 2021-05-24 2023-04-24 이재영 Drone used 3d mapping method
KR20220163227A (en) * 2021-06-02 2022-12-09 이재영 Drone used 3d mapping method
KR102557775B1 (en) 2021-06-02 2023-07-19 이재영 Drone used 3d mapping method
KR20220166689A (en) * 2021-06-10 2022-12-19 이재영 Drone used 3d mapping method
KR102567800B1 (en) 2021-06-10 2023-08-16 이재영 Drone used 3d mapping method
KR20220169342A (en) * 2021-06-18 2022-12-27 이재영 Drone used 3d mapping method
KR102567799B1 (en) 2021-06-18 2023-08-16 이재영 Drone used 3d mapping method
CN113822832A (en) * 2021-09-03 2021-12-21 国家林业和草原局中南调查规划设计院 Natural resource multi-source vector data fusion method

Also Published As

Publication number Publication date
KR102239562B9 (en) 2021-10-27

Similar Documents

Publication Publication Date Title
KR102239562B1 (en) Fusion system between airborne and terrestrial observation data
EP2133662B1 (en) Methods and system of navigation using terrain features
EP3158412B1 (en) Sensor fusion using inertial and image sensors
EP3158417B1 (en) Sensor fusion using inertial and image sensors
Nagai et al. UAV-borne 3-D mapping system by multisensor integration
Panahandeh et al. Vision-aided inertial navigation based on ground plane feature detection
ES2625107T3 (en) Assisted navigation by precision reference point
Kim et al. Feasibility of employing a smartphone as the payload in a photogrammetric UAV system
KR102627453B1 (en) Method and device to estimate position
US10970924B2 (en) Reconstruction of a scene from a moving camera
WO2016187757A1 (en) Sensor fusion using inertial and image sensors
EP3734394A1 (en) Sensor fusion using inertial and image sensors
KR102127679B1 (en) System for correcting geometry of mobile platform with sensor based on an orthophoto
JP6138326B1 (en) MOBILE BODY, MOBILE BODY CONTROL METHOD, PROGRAM FOR CONTROLLING MOBILE BODY, CONTROL SYSTEM, AND INFORMATION PROCESSING DEVICE
CN109341686B (en) Aircraft landing pose estimation method based on visual-inertial tight coupling
CN110186468B (en) High-precision map making method and device for automatic driving
CN111024072A (en) Satellite map aided navigation positioning method based on deep learning
CN110986888A (en) Aerial photography integrated method
IL267309B (en) Terrestrial observation device having location determination functionality
KR102249381B1 (en) System for generating spatial information of mobile device using 3D image information and method therefor
KR102130687B1 (en) System for information fusion among multiple sensor platforms
CN109891188A (en) Mobile platform, camera paths generation method, program and recording medium
US11372455B2 (en) Imaging sensor-based position detection
Mirisola et al. Trajectory recovery and 3d mapping from rotation-compensated imagery for an airship
CN112489118A (en) Method for quickly calibrating external parameters of airborne sensor group of unmanned aerial vehicle

Legal Events

Date Code Title Description
G170 Re-publication after modification of scope of protection [patent]