KR101249369B1 - Apparatus and method for bundle adjustment of omni-directional images - Google Patents
Apparatus and method for bundle adjustment of omni-directional images Download PDFInfo
- Publication number
- KR101249369B1 KR101249369B1 KR1020110052212A KR20110052212A KR101249369B1 KR 101249369 B1 KR101249369 B1 KR 101249369B1 KR 1020110052212 A KR1020110052212 A KR 1020110052212A KR 20110052212 A KR20110052212 A KR 20110052212A KR 101249369 B1 KR101249369 B1 KR 101249369B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- ground
- point
- coordinate system
- omnidirectional image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Abstract
본 발명은 전방위 카메라와 GPS/INS가 통합된 지상 모바일 매핑 시스템을 통해 획득된 전방위 영상과 초기 외부 표정 요소를 이용하여 공액점을 통한 지상값 및 외부 표정 요소를 광속 조정법을 이용하여 추정한다. 본 발명은 전방위 영상의 공액점 좌표와 전방위 카메라의 외부 표정 요소를 입력값으로 갖고 외부 표정 요소 및 지상점 좌표의 조정 계산된 값을 출력값으로 하며, 새로운 관측 방정식 수립, 확률 제한 조건식 수립, 외부 표정 요소와 지상점 추정 등 3단계로 구성된다. 본 발명은 연속된 전방위 카메라 영상을 이용하여 지상점과 외부 표정 요소를 수월하게 추정할 수 있으며, 지상점 좌표의 정확도를 향상시킬 수 있다.The present invention estimates the ground value and the external facial expression through the conjugation point using the luminous flux adjustment method using the omnidirectional image and the initial external facial expression acquired through the terrestrial mobile mapping system in which the omnidirectional camera and GPS / INS are integrated. The present invention uses the conjugate point coordinates of the omnidirectional image and the external facial expression elements of the omnidirectional camera as input values, and the calculated calculated values of the external facial expression elements and the ground point coordinates as output values. And three steps, including ground point estimation. The present invention can easily estimate the ground point and the external facial expressions by using the continuous omnidirectional camera image, and can improve the accuracy of the ground point coordinates.
Description
본 발명은 전방위 영상으로부터 절대 좌표를 결정하는 장치 및 방법에 관한 것이다. 보다 상세하게는, 광속 조정을 통해 전방위 영상으로부터 절대 좌표를 결정하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for determining absolute coordinates from an omnidirectional image. More particularly, the present invention relates to an apparatus and a method for determining absolute coordinates from an omnidirectional image through light beam adjustment.
최근에는 모바일 매핑 시스템(MMS; Mobile Mapping System)에 전방위 카메라(omni-directional camera)를 탑재하여 공간 정보를 획득하려는 시도가 활발하게 이루어지고 있다. 전방위 카메라란 시야각(FOV; Filed Of View)이 360°이기 때문에 촬영 지점을 기준으로 모든 방향의 영상 정보 취득이 가능한 카메라를 말한다.Recently, attempts have been actively made to acquire spatial information by mounting omni-directional cameras in a mobile mapping system (MMS). The omnidirectional camera refers to a camera capable of acquiring image information in all directions from the photographing point because the field of view (FOV) is 360 °.
종래 기술의 한가지 예로서, 전방위 카메라 영상을 통해 3차원 절대 좌표를 결정하는 기술이 있다. 이 기술은 전방위 카메라를 통해 3차원 절대 좌표 결정에 대한 수식 및 그 가능성에 대해서 언급하고 있다. 이 기술은 기존의 프레임 카메라를 사용하는 방식에 비해 기선이 길어져 높은 정확도를 갖는 결과물을 생성하는 것이 가능하다. 그러나, 이 기술은 광속 조정법에 비해 절대 좌표값의 정확도가 떨어지기 때문에 디지털 영상을 이용하는 수치 사진 측량에 적합하지 않다.One example of the prior art is a technique for determining three-dimensional absolute coordinates through the omni-directional camera image. This technique addresses the equations and possibilities for determining three-dimensional absolute coordinates through omnidirectional cameras. This technique allows longer baselines than conventional frame cameras, resulting in highly accurate results. However, this technique is not suitable for digital photogrammetry using digital images because the accuracy of absolute coordinates is inferior to that of luminous flux adjustment.
종래 기술의 다른 예로서, 전방위 카메라 영상을 이용하여 객체의 위치를 추적하고 탐지하는 기술이 있다. 이 기술은 연속된 전방위 영상을 이용하여 영상 내의 객체들을 매칭하고 이를 탐지한다. 그러나, 이 기술은 공액점을 추출하기 않기 때문에 지상 좌표계와 카메라 좌표계 간 매칭이 정확하지 않다.As another example of the prior art, there is a technique of tracking and detecting the position of an object using an omnidirectional camera image. This technique uses a series of omnidirectional images to match and detect objects in the image. However, because this technique does not extract the conjugate points, the matching between ground and camera coordinate systems is not accurate.
본 발명은 상기한 문제점을 해결하기 위해 안출된 것으로서, 전방위 카메라와 GPS/INS(Global Positioning System/Inertial Navigation System)가 통합된 모바일 매핑 시스템(MMS)을 이용하여 전방위 영상을 광속 조정하는 전방위 영상 광속 조정 장치 및 방법을 제안함을 목적으로 한다.The present invention has been made to solve the above problems, an omnidirectional image luminous flux for adjusting the omnidirectional image by using a mobile mapping system (MMS) incorporating an omnidirectional camera and a Global Positioning System / Inertial Navigation System (GPS / INS) An object of the present invention is to propose an adjustment device and method.
본 발명은 상기한 목적을 달성하기 위해 안출된 것으로서, 연속되는 전방위 영상들 중에서 선택된 공액점에 대하여 공선 조건식을 이용하여 관측 방정식 모델을 정립하는 관측 방정식 모델 정립부; 미리 정해진 제약 조건을 반영 및 미반영하여 상기 관측 방정식 모델에 부가하여 제약 조건식 모델들을 생성하는 제약 조건식 모델 생성부; 및 생성된 제약 조건식 모델들과 정립된 관측 방정식 모델을 이용하여 상기 전방위 영상을 광속 조정(bundle adjustment)하는 광속 조정부를 포함하는 것을 특징으로 하는 전방위 영상 광속 조정 장치를 제안한다.The present invention has been made to achieve the above object, an observation equation modeling unit for establishing an observation equation model using a collinear conditional expression for a conjugate point selected from consecutive omnidirectional images; A constraint model generator for generating constraint models in addition to the observation equation model by reflecting and not reflecting a predetermined constraint; And a luminous flux adjusting unit configured to bundle-adjust the omnidirectional image by using the generated constraint equation models and the observation equation model established.
바람직하게는, 상기 광속 조정부는 상기 광속 조정을 통해 상기 전방위 영상과 관련된 것으로서 객체의 3차원 모델을 추출하기 위한 지상점과 외부 표정 요소를 추정한다. 더욱 바람직하게는, 상기 관측 방정식 모델 정립부는 상기 전방위 영상의 공액점 좌표를 입력될 상기 관측 데이터로 하고 상기 지상점과 상기 외부 표정 요소를 출력될 미지 변수로 하는 관측 방정식 모델을 정립한다.Preferably, the luminous flux adjusting unit estimates a ground point and an external facial expression for extracting a three-dimensional model of an object as related to the omnidirectional image through the luminous flux adjustment. More preferably, the observation equation modeling unit establishes an observation equation model using the conjugate point coordinates of the omnidirectional image as the observation data to be input and the ground point and the external expression element as an unknown variable to be output.
바람직하게는, 상기 제약 조건식 모델 생성부는 상기 제약 조건으로 미리 저장된 외부 표정 요소와 지상 좌표계 상에 위치하는 지상 기준점을 이용한다. 더욱 바람직하게는, 상기 전방위 영상 광속 조정 장치는 위성 항법 장치(GPS) 또는 관성 항법 장치(INS)를 이용하여 상기 외부 표정 요소로 상기 전방위 영상을 획득하는 전방위 영상 획득 장치의 위치 정보와 자세 정보를 획득하는 위치/자세 정보 획득부; 또는 상기 위성 항법 장치 또는 광파기를 이용하여 상기 지상 기준점을 획득하는 지상 기준점 획득부를 더욱 포함하며, 상기 위치/자세 정보 획득부를 구비하는 것으로서, 상기 전방위 영상을 획득하는 전방위 영상 획득부를 더욱더 포함할 수 있다.Preferably, the constraint model generation unit uses an external expression element pre-stored as the constraint and a ground reference point positioned on the ground coordinate system. More preferably, the omnidirectional image luminous flux adjusting device uses the satellite navigation device (GPS) or the inertial navigation device (INS) to obtain the position information and the posture information of the omnidirectional image acquisition device that acquires the omnidirectional image with the external facial expression element. Obtaining position / posture information acquisition unit; Alternatively, the apparatus may further include a ground reference point acquisition unit for acquiring the ground reference point using the satellite navigation apparatus or an optical wave, and further comprising a position / posture information acquisition unit, and may further include an omnidirectional image acquisition unit for acquiring the omnidirectional image. .
바람직하게는, 상기 관측 방정식 모델 정립부는 상기 전방위 영상과 관련된 영상 좌표계의 영상점 좌표, 지상 좌표계 상에 위치하는 지상점 좌표, 상기 영상 좌표계 상에 위치하는 것으로서 지상점에 대응하는 영상점을 측정할 때에 발생되는 측정 오차, 및 상기 지상 좌표계와 상기 영상 좌표계 간 좌표 변환 계수를 이용하여 상기 관측 방정식 모델을 정립한다. 더욱 바람직하게는, 상기 관측 방정식 모델 정립부는, 테일러 급수를 이용하여 상기 영상점 좌표, 상기 지상점 좌표, 상기 측정 오차, 및 상기 좌표 변환 계수에 의한 연산식을 선형화시키는 선형화부; 선형화된 연산식을 야코비 행렬 형태로 치환시키는 치환부; 치환된 연산식을 미리 정해진 각 성분에 대하여 미분시키는 미분부; 및 상기 지상 좌표계와 상기 영상 좌표계 간 변환을 위한 회전 행렬로서 상기 전방위 영상 각 축의 회전각에 의한 상기 회전 행렬을 이용하여 상기 미분부에 의해 미분된 연산식들로 상기 관측 방정식 모델을 정립하는 정립부를 포함한다.Preferably, the observation equation modeling unit measures an image point coordinate of an image coordinate system related to the omnidirectional image, a ground point coordinate located on a ground coordinate system, and an image point corresponding to a ground point located on the image coordinate system. The observation equation model is established using a measurement error generated at the time and a coordinate transformation coefficient between the ground coordinate system and the image coordinate system. More preferably, the observation equation modeling unit, a linearization unit for linearizing the equation by the image point coordinates, the ground point coordinates, the measurement error, and the coordinate transformation coefficients using a Taylor series; Substituent for substituting the linearized equation in the form of Jacobian; A derivative unit for differentiating a substituted expression for each predetermined component; And a sizing unit for establishing the observation equation model using differential equations differentiated by the derivative by using the rotation matrix of the rotation angle of each omnidirectional image as a rotation matrix for transforming between the ground coordinate system and the image coordinate system. Include.
또한, 본 발명은 연속되는 전방위 영상들 중에서 선택된 공액점에 대하여 공선 조건식을 이용하여 관측 방정식 모델을 정립하는 관측 방정식 모델 정립 단계; 미리 정해진 제약 조건을 반영 및 미반영하여 상기 관측 방정식 모델에 부가하여 제약 조건식 모델들을 생성하는 제약 조건식 모델 생성 단계; 및 생성된 제약 조건식 모델들과 정립된 관측 방정식 모델을 이용하여 상기 전방위 영상을 광속 조정(bundle adjustment)하는 광속 조정 단계를 포함하는 것을 특징으로 하는 전방위 영상 광속 조정 방법을 제안한다.In addition, the present invention provides an observation equation modeling step of establishing an observation equation model using a collinear conditional expression for a conjugate point selected from consecutive omnidirectional images; A constraint model generation step of generating constraint model in addition to the observation equation model by reflecting and not reflecting a predetermined constraint; And a luminous flux adjustment step of bundle-adjusting the omnidirectional image by using the generated constraint equation models and the observation equation model established.
바람직하게는, 상기 광속 조정 단계는 상기 광속 조정을 통해 상기 전방위 영상과 관련된 것으로서 객체의 3차원 모델을 추출하기 위한 지상점과 외부 표정 요소를 추정한다. 더욱 바람직하게는, 상기 관측 방정식 모델 정립 단계는 상기 전방위 영상의 공액점 좌표를 입력될 상기 관측 데이터로 하고 상기 지상점과 상기 외부 표정 요소를 출력될 미지 변수로 하는 관측 방정식 모델을 정립한다.Preferably, the luminous flux adjustment step estimates a ground point and an external facial expression for extracting a three-dimensional model of an object as related to the omnidirectional image through the luminous flux adjustment. More preferably, the step of establishing an observation equation model establishes an observation equation model using the conjugate point coordinates of the omnidirectional image as the observation data to be input and the ground point and the external expression element as an unknown variable to be output.
바람직하게는, 상기 제약 조건식 모델 생성 단계는 상기 제약 조건으로 미리 저장된 외부 표정 요소와 지상 좌표계 상에 위치하는 지상 기준점을 이용한다. 더욱 바람직하게는, 상기 전방위 영상 광속 조정 방법은 위성 항법 장치(GPS) 또는 관성 항법 장치(INS)를 이용하여 상기 외부 표정 요소로 상기 전방위 영상을 획득하는 전방위 영상 획득 장치의 위치 정보와 자세 정보를 획득하는 위치/자세 정보 획득 단계; 또는 상기 위성 항법 장치 또는 광파기를 이용하여 상기 지상 기준점을 획득하는 지상 기준점 획득 단계를 더욱 포함하며, 지상 사진 측량 시스템(MMS)을 이용하여 상기 관측 데이터를 획득하는 관측 데이터 획득 단계를 더욱더 포함할 수 있다.Preferably, the constraint model generation step uses an external expression element previously stored as the constraint and a ground reference point positioned on the ground coordinate system. More preferably, the omnidirectional image luminous flux adjusting method may include position information and posture information of the omnidirectional image acquisition device that acquires the omnidirectional image with the external facial expression element using a satellite navigation device (GPS) or an inertial navigation device (INS). Acquiring position / posture information; Alternatively, the method may further include a ground reference point obtaining step of obtaining the ground reference point using the satellite navigation apparatus or an optical wave, and further including the observation data obtaining step of obtaining the observation data using a ground photogrammetry system (MMS). have.
바람직하게는, 상기 관측 방정식 모델 정립 단계는 상기 전방위 영상과 관련된 영상 좌표계의 영상점 좌표, 지상 좌표계 상에 위치하는 지상점 좌표, 상기 영상 좌표계 상에 위치하는 것으로서 지상점에 대응하는 영상점을 측정할 때에 발생되는 측정 오차, 및 상기 지상 좌표계와 상기 영상 좌표계 간 좌표 변환 계수를 이용하여 상기 관측 방정식 모델을 정립한다. 더욱 바람직하게는, 상기 관측 방정식 모델 정립 단계는, 테일러 급수를 이용하여 상기 영상점 좌표, 상기 지상점 좌표, 상기 측정 오차, 및 상기 좌표 변환 계수에 의한 연산식을 선형화시키는 선형화 단계; 선형화된 연산식을 야코비 행렬 형태로 치환시키는 치환 단계; 치환된 연산식을 미리 정해진 각 성분에 대하여 미분시키는 미분 단계; 및 상기 지상 좌표계와 상기 영상 좌표계 간 변환을 위한 회전 행렬로서 상기 전방위 영상 각 축의 회전각에 의한 상기 회전 행렬을 이용하여 상기 미분 단계에 의해 미분된 연산식들로 상기 관측 방정식 모델을 정립하는 정립 단계를 포함한다.Preferably, the step of establishing the observation equation model measures an image point coordinate of an image coordinate system related to the omnidirectional image, a ground point coordinate located on a ground coordinate system, and an image point corresponding to a ground point located on the image coordinate system. The observation equation model is established using the measurement error generated at the time and the coordinate transformation coefficient between the ground coordinate system and the image coordinate system. More preferably, the step of establishing the observation equation model, the linearization step of linearizing the equation by the image point coordinates, the ground point coordinates, the measurement error, and the coordinate transformation coefficients using a Taylor series; A substitution step of replacing the linearized expression in the form of a Jacobi matrix; A derivative step of differentiating the substituted equation for each predetermined component; And a step of establishing the observation equation model using differential equations by the differential step using the rotation matrix by the rotation angle of each axis of the omnidirectional image as a rotation matrix for transforming between the ground coordinate system and the image coordinate system. It includes.
본 발명은 전방위 카메라와 GPS/INS가 통합된 모바일 매핑 시스템을 이용하여 전방위 영상을 광속 조정함으로써 다음 효과를 얻을 수 있다. 첫째, 전방위 영상에 적합한 공선 방정식과 이 방정식에 의한 관측 방정식을 수립함으로써, 연속된 전방위 카메라 영상을 이용하여 지상점과 외부 표정 요소를 수월하게 추정할 수 있다. 둘째, GPS/INS로부터 획득된 외부 표정 요소, 정지 GPS, 토탈 스테이션 등을 통해 획득된 지상 기준점을 이용하여 다양한 타입의 확률 제약 조건식을 수립 검증함으로써, 지상점 좌표의 정확도를 향상시킬 수 있다.According to the present invention, the following effects can be obtained by adjusting the luminous flux of an omnidirectional image using a mobile mapping system in which an omnidirectional camera and GPS / INS are integrated. First, by establishing a collinear equation suitable for the omnidirectional image and an observation equation based on this equation, it is possible to easily estimate the ground point and the external facial expressions by using the continuous omnidirectional camera image. Second, by establishing and verifying various types of probabilistic constraint expressions using ground reference points acquired through external facial expression elements obtained from GPS / INS, stationary GPS, and total stations, accuracy of ground point coordinates can be improved.
도 1은 본 발명의 바람직한 실시예에 따른 전방위 영상 광속 조정 장치의 내부 구성을 개략적으로 도시한 블록도이다.
도 2는 본 발명의 바람직한 실시예에 따른 전방위 영상 광속 조정 장치의 내부 구성을 세부적으로 도시한 블록도이다.
도 3은 본 실시예에 따른 방법론의 개요도이다.
도 4는 중심 투영 원리에 의한 지상점과 영상점 간의 관계를 도시한 도면이다.
도 5는 본 실시예에 따른 방법론을 설명하기 위한 참고도이다.
도 6 내지 도 13은 본 실시예에 대한 실험을 설명하기 위한 참고도이다.
도 14는 본 발명의 바람직한 실시예에 따른 전방위 영상 광속 조정 방법을 설명한 흐름도이다.1 is a block diagram schematically illustrating an internal configuration of an omnidirectional image luminous flux adjusting apparatus according to a preferred embodiment of the present invention.
2 is a block diagram showing in detail the internal configuration of the omnidirectional image light beam adjusting apparatus according to a preferred embodiment of the present invention.
3 is a schematic diagram of a methodology according to the present embodiment.
4 is a diagram illustrating a relationship between a ground point and an image point based on a central projection principle.
5 is a reference diagram for explaining a methodology according to the present embodiment.
6 to 13 are reference diagrams for explaining an experiment with respect to the present embodiment.
14 is a flowchart illustrating a method for adjusting the omnidirectional image luminous flux according to an exemplary embodiment of the present invention.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the preferred embodiments of the present invention will be described below, but it is needless to say that the technical idea of the present invention is not limited thereto and can be variously modified by those skilled in the art.
도 1은 본 발명의 바람직한 실시예에 따른 전방위 영상 광속 조정 장치의 내부 구성을 개략적으로 도시한 블록도이다. 도 2는 본 발명의 바람직한 실시예에 따른 전방위 영상 광속 조정 장치의 내부 구성을 세부적으로 도시한 블록도이다. 이하 설명은 도 1과 도 2를 참조한다.1 is a block diagram schematically illustrating an internal configuration of an omnidirectional image luminous flux adjusting apparatus according to a preferred embodiment of the present invention. 2 is a block diagram showing in detail the internal configuration of the omnidirectional image light beam adjusting apparatus according to a preferred embodiment of the present invention. The following description refers to FIGS. 1 and 2.
도 1에 따르면, 전방위 영상 광속 조정 장치(100)는 관측 방정식 모델 정립부(110), 제약 조건식 모델 생성부(120), 광속 조정부(130), 전원부(140) 및 주제어부(150)를 포함한다.According to FIG. 1, the omnidirectional image luminous
관측 방정식 모델 정립부(110)는 연속되는 전방위 영상들 중에서 선택된 공액점에 대하여 공선 조건식(collinearity equation)을 이용하여 관측 방정식 모델을 정립하는 기능을 수행한다. 공선 조건을 기반으로 하는 관측 방정식은 두개 이상의 전방위 영상으로부터 얻어진 공액점의 영상 좌표값으로 세워질 수 있다. 관측 방정식 모델 정립부(110)는 전방위 영상의 공액점 좌표를 입력될 관측 데이터로 하고 지상점과 외부 표정 요소를 출력될 미지 변수로 하는 관측 방정식 모델을 정립한다.The observation
관측 방정식은 관측치, 미지수, 그리고 관측치와 미지수 간의 수학적 모델로 구성된다. 관측치는 영상 좌표계에서 획득한 영상 좌표값과 관측 오차를 의미한다. 미지수는 지상 좌표계로 표현된 지상점과 카메라의 외부표정 요소를 의미한다. 수학적 모델은 공선 조건과 좌표 변환으로 구성된다. 관측 방정식 모델은 공선 방정식, 관측치 및 관측 오차, 미지수 등을 이용하여 구성된다. 공선 방정식은 좌표 변환 계수(지상 좌표계 상의 지상점이 영상 좌표계 상의 지상점으로), 지상점이 영상으로 투영되는 공선 조건 등으로 세워질 수 있다. 좌표 변환 계수에는 회전 변환 계수와 원점 이동 변환 계수 등 두가지 성분이 있다. 이때, 관측 방정식 모델 정립부(110)는 전방위 영상과 관련된 영상 좌표계(카메라 좌표계)의 영상점 좌표, 지상 좌표계 상에 위치하는 지상점 좌표, 영상 좌표계 상에 위치하는 것으로서 지상점에 대응하는 영상점을 측정할 때에 발생되는 측정 오차, 및 지상 좌표계와 영상 좌표계 간 좌표 변환 계수를 이용하여 관측 방정식 모델을 정립한다. 이 점을 고려할 때 관측 방정식 모델 정립부(110)는 도 2의 (b)에 도시된 바와 같이 선형화부(111), 치환부(112), 미분부(113) 및 정립부(114)를 포함할 수 있다.Observation equations consist of observations, unknowns, and mathematical models between observations and unknowns. Observation values mean image coordinate values and observation errors acquired in the image coordinate system. The unknown means the ground point expressed in the ground coordinate system and the external expression elements of the camera. The mathematical model consists of collinear conditions and coordinate transformations. The observation equation model is constructed using collinear equations, observations and observation errors, and unknowns. The collinear equations can be established with coordinate transformation coefficients (ground points on the ground coordinate system to ground points on the image coordinate system), collinear conditions under which the ground points are projected onto the image. There are two components of the coordinate transformation coefficient: the rotation transformation coefficient and the homing transformation coefficient. In this case, the observation
선형화부(111)는 테일러 급수를 이용하여 영상점 좌표, 지상점 좌표, 측정 오차, 및 좌표 변환 계수에 의한 연산식을 선형화시키는 기능을 수행한다. 치환부(112)는 선형화된 연산식을 야코비 행렬 형태로 치환시키는 기능을 수행한다. 미분부(113)는 치환된 연산식을 미리 정해진 각 성분에 대하여 미분시키는 기능을 수행한다. 미분부(113)는 미리 정해진 성분으로 미지 변수를 이용한다. 본 실시예에서 미지 변수에는 외부 표정 요소와 지상점 좌표가 있으며, 특히 외부 표정 요소에는 위치 요소와 자세 요소가 있다. 정립부(114)는 지상 좌표계와 영상 좌표계 간 변환을 위한 회전 행렬로서 전방위 영상 각 축의 회전각에 의한 회전 행렬을 이용하여 미분부에 의해 미분된 연산식들로 관측 방정식 모델을 정립하는 기능을 수행한다.The
제약 조건식 모델 생성부(120)는 미리 정해진 제약 조건을 반영 및 미반영하여 관측 방정식 모델에 부가하여 제약 조건식 모델들을 생성하는 기능을 수행한다.The constraint
제약 조건식 모델 생성부(120)는 제약 조건으로 미리 저장된 외부 표정 요소와 지상 좌표계 상에 위치하는 지상 기준점을 이용할 수 있다. 이 점을 고려할 때, 전방위 영상 광속 조정 장치(100)는 도 2의 (a)에 도시된 바와 같이 위치/자세 정보 획득부(210), 지상 기준점 획득부(220) 및 전방위 영상 획득부(230) 중 적어도 하나의 구성부를 더욱 포함할 수 있다.The constraint
위치/자세 정보 획득부(210)는 위성 항법 장치(GPS) 또는 관성 항법 장치(INS)를 이용하여 외부 표정 요소로 전방위 영상을 획득하는 전방위 영상 획득 장치의 위치 정보와 자세 정보를 획득하는 기능을 수행한다. 지상 기준점 획득부(220)는 GPS/INS, 광파기 등을 이용하여 지상 기준점을 획득하는 기능을 수행한다. 전방위 영상 획득부(230)는 위치/자세 정보 획득부(210)를 구비하는 것으로서, 전방위 영상을 획득하는 기능을 수행한다.The position / posture information acquisition unit 210 acquires the position information and the attitude information of the omnidirectional image acquisition device that acquires the omnidirectional image using an external facial expression element using the GPS or the inertial navigation device (INS). To perform. The ground reference
광속 조정부(130)는 생성된 제약 조건식 모델들과 정립된 관측 방정식 모델을 이용하여 전방위 영상을 광속 조정(bundle adjustment)하는 기능을 수행한다. 광속 조정부(130)는 광속 조정을 통해 전방위 영상과 관련된 것으로서 객체의 3차원 모델을 추출하기 위한 지상점과 외부 표정 요소를 추정한다.The luminous flux adjusting unit 130 performs a bundle adjustment of the omnidirectional image by using the generated constraint equation models and the observation equation model established. The light beam controller 130 estimates the ground point and the external facial expression for extracting the 3D model of the object as related to the omnidirectional image by adjusting the light beam.
전원부(140)는 전방위 영상 광속 조정 장치(100)를 구성하는 각 부에 전원을 공급하는 기능을 수행한다.The power supply unit 140 performs a function of supplying power to each unit constituting the omnidirectional image luminous
주제어부(150)는 전방위 영상 광속 조정 장치(100)를 구성하는 각 부의 전체 작동을 제어하는 기능을 수행한다.The
다음으로, 전방위 영상 광속 조정 장치(100)를 일실시예를 들어 설명한다. 이하 실시예에서는 전방위 카메라와 GPS/INS가 통합된 지상 모바일 매핑 시스템을 통해 획득된 전방위 영상과 초기 외부 표정 요소를 이용하여 공액점을 통한 지상값 및 외부 표정 요소를 광속 조정법을 이용하여 추정하는 방법론을 소개한다.Next, the omnidirectional image luminous
본 실시예에서 제안하는 방법인 전방위 영상을 이용한 광속 조정법은 전방위 영상의 공액점 좌표와 전방위 카메라의 외부 표정 요소를 입력값으로 갖고 외부 표정 요소 및 지상점 좌표의 조정 계산된 값을 출력값으로 한다. 도 3은 전방위 영상을 이용한 본 방법론의 개요를 도시한다. 도 3에서 보는 바와 같이 제안된 방법은 크게 새로운 관측 방정식 수립, 확률 제한 조건식(stochastic constraint) 수립, 외부 표정 요소와 지상점 추정 등 3단계로 구성되어 있다.In the light beam adjustment method using the omnidirectional image, the method proposed in this embodiment, the conjugate point coordinates of the omnidirectional image and the external facial expression elements of the omnidirectional camera are input values, and the calculated calculated values of the external facial expression elements and the ground point coordinates are output values. 3 shows an overview of the methodology using an omnidirectional image. As shown in FIG. 3, the proposed method is largely composed of three steps: establishing a new observation equation, establishing a stochastic constraint, and estimating external facial expressions and ground points.
첫번째 단계는 전방위 영상에 적합한 공선 조건식을 이용하여 새로운 관측 방정식 모델을 수립하는 단계이다. 본 실시예에서 이 단계는 도 1의 관측 방정식 모델 정립부가 수행할 수 있다. 중심 투영 원리에 의해 카메라 투영의 중심과 지상점을 잇는 직선이 카메라 투영 중심을 중심으로 갖는 구와 한 점에서 만나게 되며 이를 이용하여 새로운 공선 조건식을 수립한다. 그리고, 공액점과 외부 표정 요소를 관측값으로 가지며 외부 표정 요소와 지상점 좌표를 미지수로 갖는 관측 방정식을 수립한다. 아래 수학식 1은 관측 방정식을 보여주고 있다. 이때 Y는 전방위 영상 상의 공액점 좌표값이고, 는 각각 외부 표정 요소와 지상점 좌표 미지수이며, ey는 오차를 의미한다.The first step is to construct a new observation equation model using the collinear conditional equations suitable for the omnidirectional image. In this embodiment, this step may be performed by the observation equation modeling unit of FIG. 1. According to the principle of central projection, a straight line connecting the center of the camera projection and the ground point meets at one point with a sphere centered on the camera projection center. Then, we establish an observation equation with the conjugate point and the external expression element as observations and the unknown expression element and the ground point coordinates as unknowns.
다음 단계는 지상 MMS에 탑재되어 있는 GPS/INS로부터 획득되는 카메라의 외부 표정 요소 및 정지 GPS와 토탈 스테이션을 통해 획득된 지상 기준점을 제약 조건으로 갖는 확률 제약 조건(stochastic constraints)식을 수립한다. 본 실시예에서 이 단계는 도 1의 제약 조건식 모델 생성부가 수행할 수 있다. 수학식 2와 수학식 3은 각각 외부 표정 요소와 지상 기준점에 대한 확률 제약 조건식이다. Z1과 Z2는 각각 외부 표정 요소 및 지상 기준점에 대한 관측 벡터를 의미한다. 이 단계에서는 이전 단계에서 추정한 미지수들 및 두 종류의 확률 제약 조건 적용 유무를 조합하여 총 8가지의 수학적 모델을 완성한다.The next step is to establish stochastic constraints with the external facial expressions of cameras acquired from GPS / INS mounted on the ground MMS and the ground reference points acquired through stationary GPS and total station. In this embodiment, this step may be performed by the constraint model generator of FIG. 1.
마지막 단계는 지상 MMS을 통해 획득된 실 데이터를 앞서 제안한 다양한 수학적 모델에 따른 광속 조정법에 적용하여 영상의 외부 표정 요소 및 지상점 좌표를 조정하고 결과를 분석하는 단계이다. 본 실시예에서 이 단계는 도 1의 광속 조정부가 수행할 수 있다. 정확도 검증은 정지 GPS 및 토탈 스테이션을 통해 측정한 검사점과 제안된 방법론을 통해 추정된 지상점과의 오차를 통해 확인한다.The last step is to adjust the external facial expressions and ground point coordinates of the image and analyze the results by applying the real data acquired through the ground MMS to the luminous flux adjustment method according to the various mathematical models proposed above. In this embodiment, this step may be performed by the luminous flux adjusting part of FIG. Accuracy verification is confirmed by errors between checkpoints measured by stationary GPS and total stations and ground points estimated by the proposed methodology.
이하, 각 단계에 대해서 좀더 구체적으로 설명한다.Hereinafter, each step will be described in more detail.
가. 관측 방정식 수립end. Establish Observation Equation
일반 프레임 카메라에서는 3차원 공간 상에 있는 지상점이 렌즈의 중심인 주점을 지나 2차원의 초점면과 만나는 점에 영상점이 생성된다. 하지만 전방위 카메라의 경우는 2차원 초점면에 아닌 3차원 구의 표면에 영상점이 생성된다. 프레임 카메라와 전방위 카메라 간의 차이로 인해 전방위 영상에 적합한 공선 조건식을 수립하였다.In a general frame camera, an image point is generated at a point where a ground point in a three-dimensional space meets a two-dimensional focal plane through the main point of the lens. In the case of omnidirectional cameras, however, image points are created on the surface of the three-dimensional sphere rather than the two-dimensional focal plane. Due to the difference between the frame camera and the omni-directional camera, the collinear conditional formula suitable for the omnidirectional image was established.
수학식 4는 지상 좌표계 상에서의 지상점 벡터를 카메라 좌표 상에서의 지상점 벡터로 변환하는 식이다. CP는 카메라 좌표계 상에서의 지상점 벡터이고 GP는 지상점 좌표계 상에서의 지상점 벡터이다. C GR은 지상 좌표계와 카메라 좌표계 간의 회전 변환식이며, GOC는 지상 좌표계 상에서의 카메라 좌표계의 중심 좌표를 의미한다.
카메라 좌표계의 원점은 카메라의 투영 중심(GOC)에 해당되고, 영상점(ρ)은 카메라 투영 중심을 중심으로 갖는 구면 상에 존재한다. 중심 투영 원리에 의해 투영의 중심, 영상점, 지상점(CP)은 도 4와 같이 하나의 직선 상에 존재한다. 영상점은 극좌표계의 수평각 α와 수직각 β로 표현이 가능하며 이는 로 수학식 5와 같이 표현이 가능하다. CPx, CPy, CPz는 CP의 좌표를 의미한다.The origin of the camera coordinate system corresponds to the projection center G O C of the camera, and the image point ρ exists on a spherical surface centered on the camera projection center. According to the central projection principle, the center of the projection, the image point, and the ground point C P exist on one straight line as shown in FIG. 4. The image point can be represented by the horizontal angle α and the vertical angle β of the polar coordinate system. It can be expressed as shown in
수학식 4와 수학식 5를 이용하여 전방위 영상에서의 영상점과 지상점 간의 관계를 표현할 수 있으며 전방위 영상에 적합한 공선 방정식을 유도할 수 있다. 이러한 공선 방정식을 이용하여 전방위 영상에 적합한 관측방정식을 수학식 6과 같이 수립할 수 있다. 여기서 σ0 2은 영상점 측정시 발생할 수 있는 측정 오차를 의미하며 I2는 2×2의 단위행렬이다. 수학식 6은 지상점 좌표인 CPx, CPy, CPz와 투영의 중심 좌표인 XC, YC, ZC 그리고 지상점 좌표계와 카메라 좌표계 간의 회전 변환을 나타내는 ω, φ, κ로 총 9개의 계수를 포함하고 있다.
수학식 6을 테일러 급수를 이용하면 수학식 7과 같은 선형화가 가능하다. 는 앞서 언급한 9개의 계수에 대한 미지수이고 은 의 초기 근사값이며 f는 공선 조건식의 함수이다.Using the Taylor series of
수학식 8은 수학식 7을 야코비 행렬(Jacobian Matrix)로 표현한 결과이다. t1, t2는 수학식 9와 같이 치환되었다.Equation (8) is the result of expressing the equation (7) in a Jacobian matrix. t 1 and t 2 were substituted as in Equation (9).
수학식 8을 각각 수학식 10, 수학식 11, 수학식 12 등과 같이 성분별로 나누어 미분을 수행한다.Differentiation is performed by dividing
수학식 12는 CP을 에 대해 미분한 수식이고 수학식 13은 각 미지수별 성분을 보여주고 있다. 는 외부 표정 요소 중 위치 요소, 는 외부 표정 요소 중 자세 요소, 는 지상점의 3차원 좌표를 의미한다.
CP의 및 에 대한 미분값은 비교적 단순한 형태로 각각 수학식 14와 수학식 15처럼 표현된다. C P And The derivative value for is expressed in a relatively simple form as shown in
마찬가지로 CP의 에 대한 미분값은 수학식 16과 같으며, C GR는 각 축의 회전각을 곱한 회전 행렬로서 수학식 17과 수학식 18로 표현할 수 있다. 수학식 17은 수학식 14 내지 수학식 16의 C GR을 정의하는 것이다. C GR은 카메라 좌표계에서 지상 좌표계로 변환할 때 쓰이는 회전 행렬이다. 수학식 18은 수학식 17에서 정의하고 있는 Rx(ω), Ry(φ), Rz(κ)를 정의하는 식이다. 여기서, ω, φ, κ는 각각 X, Y, Z축의 회전각이다.Like C P The derivative value for is equal to
이리하여 C GR의 ω, φ, κ에 대한 미분값은 각각 수학식 19, 수학식 20, 수학식 21처럼 표현된다.Thus, the derivative values for ω, φ, and κ of C G R are expressed as in
이상 설명한 수학식 14 내지 수학식 21은 관측 방정식을 푼 것으로 후술하는 수학식 22에서 y=AeApξe+ey에 해당한다.
나. 타입별 제약 조건식 수립I. Establish constraint by type
수학식 22는 외부 표정 요소 및 지상 기준점을 제약 조건으로 사용한 관측 방정식을 보여주고 있다. ξe는 외부 표정 요소에 대한 미지수, ξp는 지상 기준점에 대한 미지수이다. y는 공액점의 관측값이고 Ae, Ap는 외부 표정 요소의 미지수인 ξe와 지상 기준점의 미지수 ξp에 대해 미분을 시행한 공선 조건식으로부터 유도된 디자인 매트리스이다. z1은 GPS/INS로부터 측정된 외부 표정 요소의 관측값 벡터이고, z2는 정지 GPS 및 토탈 스테이션으로부터 측정된 지상 기준점에 대한 관측값 벡터이다. K1, K2는 외부 표정 요소 및 지상 기준점 제약 조건에 대한 디자인 매트리스이다. ey, ez1, ez2 등은 y, z1, z2 등 관측 벡터와 관련된 에러 벡터를 의미한다. σ0 2은 미지수들의 분산 성분이며, Py - 1는 ey에 대한 코팩터 매트리스를 의미한다. Pz1 -1는 GPS/INS의 정밀도를 의미하는 ez1의 코팩터 매트리스이며, Pz2 - 1는 지상 기준점의 정밀도를 의미하는 ez2의 코팩터 매트리스를 의미한다.
본 발명에서는 적용되는 제약 조건에 따라 총 4개의 타입을 정의하고 각 타입에 따른 정확도 결과를 분석하였다. 타입 1에서는 제약 조건을 사용하지 않고 GPS/INS로부터 획득된 초기 외부 표정 요소를 이용하여 지상점을 추정한다. 타입 2와 타입 3에서는 각각 외부 표정 요소 및 지상 기준점을 제약 조건식에 적용하였다. 타입 4에서는 외부 표정 요소와 지상 기준점 모두를 제약 조건식에 적용하였다. 도 5의 (a)는 각 타입별로 사용한 요소 및 제약 조건을 보여주고 있으며, 도 5의 (b)는 각 타입별 사용된 수학적 모델식을 보여주고 있다.In the present invention, a total of four types were defined according to the applied constraints, and the accuracy results for each type were analyzed. In
다. 실험 결과 및 분석All. Experimental Results and Analysis
본 발명에 대한 실험에서 사용한 전방위 영상 및 위치/자세 데이터는 전방위 카메라 및 GPS/INS를 탑재한 지상 MMS을 통해 획득하였다. 전방위 카메라는 Point Grey Research 사의 Ladybug3 모델로서 6개의 개별 CCD를 통해 획득된 영상을 하나의 영상으로 통합하여 전방위 영상을 생성하며 가로 방향 360도, 세로 방향 180도의 촬영범위(Field of View)를 갖는다. 도 6의 (a)는 Ladybug3의 사양을 보여주고 있으며 도 6의 (b)는 그 외관을 보여주고 있다.The omnidirectional image and position / posture data used in the experiments of the present invention were obtained through a terrestrial MMS equipped with an omnidirectional camera and GPS / INS. The omnidirectional camera is Point Gray Research's Ladybug3 model, which integrates images acquired through six individual CCDs into a single image to generate an omnidirectional image and has a field of view of 360 degrees in the horizontal direction and 180 degrees in the vertical direction. Figure 6 (a) shows the specification of Ladybug3 and Figure 6 (b) shows its appearance.
본 전방위 카메라가 6개의 개별적인 영상을 취득하여 최종적으로 통합된 하나의 영상을 생성하는 과정은 도 7의 (a)와 같다. 도 7의 (a)는 전방위 카메라 영상의 생성 과정(Point Grey Research, 2008)을 도시한 것이다. 첫 단계에서는 개별 CCD를 통해 획득된 Bayer-tiled Raw 영상을 JPEG 타입으로 영상 압축을 한 후 컴퓨터로 전송을 한다. 컴퓨터에서는 영상의 압축을 푼 후 RGB 컬러 영상으로 변환하여 그래픽카드로 전송을 한다. 여기서 각종 왜곡 등을 제거하는 보정(Rectification) 과정과 영상 텍스쳐의 좌표계를 변환하는 투영(Projection) 과정 및 영상을 서로 연결하는 블랜딩(Blending) 과정을 거쳐 최종 영상(Stitched Image)을 생성한다.A process in which the omnidirectional camera acquires six individual images and finally generates one integrated image is illustrated in FIG. 7A. FIG. 7A illustrates a generation process of the omnidirectional camera image (Point Gray Research, 2008). In the first step, Bayer-tiled Raw images obtained through individual CCDs are compressed to JPEG and then transferred to a computer. The computer decompresses the image and converts it to an RGB color image for transmission to the graphics card. Here, a final image is generated through a rectification process of removing various distortions, a projection process of converting a coordinate system of an image texture, and a blending process of connecting images.
전방위 영상이 획득되는 순간의 외부 표정 요소를 취득하기 위해 지상 MMS에 GPS/INS를 탑재하였다. 탑재된 시스템은 Applanix 사의 POSLV 420PP 모델로서 모바일 매핑 시스템 등의 이동형 시스템에 적합한 센서이다(Applanix, 2009). 3축 방향으로 가속도를 측정하는 가속도계(accelerometer)와 3개의 회전축의 각속도를 측정하는 자이로스코프(gyroscope)가 내장된 관성 관측 장치(IMU)로 구성되어 있다. GPS는 3차원 절대 좌표의 위치를 측정할 뿐만 아니라 2개의 GPS 안테나를 이용하여 INS의 오차를 보정하는 GAMS(GNSS Azimuth Measurement Subsystem)을 사용한다. 이것은 GPS의 반송파를 이용해 2개의 GPS 안테나 사이의 상대적 위치 벡터를 측정하는 시스템으로 연속적으로 INS의 오차를 보정한다. 도 7의 (b)는 탑재된 GPS/INS 시스템의 정확도를 보여주고 있다.GPS / INS was mounted on the terrestrial MMS to acquire the external facial expression of the moment when the omnidirectional image was acquired. The onboard system is an Applanix POSLV 420PP model that is suitable for mobile systems such as mobile mapping systems (Applanix, 2009). It consists of an inertial observation device (IMU) with an accelerometer that measures acceleration in three axes and a gyroscope that measures the angular velocity of three rotational axes. GPS uses the GMS (GNSS Azimuth Measurement Subsystem), which not only measures the position of three-dimensional absolute coordinates but also corrects the error of the INS using two GPS antennas. It is a system that measures the relative position vector between two GPS antennas using the carrier of GPS and continuously corrects the error of INS. Figure 7 (b) shows the accuracy of the GPS / INS system mounted.
도 8의 (a)는 본 실험에서 사용된 지상 MMS의 외관을 보여주고 있다. 시스템의 상단부에는 전방위 카메라가 탑재되어 있고 그 아래로는 IMU, GPS 안테나, 수신기 등이 탑재되어 있다.Figure 8 (a) shows the appearance of the ground MMS used in this experiment. At the top of the system is an omni-directional camera, below it an IMU, GPS antenna, and receiver.
본 실험에서는 오산시청 주변의 도로를 촬영한 연속된 24장의 전방위 영상을 이용하였다. 첫 영상과 마지막 영상 간의 거리는 약 100m 정도이며 연속된 두 영상 간의 간격은 약 4m이다. 도 8의 (b)는 본 실험 데이터를 획득한 장소 즉, 실험 대상지를 보여주고 있다. 그림의 중간을 가로지르는 노란색 점선은 차량의 이동 방향을 나타낸다. 노란색으로 표기된 수치들은 정지 GPS와 토탈 스테이션을 통해 획득한 지상점으로서 이 중 몇 개의 지상점은 기준점으로 사용되었으며 나머지 지상점은 검사점으로 사용되었다.In this experiment, 24 consecutive omnidirectional images of the road around Osan City Hall were used. The distance between the first image and the last image is about 100m and the distance between two consecutive images is about 4m. 8 (b) shows a place where the present experimental data was obtained, that is, a test subject. The yellow dashed line across the middle of the figure indicates the direction of movement of the vehicle. The numbers in yellow are ground points obtained from stationary GPS and total stations, some of which were used as reference points and the other ground points were used as check points.
도 9의 (a)는 지상 기준점 및 검사점의 위치를 도시한 것으로서, 앞서 설명한 지상점들의 위치 및 색인을 보여주고 있다. 붉은색 색인은 이 지상점이 기준점으로 활용된 것을 의미하며 검은색 색인은 검사점으로 사용된 것을 의미한다. 그리고 연속된 영상을 서로 연결해주기 위해 공액점을 추가적으로 선정하였다. 도 9의 (b)는 공액점들 중 한 쌍의 위치를 보여주고 있는 예시이다.9 (a) shows the positions of the ground reference point and the inspection point, and shows the positions and indexes of the ground points described above. The red index means this ground point is used as a reference point, and the black index is used as a check point. And conjugation point was additionally selected to connect the continuous images. 9 (b) is an example showing the position of a pair of conjugate points.
본 실험에서 사용한 모든 공액점과 관련되어 있는 지상점의 개수는 총 28개이다. 각 지상점은 최소 4장의 영상에서 최대 11장의 영상까지 촬영되었다. 연속된 두 장에 동시에 포함되어 있는 지상점의 평균 개수는 7.9장으로서 상호 표정시 최소로 필요한 공액점의 개수인 5장보다 많은 개수이다. 실험에서 사용한 영상 및 지상점에 대한 정보는 도 10의 (b)에 설명되어 있다. 도 10의 (b)는 실험 데이터 정보를 도시한 것이다. 각각의 영상에 포함되어 있는 지상점은 도 10의 (a)를 통해 확인할 수 있다. 도 10의 (a)는 영상과 지상점 사이의 관계를 도시한 것이다. 행은 지상점의 색인을 나타내며, 열은 영상의 색인을 나타낸다. 해당 영상에 해당 지상점이 있을 경우 붉은색, 아닌 경우 흰색으로 표시된다. 예를 들어, 1번 지상점은 1번 영상에 포함되지만 2번 영상에는 포함되지 않는다.There are a total of 28 ground points associated with all conjugate points used in this experiment. Each ground point was taken from a minimum of four images to a maximum of eleven images. The average number of ground points included in two consecutive chapters at the same time is 7.9, which is more than 5, the minimum number of conjugate points required for mutual expression. Information about the image and the ground point used in the experiment is described in Figure 10 (b). 10 (b) shows experimental data information. The ground point included in each image can be confirmed through (a) of FIG. 10. 10A illustrates a relationship between an image and a ground point. The row represents the index of the ground point, and the column represents the index of the image. If there is a ground point in the video, it will be displayed in red. For example,
그리고, 전방위 영상을 통해 공액점을 측정할 시의 측정 오차는 ±1°로 설정하였다. 지상 기준점 및 GPS의 측정 오차는 ±5cm이고 INS의 오차는 ±0.05°이다.And, the measurement error when measuring the conjugate point through the omnidirectional image was set to ± 1 °. The measurement error of ground reference point and GPS is ± 5 cm and that of INS is ± 0.05 °.
실험은 실제로 실험 지역에서 획득한 전방위 영상 및 GPS/INS 데이터와 정지 GPS 및 토탈 스테이션으로 측정한 지상 기준점/검사점을 이용하여 진행하였다. 앞서 제안한 8가지의 수학적 모델에 기반하였으며 그 결과는 도 11의 (a)를 통해 확인할 수 있다. 도 11의 (a)는 타입 1~2에 대해 추정된 지상점 오차를 도시한 것이다. 도 11에서 외부 표정 요소를 확률 제약 조건으로 적용한 타입 B의 RMSE와 확률 제약 조건을 전혀 적용하지 않은 타입 A의 RMSE 차이가 매우 적음을 알 수 있다. 이는 타입 B에서 확률 제약 조건으로 적용하였던 추정된 외부 표정 요소가 지상 MMS의 GPS/INS로부터 획득된 초기 외부 표정 요소와 거의 같음을 의미한다. 이는 전방위 영상에서 공액점을 측정할 때의 측정 오차가 GPS/INS 측정 오차에 비해 크기 때문에 생기는 결과이다. 그러므로 연속되는 영상들을 이어주는 공액점을 통해 수행되는 상호 표정 과정은 외부 표정 요소의 정확도를 향상시킬 수 없다.The experiment was carried out using the omnidirectional image and GPS / INS data obtained from the test area and the ground reference point / test point measured by the stationary GPS and total station. Based on the eight mathematical models proposed above, the results can be confirmed through (a) of FIG. FIG. 11A illustrates the ground point error estimated for
도 11의 (b)는 타입 3과 타입 4를 통해 추정된 지상점의 오차를 보여주고 있다. 타입 3에서는 확률 제한 조건식에 4개의 지상 기준점(1, 4, 8, 10번)만을 적용하였다. RMSE를 다른 타입과 비교해 보면 그 오차값이 매우 낮음을 알 수 있다. 이를 통해 적은 수의 지상 기준점을 이용하여 ±5cm 정도의 정확도로 지상점 추정이 가능함을 알 수 있었다. 하지만 타입 3을 이용하기 위해서는 높은 정확도를 갖는 지상 기준점의 측정이 선행되어야 한다. 타입 4에서는 4개의 지상 기준점과 외부 표정 요소를 모두 확률 제한 조건식에 적용한 결과이다. 타입 1, 2에 비해서는 RMSE가 향상되었지만 타입 3에 비해서는 좋은 결과를 보여주지 못했다.11 (b) shows the error of the ground point estimated through the
도 12의 (a)는 측정된 영상점 좌표와 조정 계산된 영상점 좌표 간의 잔차를 각 타입별로 보여주고 있다. 잔차가 크다는 것은 측정된 영상점 좌표와 조정 계산된 영상점 좌표 간의 차이가 크며 외부 표정 요소와 지상점 좌표의 추정 결과가 좋지 않음을 의미한다. 각 타입별 잔차의 양은 도 12의 (a)와 같으며 그 통계량은 도 12의 (b)를 통해 확인할 수 있다. 도 12의 (a) ~ (b)를 통해 타입 3은 다른 타입에 비해 잔차가 매우 낮음을 알 수 있으며 이는 수학적 모델의 정확도가 매우 높음을 의미한다.FIG. 12A shows the residual between the measured image point coordinates and the adjusted calculated image point coordinates for each type. The large residual means that the difference between the measured image point coordinates and the adjusted calculated image point coordinates is large and that the estimation result of the external facial expression factor and the ground point coordinates is not good. The amount of residual for each type is the same as in FIG. 12A, and the statistic can be confirmed through FIG. 12B. 12 (a) to (b), it can be seen that
도 13은 추정된 지상점, 외부 표정 요소 및 확률 제약 조건에 사용되었던 지상 기준점과 정확도 비교를 위해 사용되었던 검사점을 보여주고 있다. 파란색 점은 추정된 지상점, 붉은색 점은 추정된 외부 표정 요소이다. 붉은색 원은 지상 기준점이고 녹색원은 검사점이다.FIG. 13 shows the ground points used for the estimated ground points, external facial expression factors, and probability constraints and the check points used for accuracy comparison. Blue points are estimated ground points, and red points are estimated external facial expressions. The red circle is the ground reference point and the green circle is the checkpoint.
다음으로, 도 1의 전방위 영상 광속 조정 장치에 의한 조정 방법에 대해서 설명한다. 도 14는 본 발명의 바람직한 실시예에 따른 전방위 영상 광속 조정 방법을 설명한 흐름도이다. 이하 설명은 도 14를 참조한다.Next, the adjustment method by the omnidirectional video luminous flux adjustment apparatus of FIG. 1 is demonstrated. 14 is a flowchart illustrating a method for adjusting the omnidirectional image luminous flux according to an exemplary embodiment of the present invention. The following description refers to FIG. 14.
먼저, 연속되는 전방위 영상들 중에서 선택된 공액점에 대하여 공선 조건식을 이용하여 관측 방정식 모델을 정립한다(관측 방정식 모델 정립 단계, S10).First, an observation equation model is established using a collinear conditional expression for a conjugate point selected from successive omnidirectional images (observation equation model establishment step, S10).
관측 방정식 모델 정립 단계(S10)에서는 전방위 영상과 관련된 영상 좌표계의 영상점 좌표, 지상 좌표계 상에 위치하는 지상점 좌표, 영상 좌표계 상에 위치하는 것으로서 지상점에 대응하는 영상점을 측정할 때에 발생되는 측정 오차, 및 지상 좌표계와 영상 좌표계 간 좌표 변환 계수를 이용하여 관측 방정식 모델을 정립할 수 있다. 이 점을 고려할 때, 관측 방정식 모델 정립 단계(S10)는 선형화 단계, 치환 단계, 미분 단계 및 정립 단계를 포함할 수 있다.In the observation equation model establishment step (S10), an image point coordinate of an image coordinate system related to an omnidirectional image, a ground point coordinate located on the ground coordinate system, and an image point corresponding to the ground point generated on the image coordinate system are generated. The observation equation model can be established using the measurement error and the coordinate transformation coefficient between the ground coordinate system and the image coordinate system. In view of this point, the observation equation model establishment step S10 may include a linearization step, a substitution step, a derivative step, and a formulation step.
선형화 단계는 테일러 급수를 이용하여 영상점 좌표, 지상점 좌표, 측정 오차, 및 좌표 변환 계수에 의한 연산식을 선형화시키는 단계를 의미한다. 치환 단계는 선형화된 연산식을 야코비 행렬 형태로 치환시키는 단계를 의미한다. 미분 단계는 치환된 연산식을 미리 정해진 각 성분에 대하여 미분시키는 단계를 의미한다. 정립 단계는 지상 좌표계와 영상 좌표계 간 변환을 위한 회전 행렬로서 전방위 영상 각 축의 회전각에 의한 회전 행렬을 이용하여 미분 단계에 의해 미분된 연산식들로 관측 방정식 모델을 정립하는 단계를 의미한다.The linearization step refers to a step of linearizing an equation based on image point coordinates, ground point coordinates, measurement errors, and coordinate transformation coefficients using a Taylor series. The substitution step refers to the step of replacing the linearized expression in the form of Jacobian matrix. The derivative step refers to a step of differentiating a substituted equation for each predetermined component. The establishing step refers to a step of establishing an observation equation model using equations differentiated by a differential step using a rotation matrix of rotation angles of each of the omnidirectional images as a rotation matrix for transformation between the ground coordinate system and the image coordinate system.
관측 방정식 모델 정립 단계(S10)에서는 전방위 영상의 공액점 좌표를 입력될 관측 데이터로 하고 지상점과 외부 표정 요소를 출력될 미지 변수로 하는 관측 방정식 모델을 정립할 수 있다.In the step of establishing the observation equation model (S10), the observation equation model may be established by using the coordinates of the coordinates of the omnidirectional image as the observation data to be input, and the ground point and the external facial expression as an unknown variable to be output.
관측 방정식 모델 정립 단계(S10) 이후, 미리 정해진 제약 조건을 반영 및 미반영하여 관측 방정식 모델에 부가하여 제약 조건식 모델들을 생성한다(제약 조건식 모델 생성 단계, S20). 제약 조건식 모델 생성 단계(S20)에서는 제약 조건으로 미리 저장된 외부 표정 요소와 지상 좌표계 상에 위치하는 지상 기준점을 이용할 수 있다. 이 점을 고려할 때, 본 실시예에 따른 전방위 영상 광속 조정 방법은 위치/자세 정보 획득 단계, 지상 기준점 획득 단계, 및 관측 데이터 획득 단계 중 적어도 하나의 단계를 더욱 수행할 수 있다.After the observation equation model establishment step S10, the constraint equation models are generated in addition to the observation equation model by reflecting and not reflecting a predetermined constraint (constraint model generation step, S20). In the constraint model generation step (S20), an external expression element previously stored as a constraint and a ground reference point positioned on the ground coordinate system may be used. In consideration of this point, the omnidirectional image luminous flux adjusting method according to the present embodiment may further perform at least one of position / posture information acquiring, ground reference point acquiring, and observation data acquiring.
위치/자세 정보 획득 단계에서는 위성 항법 장치(GPS) 또는 관성 항법 장치(INS)를 이용하여 외부 표정 요소로 전방위 영상을 획득하는 전방위 영상 획득 장치의 위치 정보와 자세 정보를 획득한다. 지상 기준점 획득 단계에서는 위성 항법 장치 또는 광파기를 이용하여 지상 기준점을 획득한다. 위치/자세 정보 획득 단계와 지상 기준점 획득 단계는 관측 방정식 모델 정립 단계(S10)와 제약 조건식 모델 생성 단계(S20) 사이에 수행된다. 그러나, 반드시 이에 한정되는 것은 아니며, 관측 방정식 모델 정립 단계(S10) 이전에 수행되는 것도 가능하다. 관측 데이터 획득 단계에서는 지상 사진 측량 시스템(MMS)을 이용하여 관측 데이터를 획득한다. 관측 데이터는 GPS/INS를 이용한 영상 획득 장치의 위치/자세 정보, 지상 기준점, 전방위 영상 등을 의미한다. 본 실시예에서 관측 데이터 획득 단계에서는 전방위 영상만을 획득하는 것도 가능하다. 관측 데이터 획득 단계는 제약 조건식 모델 생성 단계(S20)와 광속 조정 단계(S30) 사이에 수행된다. 그러나, 반드시 이에 한정되는 것은 아니며, 관측 방정식 모델 정립 단계(S10)와 제약 조건식 모델 생성 단계(S20) 사이에 수행되거나, 관측 방정식 모델 정립 단계(S10) 이전에 수행되는 것도 가능하다.In the step of obtaining position / posture information, position information and attitude information of an omnidirectional image acquisition device which acquires an omnidirectional image using an external facial expression element using a satellite navigation device (GPS) or an inertial navigation device (INS). In the ground reference point acquisition step, a ground reference point is obtained by using a satellite navigation device or an optical wave. The position / posture information acquisition step and the ground reference point acquisition step are performed between the observation equation model establishment step S10 and the constraint equation model generation step S20. However, the present invention is not limited thereto, and may be performed before the observation equation modeling step S10. In the observation data acquisition step, observation data is acquired using a ground photogrammetry system (MMS). The observation data refers to location / posture information, ground reference point, and omnidirectional image of the image acquisition device using GPS / INS. In the present embodiment, it is also possible to acquire only the omnidirectional image in the observation data acquisition step. The observation data acquisition step is performed between the constraint model generation step S20 and the luminous flux adjustment step S30. However, the present invention is not limited thereto, and may be performed between the observation equation model establishment step S10 and the constraint equation model generation step S20, or may be performed before the observation equation model establishment step S10.
제약 조건식 모델 생성 단계(S20) 이후, 생성된 제약 조건식 모델들과 정립된 관측 방정식 모델을 이용하여 전방위 영상을 광속 조정(bundle adjustment)한다(광속 조정 단계, S30). 광속 조정 단계(S30)에서는 광속 조정을 통해 전방위 영상과 관련된 것으로서 객체의 3차원 모델을 추출하기 위한 지상점과 외부 표정 요소를 추정할 수 있다.After the constraint model generation step S20, the omnidirectional image is bundle adjusted using the generated constraint equation models and the observation equation model established (S30). In the luminous flux adjustment step (S30), the ground point and the external facial expression for extracting the three-dimensional model of the object as related to the omnidirectional image through the luminous flux adjustment may be estimated.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are not intended to limit the technical spirit of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by the embodiments and the accompanying drawings. . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
본 발명에서 연속된 전방위 카메라 영상을 이용하여 지상점 및 외부 표정 요소의 추정이 가능함을 알 수 있었다. 이를 위해 전방위 영상에 적합한 공선 방정식을 새로이 수립하였고 이를 이용하여 관측 방정식도 수립하였다. 또한, GPS/INS로부터 획득된 외부 표정 요소 및 정지 GPS와 토탈 스테이션을 통해 획득된 지상 기준점을 이용한 확률 제약 조건식을 수립하여 4가지 타입별 정확도를 검증하였다. 본 발명을 통해 높은 정확도를 갖는 지상 기준점이 있다면 5cm 내외의 정확도를 갖는 지상점 추출이 가능함을 알 수 있었다. 이는 정밀한 3차원 도시 모델링 등의 분야에서 널리 활용될 수 있음을 의미한다. 본 발명은 실시간 공중 자료 획득 시스템 분야에도 적용 가능하다.In the present invention, it can be seen that the ground point and the external facial expressions can be estimated using the continuous omnidirectional camera image. For this, a new collinear equation suitable for the omnidirectional image was established, and an observation equation was also established. In addition, four types of accuracy were verified by establishing probability constraint equations using external facial expressions acquired from GPS / INS and ground reference points acquired through stationary GPS and total stations. Through the present invention, if the ground reference point with a high accuracy it can be seen that the ground point extraction with an accuracy of about 5cm. This means that it can be widely used in fields such as precise three-dimensional urban modeling. The present invention is also applicable to the field of real time aerial data acquisition system.
100 : 전방위 영상 광속 조정 장치 110 : 관측 방정식 모델 정립부
111 : 선형화부 112 : 치환부
113 : 미분부 114 : 정립부
120 : 제약 조건식 모델 생성부 130 : 광속 조정부
210 : 위치/자세 정보 획득부 220 : 지상 기준점 획득부
230 : 전방위 영상 획득부 240 : 공선 조건식 설정부
241 : 변환부 242 : 계산부
243 : 설정부100: omnidirectional image luminous flux adjusting device 110: observation equation model formulation
111: linearization unit 112: substitution unit
113: differential part 114: upsetting part
120: constraint model generation unit 130: luminous flux adjusting unit
210: location / attitude information acquisition unit 220: ground reference point acquisition unit
230: omnidirectional image acquisition unit 240: collinear conditional setting unit
241 conversion unit 242 calculation unit
243: setting unit
Claims (14)
상기 관측 방정식 모델에 미리 정해진 제약 조건을 부가하여 제약 조건식 모델들을 생성하는 제약 조건식 모델 생성부; 및
생성된 제약 조건식 모델들과 정립된 관측 방정식 모델을 이용하여 상기 전방위 영상을 광속 조정(bundle adjustment)하는 광속 조정부
를 포함하는 것을 특징으로 하는 전방위 영상 광속 조정 장치.An observation equation modeling unit for establishing an observation equation model using a collinear condition equation for a conjugate point selected from consecutive omnidirectional images;
A constraint model generator for generating constraint models by adding predetermined constraints to the observation equation model; And
Luminous flux adjusting unit for bundling the omnidirectional image using the generated constraint equation models and the observation equation model established
The omnidirectional image beam adjustment device comprising a.
상기 광속 조정부는 상기 광속 조정을 통해 상기 전방위 영상과 관련된 것으로서 객체의 3차원 모델을 추출하기 위한 지상점과 외부 표정 요소를 추정하는 것을 특징으로 하는 전방위 영상 광속 조정 장치.The method of claim 1,
And the luminous flux adjusting unit estimates a ground point and an external facial expression for extracting a three-dimensional model of an object as related to the omnidirectional image through the luminous flux adjustment.
상기 제약 조건식 모델 생성부는 상기 제약 조건으로 미리 저장된 외부 표정 요소와 지상 좌표계 상에 위치하는 지상 기준점을 이용하는 것을 특징으로 하는 전방위 영상 광속 조정 장치.The method of claim 1,
And the constraint model generator uses an external facial expression element pre-stored as the constraint and a ground reference point positioned on a ground coordinate system.
위성 항법 장치(GPS) 또는 관성 항법 장치(INS)를 이용하여 상기 외부 표정 요소로 상기 전방위 영상을 획득하는 전방위 영상 획득 장치의 위치 정보와 자세 정보를 획득하는 위치/자세 정보 획득부; 및
상기 위성 항법 장치 또는 광파기를 이용하여 상기 지상 기준점을 획득하는 지상 기준점 획득부;를 포함하고,
상기 위치/자세 정보 획득부는,
상기 전방위 영상을 획득하는 전방위 영상 획득부를 포함하는 것을 특징으로 하는 전방위 영상 광속 조정 장치.The method of claim 3, wherein
A position / posture information acquisition unit for acquiring position information and attitude information of the omnidirectional image acquisition device which acquires the omnidirectional image with the external facial expression element using a satellite navigation device (GPS) or an inertial navigation device (INS); And
And a ground reference point obtaining unit which obtains the ground reference point using the satellite navigation apparatus or the optical wave.
The location / posture information acquisition unit,
And a omnidirectional image obtaining unit for acquiring the omnidirectional image.
상기 관측 방정식 모델 정립부는 상기 전방위 영상과 관련된 영상 좌표계의 영상점 좌표, 지상 좌표계 상에 위치하는 지상점 좌표, 상기 영상 좌표계 상에 위치하는 것으로서 지상점에 대응하는 영상점을 측정할 때에 발생되는 측정 오차, 및 상기 지상 좌표계와 상기 영상 좌표계 간 좌표 변환 계수를 이용하여 상기 관측 방정식 모델을 정립하는 것을 특징으로 하는 전방위 영상 광속 조정 장치.The method of claim 1,
The observation equation modeling unit is a measurement generated when measuring an image point coordinate of an image coordinate system related to the omnidirectional image, a ground point coordinate located on a ground coordinate system, and an image point corresponding to a ground point located on the image coordinate system. And the observation equation model is established using an error and a coordinate transformation coefficient between the ground coordinate system and the image coordinate system.
상기 관측 방정식 모델 정립부는,
테일러 급수를 이용하여 상기 영상점 좌표, 상기 지상점 좌표, 상기 측정 오차, 및 상기 좌표 변환 계수에 의한 연산식을 선형화시키는 선형화부;
선형화된 연산식을 야코비 행렬 형태로 치환시키는 치환부;
치환된 연산식을 미리 정해진 각 성분에 대하여 미분시키는 미분부; 및
상기 지상 좌표계와 상기 영상 좌표계 간 변환을 위한 회전 행렬로서 상기 전방위 영상 각 축의 회전각에 의한 상기 회전 행렬을 이용하여 상기 미분부에 의해 미분된 연산식들로 상기 관측 방정식 모델을 정립하는 정립부
를 포함하는 것을 특징으로 하는 전방위 영상 광속 조정 장치.The method of claim 5, wherein
The observation equation model formulation,
A linearizer which linearizes an expression by the image point coordinates, the ground point coordinates, the measurement error, and the coordinate transformation coefficients using a Taylor series;
Substituent for substituting the linearized equation in the form of Jacobian;
A derivative unit for differentiating a substituted expression for each predetermined component; And
Sizing unit for establishing the observation equation model using differential equations differentiated by the differentiation unit using the rotational matrix by the rotation angle of each omnidirectional image as a rotation matrix for transforming between the ground coordinate system and the image coordinate system
The omnidirectional image beam adjustment device comprising a.
상기 관측 방정식 모델 정립부는 상기 전방위 영상의 공액점 좌표를 입력될 상기 관측 데이터로 하고 상기 지상점과 상기 외부 표정 요소를 출력될 미지 변수로 하는 관측 방정식 모델을 정립하는 것을 특징으로 하는 전방위 영상 광속 조정 장치.The method of claim 2,
The observation equation modeling unit establishes an observation equation model using the conjugate point coordinates of the omnidirectional image as the observation data to be input, and the ground point and the external facial expression element as an unknown variable to be output. .
상기 관측 방정식 모델에 미리 정해진 제약 조건을 부가하여 제약 조건식 모델들을 생성하는 제약 조건식 모델 생성 단계; 및
생성된 제약 조건식 모델들과 정립된 관측 방정식 모델을 이용하여 상기 전방위 영상을 광속 조정(bundle adjustment)하는 광속 조정 단계
를 포함하는 것을 특징으로 하는 전방위 영상 광속 조정 방법.An observation equation modeling step of establishing an observation equation model using a collinear condition equation for a conjugate point selected from successive omnidirectional images;
Generating a constraint equation model by adding a predetermined constraint to the observation equation model; And
Luminous flux adjustment step of bundle adjustment of the omnidirectional image using the generated constraint equation models and the observation equation model established
The omnidirectional image beam adjustment method comprising a.
상기 광속 조정 단계는 상기 광속 조정을 통해 상기 전방위 영상과 관련된 것으로서 객체의 3차원 모델을 추출하기 위한 지상점과 외부 표정 요소를 추정하는 것을 특징으로 하는 전방위 영상 광속 조정 방법.The method of claim 8,
And adjusting the luminous flux by estimating a ground point and an external facial expression for extracting a three-dimensional model of an object related to the omnidirectional image through the luminous flux adjustment.
상기 제약 조건식 모델 생성 단계는 상기 제약 조건으로 미리 저장된 외부 표정 요소와 지상 좌표계 상에 위치하는 지상 기준점을 이용하는 것을 특징으로 하는 전방위 영상 광속 조정 방법.The method of claim 8,
And generating the constraint model using an external expression element previously stored as the constraint and a ground reference point positioned on a ground coordinate system.
위성 항법 장치(GPS) 또는 관성 항법 장치(INS)를 이용하여 상기 외부 표정 요소로 상기 전방위 영상을 획득하는 전방위 영상 획득 장치의 위치 정보와 자세 정보를 획득하는 위치/자세 정보 획득 단계;
상기 위성 항법 장치 또는 광파기를 이용하여 상기 지상 기준점을 획득하는 지상 기준점 획득 단계; 및
지상 사진 측량 시스템(MMS)을 이용하여 관측 데이터를 획득하는 관측 데이터 획득 단계
를 더욱더 포함하는 것을 특징으로 하는 전방위 영상 광속 조정 방법.11. The method of claim 10,
A position / posture information acquiring step of acquiring position information and attitude information of the omnidirectional image acquisition device which acquires the omnidirectional image with the external facial expression element using a satellite navigation device (GPS) or an inertial navigation device (INS);
A ground reference point obtaining step of obtaining the ground reference point using the satellite navigation apparatus or the optical wave; And
Observation data acquisition step of acquiring observation data using a ground photogrammetry system (MMS)
The omnidirectional image luminous flux adjustment method further comprising.
상기 관측 방정식 모델 정립 단계는 상기 전방위 영상과 관련된 영상 좌표계의 영상점 좌표, 지상 좌표계 상에 위치하는 지상점 좌표, 상기 영상 좌표계 상에 위치하는 것으로서 지상점에 대응하는 영상점을 측정할 때에 발생되는 측정 오차, 및 상기 지상 좌표계와 상기 영상 좌표계 간 좌표 변환 계수를 이용하여 상기 관측 방정식 모델을 정립하는 것을 특징으로 하는 전방위 영상 광속 조정 방법.The method of claim 8,
The step of establishing an observation equation model is generated when measuring an image point coordinate of an image coordinate system related to the omnidirectional image, a ground point coordinate located on a ground coordinate system, and an image point corresponding to a ground point located on the image coordinate system. And the observation equation model is established using a measurement error and a coordinate transformation coefficient between the terrestrial coordinate system and the image coordinate system.
상기 관측 방정식 모델 정립 단계는,
테일러 급수를 이용하여 상기 영상점 좌표, 상기 지상점 좌표, 상기 측정 오차, 및 상기 좌표 변환 계수에 의한 연산식을 선형화시키는 선형화 단계;
선형화된 연산식을 야코비 행렬 형태로 치환시키는 치환 단계;
치환된 연산식을 미리 정해진 각 성분에 대하여 미분시키는 미분 단계; 및
상기 지상 좌표계와 상기 영상 좌표계 간 변환을 위한 회전 행렬로서 상기 전방위 영상 각 축의 회전각에 의한 상기 회전 행렬을 이용하여 상기 미분 단계에 의해 미분된 연산식들로 상기 관측 방정식 모델을 정립하는 정립 단계
를 포함하는 것을 특징으로 하는 전방위 영상 광속 조정 방법.13. The method of claim 12,
The observation equation model formulation step,
Linearizing a calculation equation based on the image point coordinates, the ground point coordinates, the measurement error, and the coordinate transformation coefficients using a Taylor series;
A substitution step of replacing the linearized expression in the form of a Jacobi matrix;
A derivative step of differentiating the substituted equation for each predetermined component; And
Formulation step of establishing the observation equation model with the equations differentiated by the derivative step using the rotation matrix by the rotation angle of each axis of the omnidirectional image as a rotation matrix for the transformation between the ground coordinate system and the image coordinate system
The omnidirectional image beam adjustment method comprising a.
상기 관측 방정식 모델 정립 단계는 상기 전방위 영상의 공액점 좌표를 입력될 상기 관측 데이터로 하고 상기 지상점과 상기 외부 표정 요소를 출력될 미지 변수로 하는 관측 방정식 모델을 정립하는 것을 특징으로 하는 전방위 영상 광속 조정 방법.The method of claim 9,
In the step of establishing the observation equation model, the observation image model is adjusted by using the coordinates of the omnidirectional image as the observation data to be input and establishing the observation equation model using the ground point and the external facial expression as an unknown variable. Way.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100051170 | 2010-05-31 | ||
KR20100051170 | 2010-05-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110132278A KR20110132278A (en) | 2011-12-07 |
KR101249369B1 true KR101249369B1 (en) | 2013-04-01 |
Family
ID=45500455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110052212A KR101249369B1 (en) | 2010-05-31 | 2011-05-31 | Apparatus and method for bundle adjustment of omni-directional images |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101249369B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170037197A (en) | 2015-09-25 | 2017-04-04 | 한남대학교 산학협력단 | Foldable frame for mobile mapping system with multi sensor module |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101277427B1 (en) * | 2012-12-05 | 2013-06-20 | (주)지오투정보기술 | Method and system for correcting a distortion of image data using a parameter and comparing the corrected image data and aerial photograph |
US9064352B2 (en) | 2013-04-24 | 2015-06-23 | Caterpillar Inc. | Position identification system with multiple cross-checks |
KR101690950B1 (en) * | 2015-11-19 | 2016-12-29 | 국방과학연구소 | Method for correcting pushbroom scan scheme strip satellite images geometrically using minimum ground point and System thereof |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009014629A (en) * | 2007-07-06 | 2009-01-22 | Topcon Corp | Position measuring apparatus and position measuring method |
-
2011
- 2011-05-31 KR KR1020110052212A patent/KR101249369B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009014629A (en) * | 2007-07-06 | 2009-01-22 | Topcon Corp | Position measuring apparatus and position measuring method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170037197A (en) | 2015-09-25 | 2017-04-04 | 한남대학교 산학협력단 | Foldable frame for mobile mapping system with multi sensor module |
Also Published As
Publication number | Publication date |
---|---|
KR20110132278A (en) | 2011-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10885328B2 (en) | Determination of position from images and associated camera positions | |
JP6484729B2 (en) | Unmanned aircraft depth image acquisition method, acquisition device, and unmanned aircraft | |
Nagai et al. | UAV-borne 3-D mapping system by multisensor integration | |
US8098958B2 (en) | Processing architecture for automatic image registration | |
JP5992184B2 (en) | Image data processing apparatus, image data processing method, and image data processing program | |
US8059887B2 (en) | System and method for providing mobile range sensing | |
KR101179108B1 (en) | System for determining 3-dimensional coordinates of objects using overlapping omni-directional images and method thereof | |
KR102295809B1 (en) | Apparatus for acquisition distance for all directions of vehicle | |
JP4132068B2 (en) | Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus | |
Chen et al. | Calibration and validation of ZY-3 optical sensors | |
KR101249369B1 (en) | Apparatus and method for bundle adjustment of omni-directional images | |
KR101224830B1 (en) | Portable Multi-Sensor System for Acquiring Georeferenced Images and Method thereof | |
Qiu et al. | A high-precision calibration approach for Camera-IMU pose parameters with adaptive constraints of multiple error equations | |
Bybee et al. | Method for 3-D scene reconstruction using fused LiDAR and imagery from a texel camera | |
Pi et al. | On-orbit geometric calibration using a cross-image pair for the linear sensor aboard the agile optical satellite | |
Wang et al. | Geometric calibration for the aerial line scanning camera Gfxj | |
Rau et al. | Development of a large-format uas imaging system with the construction of a one sensor geometry from a multicamera array | |
Hasheminasab et al. | Multiscale image matching for automated calibration of UAV-based frame and line camera systems | |
CN109341685B (en) | Fixed wing aircraft vision auxiliary landing navigation method based on homography transformation | |
Mirisola et al. | Trajectory recovery and 3d mapping from rotation-compensated imagery for an airship | |
Zhang et al. | Interior orientation error modelling and correction for precise georeferencing of satellite imagery | |
Zhou et al. | Unmanned Aerial Vehicle (UAV) data flow processing for natural disaster response | |
Mirisola | Exploiting attitude sensing in vision-based navigation, mappping and tracking including results from an airship | |
Zhou et al. | Multi-Primitive Triangulation of Airborne and Terrestrial Mobile Mapping Image and LIDAR Data | |
He et al. | A Structure-from-Motion Approach Using UAV-based Imagery for Precision Agriculture Applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160202 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170316 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180124 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20190201 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20200203 Year of fee payment: 8 |