KR101249369B1 - Apparatus and method for bundle adjustment of omni-directional images - Google Patents

Apparatus and method for bundle adjustment of omni-directional images Download PDF

Info

Publication number
KR101249369B1
KR101249369B1 KR1020110052212A KR20110052212A KR101249369B1 KR 101249369 B1 KR101249369 B1 KR 101249369B1 KR 1020110052212 A KR1020110052212 A KR 1020110052212A KR 20110052212 A KR20110052212 A KR 20110052212A KR 101249369 B1 KR101249369 B1 KR 101249369B1
Authority
KR
South Korea
Prior art keywords
image
ground
point
coordinate system
omnidirectional image
Prior art date
Application number
KR1020110052212A
Other languages
Korean (ko)
Other versions
KR20110132278A (en
Inventor
이임평
오태완
최경아
Original Assignee
서울시립대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울시립대학교 산학협력단 filed Critical 서울시립대학교 산학협력단
Publication of KR20110132278A publication Critical patent/KR20110132278A/en
Application granted granted Critical
Publication of KR101249369B1 publication Critical patent/KR101249369B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

본 발명은 전방위 카메라와 GPS/INS가 통합된 지상 모바일 매핑 시스템을 통해 획득된 전방위 영상과 초기 외부 표정 요소를 이용하여 공액점을 통한 지상값 및 외부 표정 요소를 광속 조정법을 이용하여 추정한다. 본 발명은 전방위 영상의 공액점 좌표와 전방위 카메라의 외부 표정 요소를 입력값으로 갖고 외부 표정 요소 및 지상점 좌표의 조정 계산된 값을 출력값으로 하며, 새로운 관측 방정식 수립, 확률 제한 조건식 수립, 외부 표정 요소와 지상점 추정 등 3단계로 구성된다. 본 발명은 연속된 전방위 카메라 영상을 이용하여 지상점과 외부 표정 요소를 수월하게 추정할 수 있으며, 지상점 좌표의 정확도를 향상시킬 수 있다.The present invention estimates the ground value and the external facial expression through the conjugation point using the luminous flux adjustment method using the omnidirectional image and the initial external facial expression acquired through the terrestrial mobile mapping system in which the omnidirectional camera and GPS / INS are integrated. The present invention uses the conjugate point coordinates of the omnidirectional image and the external facial expression elements of the omnidirectional camera as input values, and the calculated calculated values of the external facial expression elements and the ground point coordinates as output values. And three steps, including ground point estimation. The present invention can easily estimate the ground point and the external facial expressions by using the continuous omnidirectional camera image, and can improve the accuracy of the ground point coordinates.

Description

전방위 영상 광속 조정 장치 및 방법 {Apparatus and method for bundle adjustment of omni-directional images}Apparatus and method for bundle adjustment of omni-directional images}

본 발명은 전방위 영상으로부터 절대 좌표를 결정하는 장치 및 방법에 관한 것이다. 보다 상세하게는, 광속 조정을 통해 전방위 영상으로부터 절대 좌표를 결정하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for determining absolute coordinates from an omnidirectional image. More particularly, the present invention relates to an apparatus and a method for determining absolute coordinates from an omnidirectional image through light beam adjustment.

최근에는 모바일 매핑 시스템(MMS; Mobile Mapping System)에 전방위 카메라(omni-directional camera)를 탑재하여 공간 정보를 획득하려는 시도가 활발하게 이루어지고 있다. 전방위 카메라란 시야각(FOV; Filed Of View)이 360°이기 때문에 촬영 지점을 기준으로 모든 방향의 영상 정보 취득이 가능한 카메라를 말한다.Recently, attempts have been actively made to acquire spatial information by mounting omni-directional cameras in a mobile mapping system (MMS). The omnidirectional camera refers to a camera capable of acquiring image information in all directions from the photographing point because the field of view (FOV) is 360 °.

종래 기술의 한가지 예로서, 전방위 카메라 영상을 통해 3차원 절대 좌표를 결정하는 기술이 있다. 이 기술은 전방위 카메라를 통해 3차원 절대 좌표 결정에 대한 수식 및 그 가능성에 대해서 언급하고 있다. 이 기술은 기존의 프레임 카메라를 사용하는 방식에 비해 기선이 길어져 높은 정확도를 갖는 결과물을 생성하는 것이 가능하다. 그러나, 이 기술은 광속 조정법에 비해 절대 좌표값의 정확도가 떨어지기 때문에 디지털 영상을 이용하는 수치 사진 측량에 적합하지 않다.One example of the prior art is a technique for determining three-dimensional absolute coordinates through the omni-directional camera image. This technique addresses the equations and possibilities for determining three-dimensional absolute coordinates through omnidirectional cameras. This technique allows longer baselines than conventional frame cameras, resulting in highly accurate results. However, this technique is not suitable for digital photogrammetry using digital images because the accuracy of absolute coordinates is inferior to that of luminous flux adjustment.

종래 기술의 다른 예로서, 전방위 카메라 영상을 이용하여 객체의 위치를 추적하고 탐지하는 기술이 있다. 이 기술은 연속된 전방위 영상을 이용하여 영상 내의 객체들을 매칭하고 이를 탐지한다. 그러나, 이 기술은 공액점을 추출하기 않기 때문에 지상 좌표계와 카메라 좌표계 간 매칭이 정확하지 않다.As another example of the prior art, there is a technique of tracking and detecting the position of an object using an omnidirectional camera image. This technique uses a series of omnidirectional images to match and detect objects in the image. However, because this technique does not extract the conjugate points, the matching between ground and camera coordinate systems is not accurate.

본 발명은 상기한 문제점을 해결하기 위해 안출된 것으로서, 전방위 카메라와 GPS/INS(Global Positioning System/Inertial Navigation System)가 통합된 모바일 매핑 시스템(MMS)을 이용하여 전방위 영상을 광속 조정하는 전방위 영상 광속 조정 장치 및 방법을 제안함을 목적으로 한다.The present invention has been made to solve the above problems, an omnidirectional image luminous flux for adjusting the omnidirectional image by using a mobile mapping system (MMS) incorporating an omnidirectional camera and a Global Positioning System / Inertial Navigation System (GPS / INS) An object of the present invention is to propose an adjustment device and method.

본 발명은 상기한 목적을 달성하기 위해 안출된 것으로서, 연속되는 전방위 영상들 중에서 선택된 공액점에 대하여 공선 조건식을 이용하여 관측 방정식 모델을 정립하는 관측 방정식 모델 정립부; 미리 정해진 제약 조건을 반영 및 미반영하여 상기 관측 방정식 모델에 부가하여 제약 조건식 모델들을 생성하는 제약 조건식 모델 생성부; 및 생성된 제약 조건식 모델들과 정립된 관측 방정식 모델을 이용하여 상기 전방위 영상을 광속 조정(bundle adjustment)하는 광속 조정부를 포함하는 것을 특징으로 하는 전방위 영상 광속 조정 장치를 제안한다.The present invention has been made to achieve the above object, an observation equation modeling unit for establishing an observation equation model using a collinear conditional expression for a conjugate point selected from consecutive omnidirectional images; A constraint model generator for generating constraint models in addition to the observation equation model by reflecting and not reflecting a predetermined constraint; And a luminous flux adjusting unit configured to bundle-adjust the omnidirectional image by using the generated constraint equation models and the observation equation model established.

바람직하게는, 상기 광속 조정부는 상기 광속 조정을 통해 상기 전방위 영상과 관련된 것으로서 객체의 3차원 모델을 추출하기 위한 지상점과 외부 표정 요소를 추정한다. 더욱 바람직하게는, 상기 관측 방정식 모델 정립부는 상기 전방위 영상의 공액점 좌표를 입력될 상기 관측 데이터로 하고 상기 지상점과 상기 외부 표정 요소를 출력될 미지 변수로 하는 관측 방정식 모델을 정립한다.Preferably, the luminous flux adjusting unit estimates a ground point and an external facial expression for extracting a three-dimensional model of an object as related to the omnidirectional image through the luminous flux adjustment. More preferably, the observation equation modeling unit establishes an observation equation model using the conjugate point coordinates of the omnidirectional image as the observation data to be input and the ground point and the external expression element as an unknown variable to be output.

바람직하게는, 상기 제약 조건식 모델 생성부는 상기 제약 조건으로 미리 저장된 외부 표정 요소와 지상 좌표계 상에 위치하는 지상 기준점을 이용한다. 더욱 바람직하게는, 상기 전방위 영상 광속 조정 장치는 위성 항법 장치(GPS) 또는 관성 항법 장치(INS)를 이용하여 상기 외부 표정 요소로 상기 전방위 영상을 획득하는 전방위 영상 획득 장치의 위치 정보와 자세 정보를 획득하는 위치/자세 정보 획득부; 또는 상기 위성 항법 장치 또는 광파기를 이용하여 상기 지상 기준점을 획득하는 지상 기준점 획득부를 더욱 포함하며, 상기 위치/자세 정보 획득부를 구비하는 것으로서, 상기 전방위 영상을 획득하는 전방위 영상 획득부를 더욱더 포함할 수 있다.Preferably, the constraint model generation unit uses an external expression element pre-stored as the constraint and a ground reference point positioned on the ground coordinate system. More preferably, the omnidirectional image luminous flux adjusting device uses the satellite navigation device (GPS) or the inertial navigation device (INS) to obtain the position information and the posture information of the omnidirectional image acquisition device that acquires the omnidirectional image with the external facial expression element. Obtaining position / posture information acquisition unit; Alternatively, the apparatus may further include a ground reference point acquisition unit for acquiring the ground reference point using the satellite navigation apparatus or an optical wave, and further comprising a position / posture information acquisition unit, and may further include an omnidirectional image acquisition unit for acquiring the omnidirectional image. .

바람직하게는, 상기 관측 방정식 모델 정립부는 상기 전방위 영상과 관련된 영상 좌표계의 영상점 좌표, 지상 좌표계 상에 위치하는 지상점 좌표, 상기 영상 좌표계 상에 위치하는 것으로서 지상점에 대응하는 영상점을 측정할 때에 발생되는 측정 오차, 및 상기 지상 좌표계와 상기 영상 좌표계 간 좌표 변환 계수를 이용하여 상기 관측 방정식 모델을 정립한다. 더욱 바람직하게는, 상기 관측 방정식 모델 정립부는, 테일러 급수를 이용하여 상기 영상점 좌표, 상기 지상점 좌표, 상기 측정 오차, 및 상기 좌표 변환 계수에 의한 연산식을 선형화시키는 선형화부; 선형화된 연산식을 야코비 행렬 형태로 치환시키는 치환부; 치환된 연산식을 미리 정해진 각 성분에 대하여 미분시키는 미분부; 및 상기 지상 좌표계와 상기 영상 좌표계 간 변환을 위한 회전 행렬로서 상기 전방위 영상 각 축의 회전각에 의한 상기 회전 행렬을 이용하여 상기 미분부에 의해 미분된 연산식들로 상기 관측 방정식 모델을 정립하는 정립부를 포함한다.Preferably, the observation equation modeling unit measures an image point coordinate of an image coordinate system related to the omnidirectional image, a ground point coordinate located on a ground coordinate system, and an image point corresponding to a ground point located on the image coordinate system. The observation equation model is established using a measurement error generated at the time and a coordinate transformation coefficient between the ground coordinate system and the image coordinate system. More preferably, the observation equation modeling unit, a linearization unit for linearizing the equation by the image point coordinates, the ground point coordinates, the measurement error, and the coordinate transformation coefficients using a Taylor series; Substituent for substituting the linearized equation in the form of Jacobian; A derivative unit for differentiating a substituted expression for each predetermined component; And a sizing unit for establishing the observation equation model using differential equations differentiated by the derivative by using the rotation matrix of the rotation angle of each omnidirectional image as a rotation matrix for transforming between the ground coordinate system and the image coordinate system. Include.

또한, 본 발명은 연속되는 전방위 영상들 중에서 선택된 공액점에 대하여 공선 조건식을 이용하여 관측 방정식 모델을 정립하는 관측 방정식 모델 정립 단계; 미리 정해진 제약 조건을 반영 및 미반영하여 상기 관측 방정식 모델에 부가하여 제약 조건식 모델들을 생성하는 제약 조건식 모델 생성 단계; 및 생성된 제약 조건식 모델들과 정립된 관측 방정식 모델을 이용하여 상기 전방위 영상을 광속 조정(bundle adjustment)하는 광속 조정 단계를 포함하는 것을 특징으로 하는 전방위 영상 광속 조정 방법을 제안한다.In addition, the present invention provides an observation equation modeling step of establishing an observation equation model using a collinear conditional expression for a conjugate point selected from consecutive omnidirectional images; A constraint model generation step of generating constraint model in addition to the observation equation model by reflecting and not reflecting a predetermined constraint; And a luminous flux adjustment step of bundle-adjusting the omnidirectional image by using the generated constraint equation models and the observation equation model established.

바람직하게는, 상기 광속 조정 단계는 상기 광속 조정을 통해 상기 전방위 영상과 관련된 것으로서 객체의 3차원 모델을 추출하기 위한 지상점과 외부 표정 요소를 추정한다. 더욱 바람직하게는, 상기 관측 방정식 모델 정립 단계는 상기 전방위 영상의 공액점 좌표를 입력될 상기 관측 데이터로 하고 상기 지상점과 상기 외부 표정 요소를 출력될 미지 변수로 하는 관측 방정식 모델을 정립한다.Preferably, the luminous flux adjustment step estimates a ground point and an external facial expression for extracting a three-dimensional model of an object as related to the omnidirectional image through the luminous flux adjustment. More preferably, the step of establishing an observation equation model establishes an observation equation model using the conjugate point coordinates of the omnidirectional image as the observation data to be input and the ground point and the external expression element as an unknown variable to be output.

바람직하게는, 상기 제약 조건식 모델 생성 단계는 상기 제약 조건으로 미리 저장된 외부 표정 요소와 지상 좌표계 상에 위치하는 지상 기준점을 이용한다. 더욱 바람직하게는, 상기 전방위 영상 광속 조정 방법은 위성 항법 장치(GPS) 또는 관성 항법 장치(INS)를 이용하여 상기 외부 표정 요소로 상기 전방위 영상을 획득하는 전방위 영상 획득 장치의 위치 정보와 자세 정보를 획득하는 위치/자세 정보 획득 단계; 또는 상기 위성 항법 장치 또는 광파기를 이용하여 상기 지상 기준점을 획득하는 지상 기준점 획득 단계를 더욱 포함하며, 지상 사진 측량 시스템(MMS)을 이용하여 상기 관측 데이터를 획득하는 관측 데이터 획득 단계를 더욱더 포함할 수 있다.Preferably, the constraint model generation step uses an external expression element previously stored as the constraint and a ground reference point positioned on the ground coordinate system. More preferably, the omnidirectional image luminous flux adjusting method may include position information and posture information of the omnidirectional image acquisition device that acquires the omnidirectional image with the external facial expression element using a satellite navigation device (GPS) or an inertial navigation device (INS). Acquiring position / posture information; Alternatively, the method may further include a ground reference point obtaining step of obtaining the ground reference point using the satellite navigation apparatus or an optical wave, and further including the observation data obtaining step of obtaining the observation data using a ground photogrammetry system (MMS). have.

바람직하게는, 상기 관측 방정식 모델 정립 단계는 상기 전방위 영상과 관련된 영상 좌표계의 영상점 좌표, 지상 좌표계 상에 위치하는 지상점 좌표, 상기 영상 좌표계 상에 위치하는 것으로서 지상점에 대응하는 영상점을 측정할 때에 발생되는 측정 오차, 및 상기 지상 좌표계와 상기 영상 좌표계 간 좌표 변환 계수를 이용하여 상기 관측 방정식 모델을 정립한다. 더욱 바람직하게는, 상기 관측 방정식 모델 정립 단계는, 테일러 급수를 이용하여 상기 영상점 좌표, 상기 지상점 좌표, 상기 측정 오차, 및 상기 좌표 변환 계수에 의한 연산식을 선형화시키는 선형화 단계; 선형화된 연산식을 야코비 행렬 형태로 치환시키는 치환 단계; 치환된 연산식을 미리 정해진 각 성분에 대하여 미분시키는 미분 단계; 및 상기 지상 좌표계와 상기 영상 좌표계 간 변환을 위한 회전 행렬로서 상기 전방위 영상 각 축의 회전각에 의한 상기 회전 행렬을 이용하여 상기 미분 단계에 의해 미분된 연산식들로 상기 관측 방정식 모델을 정립하는 정립 단계를 포함한다.Preferably, the step of establishing the observation equation model measures an image point coordinate of an image coordinate system related to the omnidirectional image, a ground point coordinate located on a ground coordinate system, and an image point corresponding to a ground point located on the image coordinate system. The observation equation model is established using the measurement error generated at the time and the coordinate transformation coefficient between the ground coordinate system and the image coordinate system. More preferably, the step of establishing the observation equation model, the linearization step of linearizing the equation by the image point coordinates, the ground point coordinates, the measurement error, and the coordinate transformation coefficients using a Taylor series; A substitution step of replacing the linearized expression in the form of a Jacobi matrix; A derivative step of differentiating the substituted equation for each predetermined component; And a step of establishing the observation equation model using differential equations by the differential step using the rotation matrix by the rotation angle of each axis of the omnidirectional image as a rotation matrix for transforming between the ground coordinate system and the image coordinate system. It includes.

본 발명은 전방위 카메라와 GPS/INS가 통합된 모바일 매핑 시스템을 이용하여 전방위 영상을 광속 조정함으로써 다음 효과를 얻을 수 있다. 첫째, 전방위 영상에 적합한 공선 방정식과 이 방정식에 의한 관측 방정식을 수립함으로써, 연속된 전방위 카메라 영상을 이용하여 지상점과 외부 표정 요소를 수월하게 추정할 수 있다. 둘째, GPS/INS로부터 획득된 외부 표정 요소, 정지 GPS, 토탈 스테이션 등을 통해 획득된 지상 기준점을 이용하여 다양한 타입의 확률 제약 조건식을 수립 검증함으로써, 지상점 좌표의 정확도를 향상시킬 수 있다.According to the present invention, the following effects can be obtained by adjusting the luminous flux of an omnidirectional image using a mobile mapping system in which an omnidirectional camera and GPS / INS are integrated. First, by establishing a collinear equation suitable for the omnidirectional image and an observation equation based on this equation, it is possible to easily estimate the ground point and the external facial expressions by using the continuous omnidirectional camera image. Second, by establishing and verifying various types of probabilistic constraint expressions using ground reference points acquired through external facial expression elements obtained from GPS / INS, stationary GPS, and total stations, accuracy of ground point coordinates can be improved.

도 1은 본 발명의 바람직한 실시예에 따른 전방위 영상 광속 조정 장치의 내부 구성을 개략적으로 도시한 블록도이다.
도 2는 본 발명의 바람직한 실시예에 따른 전방위 영상 광속 조정 장치의 내부 구성을 세부적으로 도시한 블록도이다.
도 3은 본 실시예에 따른 방법론의 개요도이다.
도 4는 중심 투영 원리에 의한 지상점과 영상점 간의 관계를 도시한 도면이다.
도 5는 본 실시예에 따른 방법론을 설명하기 위한 참고도이다.
도 6 내지 도 13은 본 실시예에 대한 실험을 설명하기 위한 참고도이다.
도 14는 본 발명의 바람직한 실시예에 따른 전방위 영상 광속 조정 방법을 설명한 흐름도이다.
1 is a block diagram schematically illustrating an internal configuration of an omnidirectional image luminous flux adjusting apparatus according to a preferred embodiment of the present invention.
2 is a block diagram showing in detail the internal configuration of the omnidirectional image light beam adjusting apparatus according to a preferred embodiment of the present invention.
3 is a schematic diagram of a methodology according to the present embodiment.
4 is a diagram illustrating a relationship between a ground point and an image point based on a central projection principle.
5 is a reference diagram for explaining a methodology according to the present embodiment.
6 to 13 are reference diagrams for explaining an experiment with respect to the present embodiment.
14 is a flowchart illustrating a method for adjusting the omnidirectional image luminous flux according to an exemplary embodiment of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the preferred embodiments of the present invention will be described below, but it is needless to say that the technical idea of the present invention is not limited thereto and can be variously modified by those skilled in the art.

도 1은 본 발명의 바람직한 실시예에 따른 전방위 영상 광속 조정 장치의 내부 구성을 개략적으로 도시한 블록도이다. 도 2는 본 발명의 바람직한 실시예에 따른 전방위 영상 광속 조정 장치의 내부 구성을 세부적으로 도시한 블록도이다. 이하 설명은 도 1과 도 2를 참조한다.1 is a block diagram schematically illustrating an internal configuration of an omnidirectional image luminous flux adjusting apparatus according to a preferred embodiment of the present invention. 2 is a block diagram showing in detail the internal configuration of the omnidirectional image light beam adjusting apparatus according to a preferred embodiment of the present invention. The following description refers to FIGS. 1 and 2.

도 1에 따르면, 전방위 영상 광속 조정 장치(100)는 관측 방정식 모델 정립부(110), 제약 조건식 모델 생성부(120), 광속 조정부(130), 전원부(140) 및 주제어부(150)를 포함한다.According to FIG. 1, the omnidirectional image luminous flux adjusting apparatus 100 includes an observation equation modeling unit 110, a constraint equation model generation unit 120, a luminous flux adjusting unit 130, a power supply unit 140, and a main control unit 150. do.

관측 방정식 모델 정립부(110)는 연속되는 전방위 영상들 중에서 선택된 공액점에 대하여 공선 조건식(collinearity equation)을 이용하여 관측 방정식 모델을 정립하는 기능을 수행한다. 공선 조건을 기반으로 하는 관측 방정식은 두개 이상의 전방위 영상으로부터 얻어진 공액점의 영상 좌표값으로 세워질 수 있다. 관측 방정식 모델 정립부(110)는 전방위 영상의 공액점 좌표를 입력될 관측 데이터로 하고 지상점과 외부 표정 요소를 출력될 미지 변수로 하는 관측 방정식 모델을 정립한다.The observation equation modeling unit 110 performs a function of establishing an observation equation model using a collinearity equation for a conjugate point selected from consecutive omnidirectional images. Observation equations based on collinear conditions can be established with image coordinate values of conjugate points obtained from two or more omnidirectional images. The observation equation modeling unit 110 establishes an observation equation model that uses the coordinates of the coordinates of the omnidirectional image as the observation data to be input and uses the ground point and the external facial expression as an unknown variable to be output.

관측 방정식은 관측치, 미지수, 그리고 관측치와 미지수 간의 수학적 모델로 구성된다. 관측치는 영상 좌표계에서 획득한 영상 좌표값과 관측 오차를 의미한다. 미지수는 지상 좌표계로 표현된 지상점과 카메라의 외부표정 요소를 의미한다. 수학적 모델은 공선 조건과 좌표 변환으로 구성된다. 관측 방정식 모델은 공선 방정식, 관측치 및 관측 오차, 미지수 등을 이용하여 구성된다. 공선 방정식은 좌표 변환 계수(지상 좌표계 상의 지상점이 영상 좌표계 상의 지상점으로), 지상점이 영상으로 투영되는 공선 조건 등으로 세워질 수 있다. 좌표 변환 계수에는 회전 변환 계수와 원점 이동 변환 계수 등 두가지 성분이 있다. 이때, 관측 방정식 모델 정립부(110)는 전방위 영상과 관련된 영상 좌표계(카메라 좌표계)의 영상점 좌표, 지상 좌표계 상에 위치하는 지상점 좌표, 영상 좌표계 상에 위치하는 것으로서 지상점에 대응하는 영상점을 측정할 때에 발생되는 측정 오차, 및 지상 좌표계와 영상 좌표계 간 좌표 변환 계수를 이용하여 관측 방정식 모델을 정립한다. 이 점을 고려할 때 관측 방정식 모델 정립부(110)는 도 2의 (b)에 도시된 바와 같이 선형화부(111), 치환부(112), 미분부(113) 및 정립부(114)를 포함할 수 있다.Observation equations consist of observations, unknowns, and mathematical models between observations and unknowns. Observation values mean image coordinate values and observation errors acquired in the image coordinate system. The unknown means the ground point expressed in the ground coordinate system and the external expression elements of the camera. The mathematical model consists of collinear conditions and coordinate transformations. The observation equation model is constructed using collinear equations, observations and observation errors, and unknowns. The collinear equations can be established with coordinate transformation coefficients (ground points on the ground coordinate system to ground points on the image coordinate system), collinear conditions under which the ground points are projected onto the image. There are two components of the coordinate transformation coefficient: the rotation transformation coefficient and the homing transformation coefficient. In this case, the observation equation modeling unit 110 is an image point coordinate of an image coordinate system (camera coordinate system) related to the omnidirectional image, a ground point coordinate located on the ground coordinate system, and an image point corresponding to the ground point located on the image coordinate system. The observation equation model is established by using the measurement error that occurs when measuring and the coordinate transformation coefficient between the ground coordinate system and the image coordinate system. In view of this, the observation equation modeling unit 110 includes a linearization unit 111, a substitution unit 112, a differential unit 113, and a determination unit 114 as shown in FIG. 2B. can do.

선형화부(111)는 테일러 급수를 이용하여 영상점 좌표, 지상점 좌표, 측정 오차, 및 좌표 변환 계수에 의한 연산식을 선형화시키는 기능을 수행한다. 치환부(112)는 선형화된 연산식을 야코비 행렬 형태로 치환시키는 기능을 수행한다. 미분부(113)는 치환된 연산식을 미리 정해진 각 성분에 대하여 미분시키는 기능을 수행한다. 미분부(113)는 미리 정해진 성분으로 미지 변수를 이용한다. 본 실시예에서 미지 변수에는 외부 표정 요소와 지상점 좌표가 있으며, 특히 외부 표정 요소에는 위치 요소와 자세 요소가 있다. 정립부(114)는 지상 좌표계와 영상 좌표계 간 변환을 위한 회전 행렬로서 전방위 영상 각 축의 회전각에 의한 회전 행렬을 이용하여 미분부에 의해 미분된 연산식들로 관측 방정식 모델을 정립하는 기능을 수행한다.The linearization unit 111 performs a function of linearizing an equation based on image point coordinates, ground point coordinates, measurement error, and coordinate transformation coefficients using the Taylor series. The substitution unit 112 performs a function of replacing the linearized expression in the form of Jacobian matrix. The derivative unit 113 performs a function of differentiating the substituted expression for each predetermined component. The derivative unit 113 uses an unknown variable as a predetermined component. In the present embodiment, the unknown variable includes an external facial expression element and a ground point coordinate, and in particular, the external facial expression element includes a positional element and a posture element. The sizing unit 114 performs a function of establishing an observation equation model using differential equations differentiated by a derivative using a rotation matrix of rotation angles of the omnidirectional image axes as a rotation matrix for transforming the ground coordinate system and the image coordinate system. do.

제약 조건식 모델 생성부(120)는 미리 정해진 제약 조건을 반영 및 미반영하여 관측 방정식 모델에 부가하여 제약 조건식 모델들을 생성하는 기능을 수행한다.The constraint model generation unit 120 reflects and not reflects a predetermined constraint to generate the constraint models in addition to the observation equation model.

제약 조건식 모델 생성부(120)는 제약 조건으로 미리 저장된 외부 표정 요소와 지상 좌표계 상에 위치하는 지상 기준점을 이용할 수 있다. 이 점을 고려할 때, 전방위 영상 광속 조정 장치(100)는 도 2의 (a)에 도시된 바와 같이 위치/자세 정보 획득부(210), 지상 기준점 획득부(220) 및 전방위 영상 획득부(230) 중 적어도 하나의 구성부를 더욱 포함할 수 있다.The constraint model generation unit 120 may use an external expression element previously stored as a constraint and a ground reference point positioned on the ground coordinate system. In consideration of this point, the omnidirectional image luminous flux adjusting apparatus 100 includes a position / posture information obtaining unit 210, a ground reference point obtaining unit 220, and an omnidirectional image obtaining unit 230 as shown in FIG. 2A. It may further include at least one component.

위치/자세 정보 획득부(210)는 위성 항법 장치(GPS) 또는 관성 항법 장치(INS)를 이용하여 외부 표정 요소로 전방위 영상을 획득하는 전방위 영상 획득 장치의 위치 정보와 자세 정보를 획득하는 기능을 수행한다. 지상 기준점 획득부(220)는 GPS/INS, 광파기 등을 이용하여 지상 기준점을 획득하는 기능을 수행한다. 전방위 영상 획득부(230)는 위치/자세 정보 획득부(210)를 구비하는 것으로서, 전방위 영상을 획득하는 기능을 수행한다.The position / posture information acquisition unit 210 acquires the position information and the attitude information of the omnidirectional image acquisition device that acquires the omnidirectional image using an external facial expression element using the GPS or the inertial navigation device (INS). To perform. The ground reference point acquisition unit 220 performs a function of acquiring the ground reference point using GPS / INS, an optical wave. The omnidirectional image acquisition unit 230 includes a position / posture information acquisition unit 210 and performs a function of acquiring an omnidirectional image.

광속 조정부(130)는 생성된 제약 조건식 모델들과 정립된 관측 방정식 모델을 이용하여 전방위 영상을 광속 조정(bundle adjustment)하는 기능을 수행한다. 광속 조정부(130)는 광속 조정을 통해 전방위 영상과 관련된 것으로서 객체의 3차원 모델을 추출하기 위한 지상점과 외부 표정 요소를 추정한다.The luminous flux adjusting unit 130 performs a bundle adjustment of the omnidirectional image by using the generated constraint equation models and the observation equation model established. The light beam controller 130 estimates the ground point and the external facial expression for extracting the 3D model of the object as related to the omnidirectional image by adjusting the light beam.

전원부(140)는 전방위 영상 광속 조정 장치(100)를 구성하는 각 부에 전원을 공급하는 기능을 수행한다.The power supply unit 140 performs a function of supplying power to each unit constituting the omnidirectional image luminous flux adjusting device 100.

주제어부(150)는 전방위 영상 광속 조정 장치(100)를 구성하는 각 부의 전체 작동을 제어하는 기능을 수행한다.The main control unit 150 performs a function of controlling the overall operation of each unit constituting the omnidirectional image luminous flux adjusting device 100.

다음으로, 전방위 영상 광속 조정 장치(100)를 일실시예를 들어 설명한다. 이하 실시예에서는 전방위 카메라와 GPS/INS가 통합된 지상 모바일 매핑 시스템을 통해 획득된 전방위 영상과 초기 외부 표정 요소를 이용하여 공액점을 통한 지상값 및 외부 표정 요소를 광속 조정법을 이용하여 추정하는 방법론을 소개한다.Next, the omnidirectional image luminous flux adjusting device 100 will be described with reference to one embodiment. In the following embodiment, a methodology for estimating the ground value and the external facial expression through the conjugation point using the luminous flux adjustment method using the omnidirectional image and the initial external facial expression obtained through the terrestrial mobile mapping system in which the omnidirectional camera and GPS / INS are integrated is described. Introduce.

본 실시예에서 제안하는 방법인 전방위 영상을 이용한 광속 조정법은 전방위 영상의 공액점 좌표와 전방위 카메라의 외부 표정 요소를 입력값으로 갖고 외부 표정 요소 및 지상점 좌표의 조정 계산된 값을 출력값으로 한다. 도 3은 전방위 영상을 이용한 본 방법론의 개요를 도시한다. 도 3에서 보는 바와 같이 제안된 방법은 크게 새로운 관측 방정식 수립, 확률 제한 조건식(stochastic constraint) 수립, 외부 표정 요소와 지상점 추정 등 3단계로 구성되어 있다.In the light beam adjustment method using the omnidirectional image, the method proposed in this embodiment, the conjugate point coordinates of the omnidirectional image and the external facial expression elements of the omnidirectional camera are input values, and the calculated calculated values of the external facial expression elements and the ground point coordinates are output values. 3 shows an overview of the methodology using an omnidirectional image. As shown in FIG. 3, the proposed method is largely composed of three steps: establishing a new observation equation, establishing a stochastic constraint, and estimating external facial expressions and ground points.

첫번째 단계는 전방위 영상에 적합한 공선 조건식을 이용하여 새로운 관측 방정식 모델을 수립하는 단계이다. 본 실시예에서 이 단계는 도 1의 관측 방정식 모델 정립부가 수행할 수 있다. 중심 투영 원리에 의해 카메라 투영의 중심과 지상점을 잇는 직선이 카메라 투영 중심을 중심으로 갖는 구와 한 점에서 만나게 되며 이를 이용하여 새로운 공선 조건식을 수립한다. 그리고, 공액점과 외부 표정 요소를 관측값으로 가지며 외부 표정 요소와 지상점 좌표를 미지수로 갖는 관측 방정식을 수립한다. 아래 수학식 1은 관측 방정식을 보여주고 있다. 이때 Y는 전방위 영상 상의 공액점 좌표값이고,

Figure 112011040941914-pat00001
는 각각 외부 표정 요소와 지상점 좌표 미지수이며, ey는 오차를 의미한다.The first step is to construct a new observation equation model using the collinear conditional equations suitable for the omnidirectional image. In this embodiment, this step may be performed by the observation equation modeling unit of FIG. 1. According to the principle of central projection, a straight line connecting the center of the camera projection and the ground point meets at one point with a sphere centered on the camera projection center. Then, we establish an observation equation with the conjugate point and the external expression element as observations and the unknown expression element and the ground point coordinates as unknowns. Equation 1 below shows the observation equation. In this case, Y is a conjugate point coordinate value on the omnidirectional image.
Figure 112011040941914-pat00001
Are the external facial expressions and the ground coordinate coordinates, respectively, and e y represents the error.

Figure 112011040941914-pat00002
Figure 112011040941914-pat00002

다음 단계는 지상 MMS에 탑재되어 있는 GPS/INS로부터 획득되는 카메라의 외부 표정 요소 및 정지 GPS와 토탈 스테이션을 통해 획득된 지상 기준점을 제약 조건으로 갖는 확률 제약 조건(stochastic constraints)식을 수립한다. 본 실시예에서 이 단계는 도 1의 제약 조건식 모델 생성부가 수행할 수 있다. 수학식 2와 수학식 3은 각각 외부 표정 요소와 지상 기준점에 대한 확률 제약 조건식이다. Z1과 Z2는 각각 외부 표정 요소 및 지상 기준점에 대한 관측 벡터를 의미한다. 이 단계에서는 이전 단계에서 추정한 미지수들 및 두 종류의 확률 제약 조건 적용 유무를 조합하여 총 8가지의 수학적 모델을 완성한다.The next step is to establish stochastic constraints with the external facial expressions of cameras acquired from GPS / INS mounted on the ground MMS and the ground reference points acquired through stationary GPS and total station. In this embodiment, this step may be performed by the constraint model generator of FIG. 1. Equations 2 and 3 are probability constraint expressions for the external facial expression element and the ground control point, respectively. Z 1 and Z 2 are the observation vectors for the external facial expression and ground control points, respectively. In this step, a total of eight mathematical models are completed by combining the unknowns estimated in the previous step and whether two kinds of probability constraints are applied.

Figure 112011040941914-pat00003
Figure 112011040941914-pat00003

Figure 112011040941914-pat00004
Figure 112011040941914-pat00004

마지막 단계는 지상 MMS을 통해 획득된 실 데이터를 앞서 제안한 다양한 수학적 모델에 따른 광속 조정법에 적용하여 영상의 외부 표정 요소 및 지상점 좌표를 조정하고 결과를 분석하는 단계이다. 본 실시예에서 이 단계는 도 1의 광속 조정부가 수행할 수 있다. 정확도 검증은 정지 GPS 및 토탈 스테이션을 통해 측정한 검사점과 제안된 방법론을 통해 추정된 지상점과의 오차를 통해 확인한다.The last step is to adjust the external facial expressions and ground point coordinates of the image and analyze the results by applying the real data acquired through the ground MMS to the luminous flux adjustment method according to the various mathematical models proposed above. In this embodiment, this step may be performed by the luminous flux adjusting part of FIG. Accuracy verification is confirmed by errors between checkpoints measured by stationary GPS and total stations and ground points estimated by the proposed methodology.

이하, 각 단계에 대해서 좀더 구체적으로 설명한다.Hereinafter, each step will be described in more detail.

가. 관측 방정식 수립end. Establish Observation Equation

일반 프레임 카메라에서는 3차원 공간 상에 있는 지상점이 렌즈의 중심인 주점을 지나 2차원의 초점면과 만나는 점에 영상점이 생성된다. 하지만 전방위 카메라의 경우는 2차원 초점면에 아닌 3차원 구의 표면에 영상점이 생성된다. 프레임 카메라와 전방위 카메라 간의 차이로 인해 전방위 영상에 적합한 공선 조건식을 수립하였다.In a general frame camera, an image point is generated at a point where a ground point in a three-dimensional space meets a two-dimensional focal plane through the main point of the lens. In the case of omnidirectional cameras, however, image points are created on the surface of the three-dimensional sphere rather than the two-dimensional focal plane. Due to the difference between the frame camera and the omni-directional camera, the collinear conditional formula suitable for the omnidirectional image was established.

수학식 4는 지상 좌표계 상에서의 지상점 벡터를 카메라 좌표 상에서의 지상점 벡터로 변환하는 식이다. CP는 카메라 좌표계 상에서의 지상점 벡터이고 GP는 지상점 좌표계 상에서의 지상점 벡터이다. C GR은 지상 좌표계와 카메라 좌표계 간의 회전 변환식이며, GOC는 지상 좌표계 상에서의 카메라 좌표계의 중심 좌표를 의미한다.Equation 4 converts a ground point vector on a ground coordinate system into a ground point vector on camera coordinates. C P is the ground point vector on the camera coordinate system and G P is the ground point vector on the ground point coordinate system. C G R is a rotational conversion formula between the ground coordinate system and the camera coordinate system, and G O C is the center coordinate of the camera coordinate system on the ground coordinate system.

Figure 112011040941914-pat00005
Figure 112011040941914-pat00005

카메라 좌표계의 원점은 카메라의 투영 중심(GOC)에 해당되고, 영상점(ρ)은 카메라 투영 중심을 중심으로 갖는 구면 상에 존재한다. 중심 투영 원리에 의해 투영의 중심, 영상점, 지상점(CP)은 도 4와 같이 하나의 직선 상에 존재한다. 영상점은 극좌표계의 수평각 α와 수직각 β로 표현이 가능하며 이는

Figure 112011040941914-pat00006
로 수학식 5와 같이 표현이 가능하다. CPx, CPy, CPzCP의 좌표를 의미한다.The origin of the camera coordinate system corresponds to the projection center G O C of the camera, and the image point ρ exists on a spherical surface centered on the camera projection center. According to the central projection principle, the center of the projection, the image point, and the ground point C P exist on one straight line as shown in FIG. 4. The image point can be represented by the horizontal angle α and the vertical angle β of the polar coordinate system.
Figure 112011040941914-pat00006
It can be expressed as shown in Equation 5. C P x , C P y , and C P z refer to the coordinates of C P.

Figure 112011040941914-pat00007
Figure 112011040941914-pat00007

수학식 4와 수학식 5를 이용하여 전방위 영상에서의 영상점과 지상점 간의 관계를 표현할 수 있으며 전방위 영상에 적합한 공선 방정식을 유도할 수 있다. 이러한 공선 방정식을 이용하여 전방위 영상에 적합한 관측방정식을 수학식 6과 같이 수립할 수 있다. 여기서 σ0 2은 영상점 측정시 발생할 수 있는 측정 오차를 의미하며 I2는 2×2의 단위행렬이다. 수학식 6은 지상점 좌표인 CPx, CPy, CPz와 투영의 중심 좌표인 XC, YC, ZC 그리고 지상점 좌표계와 카메라 좌표계 간의 회전 변환을 나타내는 ω, φ, κ로 총 9개의 계수를 포함하고 있다.Equation 4 and Equation 5 can be used to express the relationship between the image point and the ground point in the omnidirectional image and to derive a collinear equation suitable for the omnidirectional image. Using this collinear equation, an observation equation suitable for the omnidirectional image can be established as shown in Equation 6. Where σ 0 2 is a measurement error that can occur when measuring an image point and I 2 is a unit matrix of 2 × 2. Equation 6 represents the rotational transformation between ground coordinates C P x , C P y , C P z and projection center coordinates X C , Y C , Z C and the ground coordinates and the camera coordinate system. It contains a total of nine coefficients.

Figure 112011040941914-pat00008
Figure 112011040941914-pat00008

수학식 6을 테일러 급수를 이용하면 수학식 7과 같은 선형화가 가능하다.

Figure 112011040941914-pat00009
는 앞서 언급한 9개의 계수에 대한 미지수이고
Figure 112011040941914-pat00010
Figure 112011040941914-pat00011
의 초기 근사값이며 f는 공선 조건식의 함수이다.Using the Taylor series of Equation 6 can be linearized as shown in Equation 7.
Figure 112011040941914-pat00009
Is the unknown for the nine coefficients mentioned above
Figure 112011040941914-pat00010
silver
Figure 112011040941914-pat00011
Is an initial approximation of f and f is a function of the collinear condition.

Figure 112011040941914-pat00012
Figure 112011040941914-pat00012

수학식 8은 수학식 7을 야코비 행렬(Jacobian Matrix)로 표현한 결과이다. t1, t2는 수학식 9와 같이 치환되었다.Equation (8) is the result of expressing the equation (7) in a Jacobian matrix. t 1 and t 2 were substituted as in Equation (9).

Figure 112011040941914-pat00013
Figure 112011040941914-pat00013

Figure 112011040941914-pat00014
Figure 112011040941914-pat00014

수학식 8을 각각 수학식 10, 수학식 11, 수학식 12 등과 같이 성분별로 나누어 미분을 수행한다.Differentiation is performed by dividing Equation 8 by components such as Equation 10, Equation 11, and Equation 12, respectively.

Figure 112011040941914-pat00015
Figure 112011040941914-pat00015

Figure 112011040941914-pat00016
Figure 112011040941914-pat00016

Figure 112011040941914-pat00017
Figure 112011040941914-pat00017

수학식 12는 CP을

Figure 112011040941914-pat00018
에 대해 미분한 수식이고 수학식 13은 각 미지수별 성분을 보여주고 있다.
Figure 112011040941914-pat00019
는 외부 표정 요소 중 위치 요소,
Figure 112011040941914-pat00020
는 외부 표정 요소 중 자세 요소,
Figure 112011040941914-pat00021
는 지상점의 3차원 좌표를 의미한다.Equation 12 is C P
Figure 112011040941914-pat00018
Equation
13 is a differential equation for and Equation 13 shows the components for each unknown.
Figure 112011040941914-pat00019
Is the location element,
Figure 112011040941914-pat00020
The posture element,
Figure 112011040941914-pat00021
Is the three-dimensional coordinates of the ground point.

Figure 112011040941914-pat00022
Figure 112011040941914-pat00022

CP의

Figure 112011040941914-pat00023
Figure 112011040941914-pat00024
에 대한 미분값은 비교적 단순한 형태로 각각 수학식 14와 수학식 15처럼 표현된다. C P
Figure 112011040941914-pat00023
And
Figure 112011040941914-pat00024
The derivative value for is expressed in a relatively simple form as shown in Equations 14 and 15, respectively.

Figure 112011040941914-pat00025
Figure 112011040941914-pat00025

Figure 112011040941914-pat00026
Figure 112011040941914-pat00026

마찬가지로 CP의

Figure 112011040941914-pat00027
에 대한 미분값은 수학식 16과 같으며, C GR는 각 축의 회전각을 곱한 회전 행렬로서 수학식 17과 수학식 18로 표현할 수 있다. 수학식 17은 수학식 14 내지 수학식 16의 C GR을 정의하는 것이다. C GR은 카메라 좌표계에서 지상 좌표계로 변환할 때 쓰이는 회전 행렬이다. 수학식 18은 수학식 17에서 정의하고 있는 Rx(ω), Ry(φ), Rz(κ)를 정의하는 식이다. 여기서, ω, φ, κ는 각각 X, Y, Z축의 회전각이다.Like C P
Figure 112011040941914-pat00027
The derivative value for is equal to Equation 16, and C G R may be expressed as Equation 17 and Equation 18 as a rotation matrix multiplied by the rotation angle of each axis. Equation 17 defines C G R of Equations 14 to 16. C G R is a rotation matrix used to convert from the camera coordinate system to the ground coordinate system. Equation 18 is an equation for defining R x (ω), R y (φ), and R z (κ) defined in Equation 17. Here, ω, φ, and κ are rotation angles of the X, Y, and Z axes, respectively.

Figure 112011040941914-pat00028
Figure 112011040941914-pat00028

Figure 112011040941914-pat00029
Figure 112011040941914-pat00029

Figure 112011040941914-pat00030
Figure 112011040941914-pat00030

이리하여 C GR의 ω, φ, κ에 대한 미분값은 각각 수학식 19, 수학식 20, 수학식 21처럼 표현된다.Thus, the derivative values for ω, φ, and κ of C G R are expressed as in Equations 19, 20, and 21, respectively.

Figure 112011040941914-pat00031
Figure 112011040941914-pat00031

Figure 112011040941914-pat00032
Figure 112011040941914-pat00032

Figure 112011040941914-pat00033
Figure 112011040941914-pat00033

이상 설명한 수학식 14 내지 수학식 21은 관측 방정식을 푼 것으로 후술하는 수학식 22에서 y=AeApξe+ey에 해당한다.Equations 14 to 21 described above solve the observation equation and correspond to y = A e A p ξ e + e y in Equation 22 to be described later.

나. 타입별 제약 조건식 수립I. Establish constraint by type

수학식 22는 외부 표정 요소 및 지상 기준점을 제약 조건으로 사용한 관측 방정식을 보여주고 있다. ξe는 외부 표정 요소에 대한 미지수, ξp는 지상 기준점에 대한 미지수이다. y는 공액점의 관측값이고 Ae, Ap는 외부 표정 요소의 미지수인 ξe와 지상 기준점의 미지수 ξp에 대해 미분을 시행한 공선 조건식으로부터 유도된 디자인 매트리스이다. z1은 GPS/INS로부터 측정된 외부 표정 요소의 관측값 벡터이고, z2는 정지 GPS 및 토탈 스테이션으로부터 측정된 지상 기준점에 대한 관측값 벡터이다. K1, K2는 외부 표정 요소 및 지상 기준점 제약 조건에 대한 디자인 매트리스이다. ey, ez1, ez2 등은 y, z1, z2 등 관측 벡터와 관련된 에러 벡터를 의미한다. σ0 2은 미지수들의 분산 성분이며, Py - 1는 ey에 대한 코팩터 매트리스를 의미한다. Pz1 -1는 GPS/INS의 정밀도를 의미하는 ez1의 코팩터 매트리스이며, Pz2 - 1는 지상 기준점의 정밀도를 의미하는 ez2의 코팩터 매트리스를 의미한다.Equation 22 shows an observation equation using an external facial expression element and a ground control point as constraints. ξ e is unknown for external facial expressions and ξ p is unknown for ground control points. y is the observed value of the conjugate point, and A e , A p are the design mattresses derived from the collinear conditional equation that differentiates the unknown ξ e of the external facial expression element and the unknown ξ p of the ground reference point. z 1 is the observation vector of the external facial expression element measured from GPS / INS and z 2 is the observation vector to ground reference point measured from stationary GPS and total station. K 1 , K 2 are design mattresses for external facial expression factors and ground control point constraints. e y , e z1 , e z2 And the like mean an error vector associated with an observation vector such as y, z1, z2, and the like. σ 0 2 is the variance of the unknown component, P y - 1 means a cofactor for the mattress e y. -1 P z1 is the cofactor of the mattress e z1 indicating the accuracy of the GPS / INS, P z2 - 1 means a cofactor of the mattress e z2 indicating the accuracy of the ground control points.

Figure 112011040941914-pat00034
Figure 112011040941914-pat00034

본 발명에서는 적용되는 제약 조건에 따라 총 4개의 타입을 정의하고 각 타입에 따른 정확도 결과를 분석하였다. 타입 1에서는 제약 조건을 사용하지 않고 GPS/INS로부터 획득된 초기 외부 표정 요소를 이용하여 지상점을 추정한다. 타입 2와 타입 3에서는 각각 외부 표정 요소 및 지상 기준점을 제약 조건식에 적용하였다. 타입 4에서는 외부 표정 요소와 지상 기준점 모두를 제약 조건식에 적용하였다. 도 5의 (a)는 각 타입별로 사용한 요소 및 제약 조건을 보여주고 있으며, 도 5의 (b)는 각 타입별 사용된 수학적 모델식을 보여주고 있다.In the present invention, a total of four types were defined according to the applied constraints, and the accuracy results for each type were analyzed. In Type 1, the ground point is estimated using the initial external facial expression elements obtained from GPS / INS without using constraints. In type 2 and type 3, external facial expression elements and ground control points were applied to constraint equations, respectively. In Type 4, both external facial expression elements and ground control points were applied to the constraint. Figure 5 (a) shows the elements and constraints used for each type, Figure 5 (b) shows the mathematical model used for each type.

다. 실험 결과 및 분석All. Experimental Results and Analysis

본 발명에 대한 실험에서 사용한 전방위 영상 및 위치/자세 데이터는 전방위 카메라 및 GPS/INS를 탑재한 지상 MMS을 통해 획득하였다. 전방위 카메라는 Point Grey Research 사의 Ladybug3 모델로서 6개의 개별 CCD를 통해 획득된 영상을 하나의 영상으로 통합하여 전방위 영상을 생성하며 가로 방향 360도, 세로 방향 180도의 촬영범위(Field of View)를 갖는다. 도 6의 (a)는 Ladybug3의 사양을 보여주고 있으며 도 6의 (b)는 그 외관을 보여주고 있다.The omnidirectional image and position / posture data used in the experiments of the present invention were obtained through a terrestrial MMS equipped with an omnidirectional camera and GPS / INS. The omnidirectional camera is Point Gray Research's Ladybug3 model, which integrates images acquired through six individual CCDs into a single image to generate an omnidirectional image and has a field of view of 360 degrees in the horizontal direction and 180 degrees in the vertical direction. Figure 6 (a) shows the specification of Ladybug3 and Figure 6 (b) shows its appearance.

본 전방위 카메라가 6개의 개별적인 영상을 취득하여 최종적으로 통합된 하나의 영상을 생성하는 과정은 도 7의 (a)와 같다. 도 7의 (a)는 전방위 카메라 영상의 생성 과정(Point Grey Research, 2008)을 도시한 것이다. 첫 단계에서는 개별 CCD를 통해 획득된 Bayer-tiled Raw 영상을 JPEG 타입으로 영상 압축을 한 후 컴퓨터로 전송을 한다. 컴퓨터에서는 영상의 압축을 푼 후 RGB 컬러 영상으로 변환하여 그래픽카드로 전송을 한다. 여기서 각종 왜곡 등을 제거하는 보정(Rectification) 과정과 영상 텍스쳐의 좌표계를 변환하는 투영(Projection) 과정 및 영상을 서로 연결하는 블랜딩(Blending) 과정을 거쳐 최종 영상(Stitched Image)을 생성한다.A process in which the omnidirectional camera acquires six individual images and finally generates one integrated image is illustrated in FIG. 7A. FIG. 7A illustrates a generation process of the omnidirectional camera image (Point Gray Research, 2008). In the first step, Bayer-tiled Raw images obtained through individual CCDs are compressed to JPEG and then transferred to a computer. The computer decompresses the image and converts it to an RGB color image for transmission to the graphics card. Here, a final image is generated through a rectification process of removing various distortions, a projection process of converting a coordinate system of an image texture, and a blending process of connecting images.

전방위 영상이 획득되는 순간의 외부 표정 요소를 취득하기 위해 지상 MMS에 GPS/INS를 탑재하였다. 탑재된 시스템은 Applanix 사의 POSLV 420PP 모델로서 모바일 매핑 시스템 등의 이동형 시스템에 적합한 센서이다(Applanix, 2009). 3축 방향으로 가속도를 측정하는 가속도계(accelerometer)와 3개의 회전축의 각속도를 측정하는 자이로스코프(gyroscope)가 내장된 관성 관측 장치(IMU)로 구성되어 있다. GPS는 3차원 절대 좌표의 위치를 측정할 뿐만 아니라 2개의 GPS 안테나를 이용하여 INS의 오차를 보정하는 GAMS(GNSS Azimuth Measurement Subsystem)을 사용한다. 이것은 GPS의 반송파를 이용해 2개의 GPS 안테나 사이의 상대적 위치 벡터를 측정하는 시스템으로 연속적으로 INS의 오차를 보정한다. 도 7의 (b)는 탑재된 GPS/INS 시스템의 정확도를 보여주고 있다.GPS / INS was mounted on the terrestrial MMS to acquire the external facial expression of the moment when the omnidirectional image was acquired. The onboard system is an Applanix POSLV 420PP model that is suitable for mobile systems such as mobile mapping systems (Applanix, 2009). It consists of an inertial observation device (IMU) with an accelerometer that measures acceleration in three axes and a gyroscope that measures the angular velocity of three rotational axes. GPS uses the GMS (GNSS Azimuth Measurement Subsystem), which not only measures the position of three-dimensional absolute coordinates but also corrects the error of the INS using two GPS antennas. It is a system that measures the relative position vector between two GPS antennas using the carrier of GPS and continuously corrects the error of INS. Figure 7 (b) shows the accuracy of the GPS / INS system mounted.

도 8의 (a)는 본 실험에서 사용된 지상 MMS의 외관을 보여주고 있다. 시스템의 상단부에는 전방위 카메라가 탑재되어 있고 그 아래로는 IMU, GPS 안테나, 수신기 등이 탑재되어 있다.Figure 8 (a) shows the appearance of the ground MMS used in this experiment. At the top of the system is an omni-directional camera, below it an IMU, GPS antenna, and receiver.

본 실험에서는 오산시청 주변의 도로를 촬영한 연속된 24장의 전방위 영상을 이용하였다. 첫 영상과 마지막 영상 간의 거리는 약 100m 정도이며 연속된 두 영상 간의 간격은 약 4m이다. 도 8의 (b)는 본 실험 데이터를 획득한 장소 즉, 실험 대상지를 보여주고 있다. 그림의 중간을 가로지르는 노란색 점선은 차량의 이동 방향을 나타낸다. 노란색으로 표기된 수치들은 정지 GPS와 토탈 스테이션을 통해 획득한 지상점으로서 이 중 몇 개의 지상점은 기준점으로 사용되었으며 나머지 지상점은 검사점으로 사용되었다.In this experiment, 24 consecutive omnidirectional images of the road around Osan City Hall were used. The distance between the first image and the last image is about 100m and the distance between two consecutive images is about 4m. 8 (b) shows a place where the present experimental data was obtained, that is, a test subject. The yellow dashed line across the middle of the figure indicates the direction of movement of the vehicle. The numbers in yellow are ground points obtained from stationary GPS and total stations, some of which were used as reference points and the other ground points were used as check points.

도 9의 (a)는 지상 기준점 및 검사점의 위치를 도시한 것으로서, 앞서 설명한 지상점들의 위치 및 색인을 보여주고 있다. 붉은색 색인은 이 지상점이 기준점으로 활용된 것을 의미하며 검은색 색인은 검사점으로 사용된 것을 의미한다. 그리고 연속된 영상을 서로 연결해주기 위해 공액점을 추가적으로 선정하였다. 도 9의 (b)는 공액점들 중 한 쌍의 위치를 보여주고 있는 예시이다.9 (a) shows the positions of the ground reference point and the inspection point, and shows the positions and indexes of the ground points described above. The red index means this ground point is used as a reference point, and the black index is used as a check point. And conjugation point was additionally selected to connect the continuous images. 9 (b) is an example showing the position of a pair of conjugate points.

본 실험에서 사용한 모든 공액점과 관련되어 있는 지상점의 개수는 총 28개이다. 각 지상점은 최소 4장의 영상에서 최대 11장의 영상까지 촬영되었다. 연속된 두 장에 동시에 포함되어 있는 지상점의 평균 개수는 7.9장으로서 상호 표정시 최소로 필요한 공액점의 개수인 5장보다 많은 개수이다. 실험에서 사용한 영상 및 지상점에 대한 정보는 도 10의 (b)에 설명되어 있다. 도 10의 (b)는 실험 데이터 정보를 도시한 것이다. 각각의 영상에 포함되어 있는 지상점은 도 10의 (a)를 통해 확인할 수 있다. 도 10의 (a)는 영상과 지상점 사이의 관계를 도시한 것이다. 행은 지상점의 색인을 나타내며, 열은 영상의 색인을 나타낸다. 해당 영상에 해당 지상점이 있을 경우 붉은색, 아닌 경우 흰색으로 표시된다. 예를 들어, 1번 지상점은 1번 영상에 포함되지만 2번 영상에는 포함되지 않는다.There are a total of 28 ground points associated with all conjugate points used in this experiment. Each ground point was taken from a minimum of four images to a maximum of eleven images. The average number of ground points included in two consecutive chapters at the same time is 7.9, which is more than 5, the minimum number of conjugate points required for mutual expression. Information about the image and the ground point used in the experiment is described in Figure 10 (b). 10 (b) shows experimental data information. The ground point included in each image can be confirmed through (a) of FIG. 10. 10A illustrates a relationship between an image and a ground point. The row represents the index of the ground point, and the column represents the index of the image. If there is a ground point in the video, it will be displayed in red. For example, ground point 1 is included in image 1 but not image 2.

그리고, 전방위 영상을 통해 공액점을 측정할 시의 측정 오차는 ±1°로 설정하였다. 지상 기준점 및 GPS의 측정 오차는 ±5cm이고 INS의 오차는 ±0.05°이다.And, the measurement error when measuring the conjugate point through the omnidirectional image was set to ± 1 °. The measurement error of ground reference point and GPS is ± 5 cm and that of INS is ± 0.05 °.

실험은 실제로 실험 지역에서 획득한 전방위 영상 및 GPS/INS 데이터와 정지 GPS 및 토탈 스테이션으로 측정한 지상 기준점/검사점을 이용하여 진행하였다. 앞서 제안한 8가지의 수학적 모델에 기반하였으며 그 결과는 도 11의 (a)를 통해 확인할 수 있다. 도 11의 (a)는 타입 1~2에 대해 추정된 지상점 오차를 도시한 것이다. 도 11에서 외부 표정 요소를 확률 제약 조건으로 적용한 타입 B의 RMSE와 확률 제약 조건을 전혀 적용하지 않은 타입 A의 RMSE 차이가 매우 적음을 알 수 있다. 이는 타입 B에서 확률 제약 조건으로 적용하였던 추정된 외부 표정 요소가 지상 MMS의 GPS/INS로부터 획득된 초기 외부 표정 요소와 거의 같음을 의미한다. 이는 전방위 영상에서 공액점을 측정할 때의 측정 오차가 GPS/INS 측정 오차에 비해 크기 때문에 생기는 결과이다. 그러므로 연속되는 영상들을 이어주는 공액점을 통해 수행되는 상호 표정 과정은 외부 표정 요소의 정확도를 향상시킬 수 없다.The experiment was carried out using the omnidirectional image and GPS / INS data obtained from the test area and the ground reference point / test point measured by the stationary GPS and total station. Based on the eight mathematical models proposed above, the results can be confirmed through (a) of FIG. FIG. 11A illustrates the ground point error estimated for Types 1 and 2. FIG. In FIG. 11, it can be seen that the RMSE difference between the type B, which applies the external facial expression element as the probability constraint, and the RMSE difference between the type A, which does not apply the probability constraint at all, are very small. This means that the estimated external facial expression factor applied as a probability constraint in Type B is almost the same as the initial external facial expression factor obtained from GPS / INS of terrestrial MMS. This is because the measurement error when measuring the conjugate point in the omnidirectional image is larger than the GPS / INS measurement error. Therefore, the mutual expression process performed through the conjugate point connecting the consecutive images cannot improve the accuracy of the external expression elements.

도 11의 (b)는 타입 3과 타입 4를 통해 추정된 지상점의 오차를 보여주고 있다. 타입 3에서는 확률 제한 조건식에 4개의 지상 기준점(1, 4, 8, 10번)만을 적용하였다. RMSE를 다른 타입과 비교해 보면 그 오차값이 매우 낮음을 알 수 있다. 이를 통해 적은 수의 지상 기준점을 이용하여 ±5cm 정도의 정확도로 지상점 추정이 가능함을 알 수 있었다. 하지만 타입 3을 이용하기 위해서는 높은 정확도를 갖는 지상 기준점의 측정이 선행되어야 한다. 타입 4에서는 4개의 지상 기준점과 외부 표정 요소를 모두 확률 제한 조건식에 적용한 결과이다. 타입 1, 2에 비해서는 RMSE가 향상되었지만 타입 3에 비해서는 좋은 결과를 보여주지 못했다.11 (b) shows the error of the ground point estimated through the type 3 and type 4. In Type 3, only four ground control points (Nos. 1, 4, 8, and 10) were applied to the probability constraint. Comparing the RMSE with other types, the error is very low. Through this, it was found that the ground point can be estimated with the accuracy of ± 5cm using a small number of ground reference points. However, to use Type 3, the measurement of the ground reference point with high accuracy must be preceded. In Type 4, all four ground control points and external facial expressions are applied to the probability constraint condition. The RMSE is improved compared to Types 1 and 2, but did not show good results compared to Type 3.

도 12의 (a)는 측정된 영상점 좌표와 조정 계산된 영상점 좌표 간의 잔차를 각 타입별로 보여주고 있다. 잔차가 크다는 것은 측정된 영상점 좌표와 조정 계산된 영상점 좌표 간의 차이가 크며 외부 표정 요소와 지상점 좌표의 추정 결과가 좋지 않음을 의미한다. 각 타입별 잔차의 양은 도 12의 (a)와 같으며 그 통계량은 도 12의 (b)를 통해 확인할 수 있다. 도 12의 (a) ~ (b)를 통해 타입 3은 다른 타입에 비해 잔차가 매우 낮음을 알 수 있으며 이는 수학적 모델의 정확도가 매우 높음을 의미한다.FIG. 12A shows the residual between the measured image point coordinates and the adjusted calculated image point coordinates for each type. The large residual means that the difference between the measured image point coordinates and the adjusted calculated image point coordinates is large and that the estimation result of the external facial expression factor and the ground point coordinates is not good. The amount of residual for each type is the same as in FIG. 12A, and the statistic can be confirmed through FIG. 12B. 12 (a) to (b), it can be seen that Type 3 has a very low residual compared to other types, which means that the accuracy of the mathematical model is very high.

도 13은 추정된 지상점, 외부 표정 요소 및 확률 제약 조건에 사용되었던 지상 기준점과 정확도 비교를 위해 사용되었던 검사점을 보여주고 있다. 파란색 점은 추정된 지상점, 붉은색 점은 추정된 외부 표정 요소이다. 붉은색 원은 지상 기준점이고 녹색원은 검사점이다.FIG. 13 shows the ground points used for the estimated ground points, external facial expression factors, and probability constraints and the check points used for accuracy comparison. Blue points are estimated ground points, and red points are estimated external facial expressions. The red circle is the ground reference point and the green circle is the checkpoint.

다음으로, 도 1의 전방위 영상 광속 조정 장치에 의한 조정 방법에 대해서 설명한다. 도 14는 본 발명의 바람직한 실시예에 따른 전방위 영상 광속 조정 방법을 설명한 흐름도이다. 이하 설명은 도 14를 참조한다.Next, the adjustment method by the omnidirectional video luminous flux adjustment apparatus of FIG. 1 is demonstrated. 14 is a flowchart illustrating a method for adjusting the omnidirectional image luminous flux according to an exemplary embodiment of the present invention. The following description refers to FIG. 14.

먼저, 연속되는 전방위 영상들 중에서 선택된 공액점에 대하여 공선 조건식을 이용하여 관측 방정식 모델을 정립한다(관측 방정식 모델 정립 단계, S10).First, an observation equation model is established using a collinear conditional expression for a conjugate point selected from successive omnidirectional images (observation equation model establishment step, S10).

관측 방정식 모델 정립 단계(S10)에서는 전방위 영상과 관련된 영상 좌표계의 영상점 좌표, 지상 좌표계 상에 위치하는 지상점 좌표, 영상 좌표계 상에 위치하는 것으로서 지상점에 대응하는 영상점을 측정할 때에 발생되는 측정 오차, 및 지상 좌표계와 영상 좌표계 간 좌표 변환 계수를 이용하여 관측 방정식 모델을 정립할 수 있다. 이 점을 고려할 때, 관측 방정식 모델 정립 단계(S10)는 선형화 단계, 치환 단계, 미분 단계 및 정립 단계를 포함할 수 있다.In the observation equation model establishment step (S10), an image point coordinate of an image coordinate system related to an omnidirectional image, a ground point coordinate located on the ground coordinate system, and an image point corresponding to the ground point generated on the image coordinate system are generated. The observation equation model can be established using the measurement error and the coordinate transformation coefficient between the ground coordinate system and the image coordinate system. In view of this point, the observation equation model establishment step S10 may include a linearization step, a substitution step, a derivative step, and a formulation step.

선형화 단계는 테일러 급수를 이용하여 영상점 좌표, 지상점 좌표, 측정 오차, 및 좌표 변환 계수에 의한 연산식을 선형화시키는 단계를 의미한다. 치환 단계는 선형화된 연산식을 야코비 행렬 형태로 치환시키는 단계를 의미한다. 미분 단계는 치환된 연산식을 미리 정해진 각 성분에 대하여 미분시키는 단계를 의미한다. 정립 단계는 지상 좌표계와 영상 좌표계 간 변환을 위한 회전 행렬로서 전방위 영상 각 축의 회전각에 의한 회전 행렬을 이용하여 미분 단계에 의해 미분된 연산식들로 관측 방정식 모델을 정립하는 단계를 의미한다.The linearization step refers to a step of linearizing an equation based on image point coordinates, ground point coordinates, measurement errors, and coordinate transformation coefficients using a Taylor series. The substitution step refers to the step of replacing the linearized expression in the form of Jacobian matrix. The derivative step refers to a step of differentiating a substituted equation for each predetermined component. The establishing step refers to a step of establishing an observation equation model using equations differentiated by a differential step using a rotation matrix of rotation angles of each of the omnidirectional images as a rotation matrix for transformation between the ground coordinate system and the image coordinate system.

관측 방정식 모델 정립 단계(S10)에서는 전방위 영상의 공액점 좌표를 입력될 관측 데이터로 하고 지상점과 외부 표정 요소를 출력될 미지 변수로 하는 관측 방정식 모델을 정립할 수 있다.In the step of establishing the observation equation model (S10), the observation equation model may be established by using the coordinates of the coordinates of the omnidirectional image as the observation data to be input, and the ground point and the external facial expression as an unknown variable to be output.

관측 방정식 모델 정립 단계(S10) 이후, 미리 정해진 제약 조건을 반영 및 미반영하여 관측 방정식 모델에 부가하여 제약 조건식 모델들을 생성한다(제약 조건식 모델 생성 단계, S20). 제약 조건식 모델 생성 단계(S20)에서는 제약 조건으로 미리 저장된 외부 표정 요소와 지상 좌표계 상에 위치하는 지상 기준점을 이용할 수 있다. 이 점을 고려할 때, 본 실시예에 따른 전방위 영상 광속 조정 방법은 위치/자세 정보 획득 단계, 지상 기준점 획득 단계, 및 관측 데이터 획득 단계 중 적어도 하나의 단계를 더욱 수행할 수 있다.After the observation equation model establishment step S10, the constraint equation models are generated in addition to the observation equation model by reflecting and not reflecting a predetermined constraint (constraint model generation step, S20). In the constraint model generation step (S20), an external expression element previously stored as a constraint and a ground reference point positioned on the ground coordinate system may be used. In consideration of this point, the omnidirectional image luminous flux adjusting method according to the present embodiment may further perform at least one of position / posture information acquiring, ground reference point acquiring, and observation data acquiring.

위치/자세 정보 획득 단계에서는 위성 항법 장치(GPS) 또는 관성 항법 장치(INS)를 이용하여 외부 표정 요소로 전방위 영상을 획득하는 전방위 영상 획득 장치의 위치 정보와 자세 정보를 획득한다. 지상 기준점 획득 단계에서는 위성 항법 장치 또는 광파기를 이용하여 지상 기준점을 획득한다. 위치/자세 정보 획득 단계와 지상 기준점 획득 단계는 관측 방정식 모델 정립 단계(S10)와 제약 조건식 모델 생성 단계(S20) 사이에 수행된다. 그러나, 반드시 이에 한정되는 것은 아니며, 관측 방정식 모델 정립 단계(S10) 이전에 수행되는 것도 가능하다. 관측 데이터 획득 단계에서는 지상 사진 측량 시스템(MMS)을 이용하여 관측 데이터를 획득한다. 관측 데이터는 GPS/INS를 이용한 영상 획득 장치의 위치/자세 정보, 지상 기준점, 전방위 영상 등을 의미한다. 본 실시예에서 관측 데이터 획득 단계에서는 전방위 영상만을 획득하는 것도 가능하다. 관측 데이터 획득 단계는 제약 조건식 모델 생성 단계(S20)와 광속 조정 단계(S30) 사이에 수행된다. 그러나, 반드시 이에 한정되는 것은 아니며, 관측 방정식 모델 정립 단계(S10)와 제약 조건식 모델 생성 단계(S20) 사이에 수행되거나, 관측 방정식 모델 정립 단계(S10) 이전에 수행되는 것도 가능하다.In the step of obtaining position / posture information, position information and attitude information of an omnidirectional image acquisition device which acquires an omnidirectional image using an external facial expression element using a satellite navigation device (GPS) or an inertial navigation device (INS). In the ground reference point acquisition step, a ground reference point is obtained by using a satellite navigation device or an optical wave. The position / posture information acquisition step and the ground reference point acquisition step are performed between the observation equation model establishment step S10 and the constraint equation model generation step S20. However, the present invention is not limited thereto, and may be performed before the observation equation modeling step S10. In the observation data acquisition step, observation data is acquired using a ground photogrammetry system (MMS). The observation data refers to location / posture information, ground reference point, and omnidirectional image of the image acquisition device using GPS / INS. In the present embodiment, it is also possible to acquire only the omnidirectional image in the observation data acquisition step. The observation data acquisition step is performed between the constraint model generation step S20 and the luminous flux adjustment step S30. However, the present invention is not limited thereto, and may be performed between the observation equation model establishment step S10 and the constraint equation model generation step S20, or may be performed before the observation equation model establishment step S10.

제약 조건식 모델 생성 단계(S20) 이후, 생성된 제약 조건식 모델들과 정립된 관측 방정식 모델을 이용하여 전방위 영상을 광속 조정(bundle adjustment)한다(광속 조정 단계, S30). 광속 조정 단계(S30)에서는 광속 조정을 통해 전방위 영상과 관련된 것으로서 객체의 3차원 모델을 추출하기 위한 지상점과 외부 표정 요소를 추정할 수 있다.After the constraint model generation step S20, the omnidirectional image is bundle adjusted using the generated constraint equation models and the observation equation model established (S30). In the luminous flux adjustment step (S30), the ground point and the external facial expression for extracting the three-dimensional model of the object as related to the omnidirectional image through the luminous flux adjustment may be estimated.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are not intended to limit the technical spirit of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by the embodiments and the accompanying drawings. . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

본 발명에서 연속된 전방위 카메라 영상을 이용하여 지상점 및 외부 표정 요소의 추정이 가능함을 알 수 있었다. 이를 위해 전방위 영상에 적합한 공선 방정식을 새로이 수립하였고 이를 이용하여 관측 방정식도 수립하였다. 또한, GPS/INS로부터 획득된 외부 표정 요소 및 정지 GPS와 토탈 스테이션을 통해 획득된 지상 기준점을 이용한 확률 제약 조건식을 수립하여 4가지 타입별 정확도를 검증하였다. 본 발명을 통해 높은 정확도를 갖는 지상 기준점이 있다면 5cm 내외의 정확도를 갖는 지상점 추출이 가능함을 알 수 있었다. 이는 정밀한 3차원 도시 모델링 등의 분야에서 널리 활용될 수 있음을 의미한다. 본 발명은 실시간 공중 자료 획득 시스템 분야에도 적용 가능하다.In the present invention, it can be seen that the ground point and the external facial expressions can be estimated using the continuous omnidirectional camera image. For this, a new collinear equation suitable for the omnidirectional image was established, and an observation equation was also established. In addition, four types of accuracy were verified by establishing probability constraint equations using external facial expressions acquired from GPS / INS and ground reference points acquired through stationary GPS and total stations. Through the present invention, if the ground reference point with a high accuracy it can be seen that the ground point extraction with an accuracy of about 5cm. This means that it can be widely used in fields such as precise three-dimensional urban modeling. The present invention is also applicable to the field of real time aerial data acquisition system.

100 : 전방위 영상 광속 조정 장치 110 : 관측 방정식 모델 정립부
111 : 선형화부 112 : 치환부
113 : 미분부 114 : 정립부
120 : 제약 조건식 모델 생성부 130 : 광속 조정부
210 : 위치/자세 정보 획득부 220 : 지상 기준점 획득부
230 : 전방위 영상 획득부 240 : 공선 조건식 설정부
241 : 변환부 242 : 계산부
243 : 설정부
100: omnidirectional image luminous flux adjusting device 110: observation equation model formulation
111: linearization unit 112: substitution unit
113: differential part 114: upsetting part
120: constraint model generation unit 130: luminous flux adjusting unit
210: location / attitude information acquisition unit 220: ground reference point acquisition unit
230: omnidirectional image acquisition unit 240: collinear conditional setting unit
241 conversion unit 242 calculation unit
243: setting unit

Claims (14)

연속되는 전방위 영상들 중에서 선택된 공액점에 대하여 공선 조건식을 이용하여 관측 방정식 모델을 정립하는 관측 방정식 모델 정립부;
상기 관측 방정식 모델에 미리 정해진 제약 조건을 부가하여 제약 조건식 모델들을 생성하는 제약 조건식 모델 생성부; 및
생성된 제약 조건식 모델들과 정립된 관측 방정식 모델을 이용하여 상기 전방위 영상을 광속 조정(bundle adjustment)하는 광속 조정부
를 포함하는 것을 특징으로 하는 전방위 영상 광속 조정 장치.
An observation equation modeling unit for establishing an observation equation model using a collinear condition equation for a conjugate point selected from consecutive omnidirectional images;
A constraint model generator for generating constraint models by adding predetermined constraints to the observation equation model; And
Luminous flux adjusting unit for bundling the omnidirectional image using the generated constraint equation models and the observation equation model established
The omnidirectional image beam adjustment device comprising a.
제 1 항에 있어서,
상기 광속 조정부는 상기 광속 조정을 통해 상기 전방위 영상과 관련된 것으로서 객체의 3차원 모델을 추출하기 위한 지상점과 외부 표정 요소를 추정하는 것을 특징으로 하는 전방위 영상 광속 조정 장치.
The method of claim 1,
And the luminous flux adjusting unit estimates a ground point and an external facial expression for extracting a three-dimensional model of an object as related to the omnidirectional image through the luminous flux adjustment.
제 1 항에 있어서,
상기 제약 조건식 모델 생성부는 상기 제약 조건으로 미리 저장된 외부 표정 요소와 지상 좌표계 상에 위치하는 지상 기준점을 이용하는 것을 특징으로 하는 전방위 영상 광속 조정 장치.
The method of claim 1,
And the constraint model generator uses an external facial expression element pre-stored as the constraint and a ground reference point positioned on a ground coordinate system.
제 3 항에 있어서,
위성 항법 장치(GPS) 또는 관성 항법 장치(INS)를 이용하여 상기 외부 표정 요소로 상기 전방위 영상을 획득하는 전방위 영상 획득 장치의 위치 정보와 자세 정보를 획득하는 위치/자세 정보 획득부; 및
상기 위성 항법 장치 또는 광파기를 이용하여 상기 지상 기준점을 획득하는 지상 기준점 획득부;를 포함하고,
상기 위치/자세 정보 획득부는,
상기 전방위 영상을 획득하는 전방위 영상 획득부를 포함하는 것을 특징으로 하는 전방위 영상 광속 조정 장치.
The method of claim 3, wherein
A position / posture information acquisition unit for acquiring position information and attitude information of the omnidirectional image acquisition device which acquires the omnidirectional image with the external facial expression element using a satellite navigation device (GPS) or an inertial navigation device (INS); And
And a ground reference point obtaining unit which obtains the ground reference point using the satellite navigation apparatus or the optical wave.
The location / posture information acquisition unit,
And a omnidirectional image obtaining unit for acquiring the omnidirectional image.
제 1 항에 있어서,
상기 관측 방정식 모델 정립부는 상기 전방위 영상과 관련된 영상 좌표계의 영상점 좌표, 지상 좌표계 상에 위치하는 지상점 좌표, 상기 영상 좌표계 상에 위치하는 것으로서 지상점에 대응하는 영상점을 측정할 때에 발생되는 측정 오차, 및 상기 지상 좌표계와 상기 영상 좌표계 간 좌표 변환 계수를 이용하여 상기 관측 방정식 모델을 정립하는 것을 특징으로 하는 전방위 영상 광속 조정 장치.
The method of claim 1,
The observation equation modeling unit is a measurement generated when measuring an image point coordinate of an image coordinate system related to the omnidirectional image, a ground point coordinate located on a ground coordinate system, and an image point corresponding to a ground point located on the image coordinate system. And the observation equation model is established using an error and a coordinate transformation coefficient between the ground coordinate system and the image coordinate system.
제 5 항에 있어서,
상기 관측 방정식 모델 정립부는,
테일러 급수를 이용하여 상기 영상점 좌표, 상기 지상점 좌표, 상기 측정 오차, 및 상기 좌표 변환 계수에 의한 연산식을 선형화시키는 선형화부;
선형화된 연산식을 야코비 행렬 형태로 치환시키는 치환부;
치환된 연산식을 미리 정해진 각 성분에 대하여 미분시키는 미분부; 및
상기 지상 좌표계와 상기 영상 좌표계 간 변환을 위한 회전 행렬로서 상기 전방위 영상 각 축의 회전각에 의한 상기 회전 행렬을 이용하여 상기 미분부에 의해 미분된 연산식들로 상기 관측 방정식 모델을 정립하는 정립부
를 포함하는 것을 특징으로 하는 전방위 영상 광속 조정 장치.
The method of claim 5, wherein
The observation equation model formulation,
A linearizer which linearizes an expression by the image point coordinates, the ground point coordinates, the measurement error, and the coordinate transformation coefficients using a Taylor series;
Substituent for substituting the linearized equation in the form of Jacobian;
A derivative unit for differentiating a substituted expression for each predetermined component; And
Sizing unit for establishing the observation equation model using differential equations differentiated by the differentiation unit using the rotational matrix by the rotation angle of each omnidirectional image as a rotation matrix for transforming between the ground coordinate system and the image coordinate system
The omnidirectional image beam adjustment device comprising a.
제 2 항에 있어서,
상기 관측 방정식 모델 정립부는 상기 전방위 영상의 공액점 좌표를 입력될 상기 관측 데이터로 하고 상기 지상점과 상기 외부 표정 요소를 출력될 미지 변수로 하는 관측 방정식 모델을 정립하는 것을 특징으로 하는 전방위 영상 광속 조정 장치.
The method of claim 2,
The observation equation modeling unit establishes an observation equation model using the conjugate point coordinates of the omnidirectional image as the observation data to be input, and the ground point and the external facial expression element as an unknown variable to be output. .
연속되는 전방위 영상들 중에서 선택된 공액점에 대하여 공선 조건식을 이용하여 관측 방정식 모델을 정립하는 관측 방정식 모델 정립 단계;
상기 관측 방정식 모델에 미리 정해진 제약 조건을 부가하여 제약 조건식 모델들을 생성하는 제약 조건식 모델 생성 단계; 및
생성된 제약 조건식 모델들과 정립된 관측 방정식 모델을 이용하여 상기 전방위 영상을 광속 조정(bundle adjustment)하는 광속 조정 단계
를 포함하는 것을 특징으로 하는 전방위 영상 광속 조정 방법.
An observation equation modeling step of establishing an observation equation model using a collinear condition equation for a conjugate point selected from successive omnidirectional images;
Generating a constraint equation model by adding a predetermined constraint to the observation equation model; And
Luminous flux adjustment step of bundle adjustment of the omnidirectional image using the generated constraint equation models and the observation equation model established
The omnidirectional image beam adjustment method comprising a.
제 8 항에 있어서,
상기 광속 조정 단계는 상기 광속 조정을 통해 상기 전방위 영상과 관련된 것으로서 객체의 3차원 모델을 추출하기 위한 지상점과 외부 표정 요소를 추정하는 것을 특징으로 하는 전방위 영상 광속 조정 방법.
The method of claim 8,
And adjusting the luminous flux by estimating a ground point and an external facial expression for extracting a three-dimensional model of an object related to the omnidirectional image through the luminous flux adjustment.
제 8 항에 있어서,
상기 제약 조건식 모델 생성 단계는 상기 제약 조건으로 미리 저장된 외부 표정 요소와 지상 좌표계 상에 위치하는 지상 기준점을 이용하는 것을 특징으로 하는 전방위 영상 광속 조정 방법.
The method of claim 8,
And generating the constraint model using an external expression element previously stored as the constraint and a ground reference point positioned on a ground coordinate system.
제 10 항에 있어서,
위성 항법 장치(GPS) 또는 관성 항법 장치(INS)를 이용하여 상기 외부 표정 요소로 상기 전방위 영상을 획득하는 전방위 영상 획득 장치의 위치 정보와 자세 정보를 획득하는 위치/자세 정보 획득 단계;
상기 위성 항법 장치 또는 광파기를 이용하여 상기 지상 기준점을 획득하는 지상 기준점 획득 단계; 및
지상 사진 측량 시스템(MMS)을 이용하여 관측 데이터를 획득하는 관측 데이터 획득 단계
를 더욱더 포함하는 것을 특징으로 하는 전방위 영상 광속 조정 방법.
11. The method of claim 10,
A position / posture information acquiring step of acquiring position information and attitude information of the omnidirectional image acquisition device which acquires the omnidirectional image with the external facial expression element using a satellite navigation device (GPS) or an inertial navigation device (INS);
A ground reference point obtaining step of obtaining the ground reference point using the satellite navigation apparatus or the optical wave; And
Observation data acquisition step of acquiring observation data using a ground photogrammetry system (MMS)
The omnidirectional image luminous flux adjustment method further comprising.
제 8 항에 있어서,
상기 관측 방정식 모델 정립 단계는 상기 전방위 영상과 관련된 영상 좌표계의 영상점 좌표, 지상 좌표계 상에 위치하는 지상점 좌표, 상기 영상 좌표계 상에 위치하는 것으로서 지상점에 대응하는 영상점을 측정할 때에 발생되는 측정 오차, 및 상기 지상 좌표계와 상기 영상 좌표계 간 좌표 변환 계수를 이용하여 상기 관측 방정식 모델을 정립하는 것을 특징으로 하는 전방위 영상 광속 조정 방법.
The method of claim 8,
The step of establishing an observation equation model is generated when measuring an image point coordinate of an image coordinate system related to the omnidirectional image, a ground point coordinate located on a ground coordinate system, and an image point corresponding to a ground point located on the image coordinate system. And the observation equation model is established using a measurement error and a coordinate transformation coefficient between the terrestrial coordinate system and the image coordinate system.
제 12 항에 있어서,
상기 관측 방정식 모델 정립 단계는,
테일러 급수를 이용하여 상기 영상점 좌표, 상기 지상점 좌표, 상기 측정 오차, 및 상기 좌표 변환 계수에 의한 연산식을 선형화시키는 선형화 단계;
선형화된 연산식을 야코비 행렬 형태로 치환시키는 치환 단계;
치환된 연산식을 미리 정해진 각 성분에 대하여 미분시키는 미분 단계; 및
상기 지상 좌표계와 상기 영상 좌표계 간 변환을 위한 회전 행렬로서 상기 전방위 영상 각 축의 회전각에 의한 상기 회전 행렬을 이용하여 상기 미분 단계에 의해 미분된 연산식들로 상기 관측 방정식 모델을 정립하는 정립 단계
를 포함하는 것을 특징으로 하는 전방위 영상 광속 조정 방법.
13. The method of claim 12,
The observation equation model formulation step,
Linearizing a calculation equation based on the image point coordinates, the ground point coordinates, the measurement error, and the coordinate transformation coefficients using a Taylor series;
A substitution step of replacing the linearized expression in the form of a Jacobi matrix;
A derivative step of differentiating the substituted equation for each predetermined component; And
Formulation step of establishing the observation equation model with the equations differentiated by the derivative step using the rotation matrix by the rotation angle of each axis of the omnidirectional image as a rotation matrix for the transformation between the ground coordinate system and the image coordinate system
The omnidirectional image beam adjustment method comprising a.
제 9 항에 있어서,
상기 관측 방정식 모델 정립 단계는 상기 전방위 영상의 공액점 좌표를 입력될 상기 관측 데이터로 하고 상기 지상점과 상기 외부 표정 요소를 출력될 미지 변수로 하는 관측 방정식 모델을 정립하는 것을 특징으로 하는 전방위 영상 광속 조정 방법.
The method of claim 9,
In the step of establishing the observation equation model, the observation image model is adjusted by using the coordinates of the omnidirectional image as the observation data to be input and establishing the observation equation model using the ground point and the external facial expression as an unknown variable. Way.
KR1020110052212A 2010-05-31 2011-05-31 Apparatus and method for bundle adjustment of omni-directional images KR101249369B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020100051170 2010-05-31
KR20100051170 2010-05-31

Publications (2)

Publication Number Publication Date
KR20110132278A KR20110132278A (en) 2011-12-07
KR101249369B1 true KR101249369B1 (en) 2013-04-01

Family

ID=45500455

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110052212A KR101249369B1 (en) 2010-05-31 2011-05-31 Apparatus and method for bundle adjustment of omni-directional images

Country Status (1)

Country Link
KR (1) KR101249369B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170037197A (en) 2015-09-25 2017-04-04 한남대학교 산학협력단 Foldable frame for mobile mapping system with multi sensor module

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101277427B1 (en) * 2012-12-05 2013-06-20 (주)지오투정보기술 Method and system for correcting a distortion of image data using a parameter and comparing the corrected image data and aerial photograph
US9064352B2 (en) 2013-04-24 2015-06-23 Caterpillar Inc. Position identification system with multiple cross-checks
KR101690950B1 (en) * 2015-11-19 2016-12-29 국방과학연구소 Method for correcting pushbroom scan scheme strip satellite images geometrically using minimum ground point and System thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009014629A (en) * 2007-07-06 2009-01-22 Topcon Corp Position measuring apparatus and position measuring method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009014629A (en) * 2007-07-06 2009-01-22 Topcon Corp Position measuring apparatus and position measuring method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170037197A (en) 2015-09-25 2017-04-04 한남대학교 산학협력단 Foldable frame for mobile mapping system with multi sensor module

Also Published As

Publication number Publication date
KR20110132278A (en) 2011-12-07

Similar Documents

Publication Publication Date Title
US10885328B2 (en) Determination of position from images and associated camera positions
JP6484729B2 (en) Unmanned aircraft depth image acquisition method, acquisition device, and unmanned aircraft
Nagai et al. UAV-borne 3-D mapping system by multisensor integration
US8098958B2 (en) Processing architecture for automatic image registration
JP5992184B2 (en) Image data processing apparatus, image data processing method, and image data processing program
US8059887B2 (en) System and method for providing mobile range sensing
KR101179108B1 (en) System for determining 3-dimensional coordinates of objects using overlapping omni-directional images and method thereof
KR102295809B1 (en) Apparatus for acquisition distance for all directions of vehicle
JP4132068B2 (en) Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus
Chen et al. Calibration and validation of ZY-3 optical sensors
KR101249369B1 (en) Apparatus and method for bundle adjustment of omni-directional images
KR101224830B1 (en) Portable Multi-Sensor System for Acquiring Georeferenced Images and Method thereof
Qiu et al. A high-precision calibration approach for Camera-IMU pose parameters with adaptive constraints of multiple error equations
Bybee et al. Method for 3-D scene reconstruction using fused LiDAR and imagery from a texel camera
Pi et al. On-orbit geometric calibration using a cross-image pair for the linear sensor aboard the agile optical satellite
Wang et al. Geometric calibration for the aerial line scanning camera Gfxj
Rau et al. Development of a large-format uas imaging system with the construction of a one sensor geometry from a multicamera array
Hasheminasab et al. Multiscale image matching for automated calibration of UAV-based frame and line camera systems
CN109341685B (en) Fixed wing aircraft vision auxiliary landing navigation method based on homography transformation
Mirisola et al. Trajectory recovery and 3d mapping from rotation-compensated imagery for an airship
Zhang et al. Interior orientation error modelling and correction for precise georeferencing of satellite imagery
Zhou et al. Unmanned Aerial Vehicle (UAV) data flow processing for natural disaster response
Mirisola Exploiting attitude sensing in vision-based navigation, mappping and tracking including results from an airship
Zhou et al. Multi-Primitive Triangulation of Airborne and Terrestrial Mobile Mapping Image and LIDAR Data
He et al. A Structure-from-Motion Approach Using UAV-based Imagery for Precision Agriculture Applications

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160202

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170316

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180124

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190201

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20200203

Year of fee payment: 8