KR101179108B1 - System for determining 3-dimensional coordinates of objects using overlapping omni-directional images and method thereof - Google Patents

System for determining 3-dimensional coordinates of objects using overlapping omni-directional images and method thereof Download PDF

Info

Publication number
KR101179108B1
KR101179108B1 KR1020110039678A KR20110039678A KR101179108B1 KR 101179108 B1 KR101179108 B1 KR 101179108B1 KR 1020110039678 A KR1020110039678 A KR 1020110039678A KR 20110039678 A KR20110039678 A KR 20110039678A KR 101179108 B1 KR101179108 B1 KR 101179108B1
Authority
KR
South Korea
Prior art keywords
point
image
ground
coordinate system
camera
Prior art date
Application number
KR1020110039678A
Other languages
Korean (ko)
Other versions
KR20110119589A (en
Inventor
이임평
오태완
Original Assignee
서울시립대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울시립대학교 산학협력단 filed Critical 서울시립대학교 산학협력단
Publication of KR20110119589A publication Critical patent/KR20110119589A/en
Application granted granted Critical
Publication of KR101179108B1 publication Critical patent/KR101179108B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial

Abstract

본 발명에 의한 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템 및 그 방법이 개시된다.
본 발명에 따른 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템은 중첩된 전방위 영상을 획득하는 영상정보 획득수단; 상기 영상정보 획득수단의 위치 정보와 자세 정보를 획득하는 위치정보 획득수단; 및 상기 중첩된 전방위 영상, 상기 위치 정보와 자세 정보, 기 설정된 대상지점에 대한 공액점의 영상 좌표값을 기반으로 카메라 좌표계 상에서의 영상점 벡터를 산출하여 산출된 상기 영상점 벡터를 이용하여 지상 좌표계 상에서 지상점이 존재하는 2개 이상의 직선의 방정식을 유도하고, 유도된 상기 2개 이상의 직선의 방정식의 교차점을 산출하여 산출된 상기 교차점을 이용하여 상기 대상지점에 대한 3차원 좌표값을 결정하는 사용자 단말기를 포함한다.
이를 통해, 본 발명은 대상지점에 대한 3차원 좌표의 정확도를 향상시킬 수 있다.
Disclosed are a system and method for determining three-dimensional coordinates of an object using overlapping omnidirectional images according to the present invention.
A system for determining three-dimensional coordinates of an object using an overlapping omnidirectional image according to the present invention includes image information obtaining means for obtaining an overlapping omnidirectional image; Location information acquisition means for obtaining location information and attitude information of the image information acquisition means; And an image point vector calculated on a camera coordinate system based on the overlapped omnidirectional image, the position information and attitude information, and an image coordinate value of a conjugate point with respect to a preset target point. A user terminal which derives an equation of two or more straight lines in which a ground point exists, and determines a three-dimensional coordinate value for the target point by using the intersection point calculated by calculating an intersection point of the derived two or more linear equations; Include.
Through this, the present invention can improve the accuracy of the three-dimensional coordinates for the target point.

Description

중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템 및 그 방법{SYSTEM FOR DETERMINING 3-DIMENSIONAL COORDINATES OF OBJECTS USING OVERLAPPING OMNI-DIRECTIONAL IMAGES AND METHOD THEREOF}System and method for determining three-dimensional coordinates of an object using superimposed omnidirectional image {SYSTEM FOR DETERMINING 3-DIMENSIONAL COORDINATES OF OBJECTS USING OVERLAPPING OMNI-DIRECTIONAL IMAGES AND METHOD THEREOF}

본 발명은 3차원 좌표 결정 방법에 관한 것으로, 특히, 두 개의 중첩된 전방위 영상에서 선정한 공액점으로부터 유도한 각각의 직선의 교점을 계산하여 대상지점의 3차원 좌표를 결정할 수 있는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템 및 그 방법에 관한 것이다.The present invention relates to a three-dimensional coordinate determination method, in particular, by using the overlapping omnidirectional image that can determine the three-dimensional coordinates of the target point by calculating the intersection of each straight line derived from the conjugate point selected from the two overlapping omnidirectional image A system and method for determining three-dimensional coordinates of an object.

고품질 공간정보의 보다 신속하고 경제적인 구축을 위해 최근에는 다양한 플랫폼에 탑재된 다양한 센서들의 융합에 기반한 연구들이 활발히 진행되고 있다. 무인항공기(Unmanned Aero Vehicle; UAV)를 플랫폼으로 하여 카메라 및 GPS/INS 등의 멀티센서가 탑재된 시스템을 이용해 공간정보를 취득하는 시스템이 개발되고 있다. 항공기를 이용한 공간정보 획득시스템은 도심지의 경우 건물 벽면의 텍스쳐 획득에 취약하기 때문에 모바일매핑시스템과 같이 차량을 이용한 시스템의 활용이 요구된다. 모바일매핑이란 도로, 교통시설물, 도로주변의 건물 등 지형지물의 정보를 움직이는 차량을 이용해 취득하는 것을 말한다. 또한, 멀티센서를 차량에 탑재한 모바일매핑시스템이 개발되었으며, 모바일매핑시스템을 이용하여 이동객체를 추적하고 필요한 특정 개체만을 추출하는 연구가 이루어졌다.Recently, researches based on the convergence of various sensors mounted on various platforms have been actively conducted for faster and more economical construction of high quality spatial information. A system for acquiring spatial information using a system equipped with a multi-sensor, such as a camera and GPS / INS, is being developed using an unmanned aero vehicle (UAV) as a platform. Spatial information acquisition system using aircraft is vulnerable to texture acquisition of building walls in urban areas, so it is required to utilize the system using vehicle like mobile mapping system. Mobile mapping refers to acquiring information on a feature such as roads, traffic facilities, or buildings around a road using a moving vehicle. In addition, a mobile mapping system equipped with a multi-sensor has been developed, and a research has been conducted to track a moving object and extract only a specific object required by using a mobile mapping system.

최근에는 모바일매핑시스템에 전방위 카메라(Omni-directional Camera)를 탑재하여 공간정보를 획득하려는 시도가 활발하게 이루어지고 있다. 전방위 카메라를 탑재한 모바일매핑시스템은 차량 진행방향에 따라 중복 촬영한 영상을 이용하여 지형지물의 위치를 산출한다. 이러한 경우 프레임 카메라를 사용하는 방식에 비해 기선이 길어져 높은 정확도를 갖는 결과물 생성이 가능하다. 이와 관련하여 전방위 카메라 및 주행 기록계(odometer)를 탑재한 모바일매핑시스템 이용을 통해 옵티컬 플로어(optical flow) 기반의 지형지물 인식 연구 등이 있었다.Recently, attempts have been made to acquire spatial information by mounting omni-directional cameras on mobile mapping systems. The mobile mapping system equipped with the omnidirectional camera calculates the position of the feature by using the overlapped images according to the vehicle traveling direction. In this case, the baseline is longer than that of the frame camera, so the result can be generated with high accuracy. In relation to this, there was a research on optical flow based feature recognition through the use of a mobile mapping system equipped with an omnidirectional camera and an odometer.

전방위 카메라란 시야각(Filed of View; FOV)이 360ㅀ이기 때문에 촬영 지점을 기준으로 모든 방향의 영상정보 취득이 가능한 카메라를 말한다. 기존의 전방위 카메라는 반구 모양의 거울을 통해 반사된 영상데이터를 하나의 CCD에 입력하여 전방위 영상을 취득하는 방식이었으나 이러한 전방위 카메라 영상은 반구거울을 사용하는 동작방식에 의해 필연적으로 많은 왜곡(distortion)들을 포함하고 있다.The omnidirectional camera refers to a camera capable of acquiring image information in all directions from the photographing point because the field of view is 360 °. Conventional omnidirectional cameras have been obtained by omnidirectional image by inputting image data reflected through a hemispherical mirror into a single CCD, but these omnidirectional camera images inevitably have many distortions due to the operation method using a hemisphere mirror. It contains them.

이러한 전방위 영상에서 발생하는 왜곡을 CCD 센서에 맺히는 투영의 중심과 상 사이의 각을 이용하여 보정하려는 노력이 있었으나 왜곡을 완전하게 제거할 수 없었다.Efforts have been made to correct the distortion in the omnidirectional image using the angle between the center and the image of the projection formed on the CCD sensor, but the distortion could not be completely removed.

최근에는 거울을 이용한 방식이 아닌 여러 개의 카메라를 이용한 전방위 카메라가 등장하였다. 그 중 Ladybug라는 전방위 카메라는 서로 다른 범위를 촬영하는 6개의 카메라를 통해 영상을 획득한다. 각 카메라로부터 획득된 6개의 영상들은 영상처리를 통해 모든 방향으로의 영상정보를 갖는 한 장의 전방위 영상으로 생성된다. 이러한 방식으로 생성된 전방위 영상은 기존의 반구거울을 이용한 전방위 카메라 영상에 비해 왜곡은 적고 공간해상도가 높다.Recently, omnidirectional cameras using multiple cameras have appeared, rather than using mirrors. Among them, the ladybug omni-directional camera acquires images through six cameras shooting different ranges. Six images obtained from each camera are generated as a single omnidirectional image having image information in all directions through image processing. The omnidirectional image generated in this way has less distortion and higher spatial resolution than conventional omnidirectional mirror images.

전방위 카메라는 다양한 분야에서 사용되어 왔다. 이동 로봇 시스템 분야에서는 Tracking vertex와 Line features를 이용하는 방법을 사용하여 로봇의 위치 및 방향을 감지하고 이를 이용해 이동경로 결정하는 연구가 진행되었다. 전방위 영상의 옵티컬 플로어 백터를 이용하여 로봇의 방향을 계산하는 방법도 제안되었다. 이 밖에도 전방위 영상을 평면에 투사하여 객체를 인식하고 추적하는 연구가 수행되었다.All-round cameras have been used in various fields. In the field of mobile robot system, a research was conducted to detect the position and direction of the robot by using tracking vertex and line features, and to determine the movement path by using it. A method of calculating the direction of the robot using the optical floor vector of the omnidirectional image has also been proposed. In addition, research has been carried out to recognize and track objects by projecting omnidirectional images onto a plane.

모바일매핑시스템은 다양한 종류의 센서들을 결합하여 구성되므로 센서들의 성능에 따라 전체 시스템의 성능이 결정된다고 할 수 있다. 기존의 전방위 카메라를 탑재한 지상 모바일매핑시스템은 주로 객체의 움직임을 개략적으로 탐지하거나 가공되지 않은 원시 영상만을 제공하는 로드뷰(Road View) 서비스에 사용되어 왔다.Since the mobile mapping system is configured by combining various types of sensors, the performance of the entire system is determined by the performance of the sensors. Existing omnidirectional cameras with ground mobile mapping systems have been used mainly for road view services, which typically detect the movement of objects or provide only raw raw images.

따라서 이러한 종래 기술의 문제점을 해결하기 위한 것으로, 본 발명의 목적은 두 개의 중첩된 전방위 영상에서 선정한 공액점으로부터 유도한 각각의 직선의 교점을 계산하여 대상지점의 3차원 좌표를 결정할 수 있는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템 및 그 방법을 제공하는데 있다.Therefore, to solve the problems of the prior art, an object of the present invention is to calculate the intersection of each straight line derived from the conjugate point selected from the two overlapping omnidirectional images to determine the three-dimensional coordinates of the target point To provide a system and method for determining the three-dimensional coordinates of an object by using a.

그러나 본 발명의 목적은 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to those mentioned above, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상기 목적들을 달성하기 위하여, 본 발명의 한 관점에 따른 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템은 중첩된 전방위 영상을 획득하는 영상정보 획득수단; 상기 영상정보 획득수단의 위치 정보와 자세 정보를 획득하는 위치정보 획득수단; 및 상기 중첩된 전방위 영상, 상기 위치 정보와 자세 정보, 기 설정된 대상지점에 대한 공액점의 영상 좌표값을 기반으로 카메라 좌표계 상에서의 영상점 벡터를 산출하여 산출된 상기 영상점 벡터를 이용하여 지상 좌표계 상에서 지상점이 존재하는 2개 이상의 직선의 방정식을 유도하고, 유도된 상기 2개 이상의 직선의 방정식의 교차점을 산출하여 산출된 상기 교차점을 이용하여 상기 대상지점에 대한 3차원 좌표값을 결정하는 사용자 단말기를 포함할 수 있다.In order to achieve the above objects, a system for determining three-dimensional coordinates of an object using an overlapping omnidirectional image according to an aspect of the present invention includes image information obtaining means for obtaining an overlapping omnidirectional image; Location information acquisition means for obtaining location information and attitude information of the image information acquisition means; And an image point vector calculated on a camera coordinate system based on the overlapped omnidirectional image, the position information and attitude information, and an image coordinate value of a conjugate point with respect to a preset target point. A user terminal which derives an equation of two or more straight lines in which a ground point exists, and determines a three-dimensional coordinate value for the target point by using the intersection point calculated by calculating an intersection point of the derived two or more linear equations; It may include.

바람직하게, 상기 사용자 단말기는 적어도 두 개의 충접된 전방위 영상에서 임의의 대상지점이 선택되면 각 전방위 영상으로부터 그 대상지점에 대한 공액점의 영상 좌표값을 산출할 수 있다.The user terminal may calculate an image coordinate value of a conjugate point of the target point from each of the omnidirectional images when an arbitrary target point is selected from at least two abutted omnidirectional images.

바람직하게, 상기 사용자 단말기는 상기 공액점의 영상 좌표값을 기반으로 카메라 좌표계 상에서 상기 전방위 카메라의 투영 중심에서 영상점을 잇는 영상점 벡터를 산출할 수 있다.Preferably, the user terminal may calculate an image point vector connecting the image points at the projection center of the omnidirectional camera on the camera coordinate system based on the image coordinate values of the conjugate points.

바람직하게, 상기 사용자 단말기는 상기 카메라 좌표계로 표현된 영상점 벡터를 이용하여 상기 지상 좌표계로 표현되는 지상점이 존재하는 직선의 방정식을 유도하되, 상기 직선의 방정식은 수학식

Figure 112011031426248-pat00001
로 정의하고, 여기서, 상기 GP는 지상 좌표계로 표현된 지상점의 좌표를 의미하며 카메라의 투영 중심, 영상점과 지상점을 잇는 상기 직선 상에 존재하고, 상기 λ는 상기 직선 상에 한 점을 특정하기 위한 변수를 나타내며, 상기
Figure 112011031426248-pat00002
는 카메라 좌표계로 표현된 벡터를 지상좌표계로 변환하기 위한 회전행렬을 나타내며, 상기 Cn는 카메라 좌표계로 표현되 영상점 벡터를 나타내며, 상기 GOC는 지상 좌표계로 표현된 카메라의 투영 중심을 나타낼 수 있다.Preferably, the user terminal derives an equation of a straight line having a ground point represented by the ground coordinate system using the image point vector represented by the camera coordinate system, wherein the equation of the straight line is
Figure 112011031426248-pat00001
Wherein, G P is the coordinate of the ground point represented by the ground coordinate system and is present on the straight line connecting the projection center of the camera, the image point and the ground point, and λ is one point on the straight line. Represents a variable for specifying
Figure 112011031426248-pat00002
Denotes a rotation matrix for converting a vector expressed in a camera coordinate system into a ground coordinate system, C n denotes an image point vector expressed in a camera coordinate system, and G O C denotes a projection center of a camera expressed in a ground coordinate system. Can be.

바람직하게, 상기 사용자 단말기는 2개 이상의 중첩된 영상에서 선정한 공액점으로부터 각각 유도한 2개 이상의 상기 직선의 방정식을 이용하여 직선 간의 거리의 제곱이 합이 최소인 상기 교차점을 산출하여 산출된 상기 교차점을 이용하여 각 직선마다 지상점 좌표값들을 산출한 후, 그 지상점 좌표값들 사이의 거리를 기 설정된 임계치와 비교하여, 그 비교한 결과로 지상점의 좌표값들 사이의 거리가 기 설정된 임계치보다 작으면, 지상점 좌표값들의 평균을 구하여 그 구한 두 지상점의 좌표값들의 평균으로 대상지점에 대한 3차원 좌표값을 결정할 수 있다.
Preferably, the user terminal uses the equation of two or more straight lines respectively derived from the conjugate points selected from two or more overlapping images, and calculates the intersection point where the sum of the squares of the distances between the straight lines is the minimum. After calculating the ground point coordinate values for each straight line, the distance between the ground point coordinate values is compared with the preset threshold value, and as a result of the comparison, the distance between the ground point coordinate values is larger than the preset threshold value. If it is small, the average of the ground coordinates can be obtained and the three-dimensional coordinates of the target point can be determined by the average of the coordinate values of the two ground points.

본 발명의 다른 한 관점에 따른 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템은 입력받은 적어도 두 개의 충접된 전방위 영상에서 임의의 대상지점이 선택되면 각 전방위 영상으로부터 그 대상지점에 대한 공액점의 영상 좌표값을 산출하는 공액점 산출부; 산출된 상기 공액점의 좌표값을 기반으로 카메라 좌표계 상에서의 영상점 벡터를 산출하는 벡터 산출부; 산출된 상기 영상점 벡터를 이용하여 지상 좌표계 상에서 지상점이 존재하는 2개 이상의 직선의 방정식을 유도하는 수식 유도부; 및 유도된 2개 이상의 상기 직선의 방정식의 교차점을 산출하여 산출된 상기 교차점을 이용하여 상기 대상지점에 대한 3차원 좌표값을 결정하는 3차원 좌표 결정부를 포함할 수 있다.According to another aspect of the present invention, a system for determining three-dimensional coordinates of an object by using an overlapping omnidirectional image includes selecting a target point from each of the omnidirectional images when an arbitrary target point is selected from at least two received omnidirectional images. A conjugate point calculator for calculating an image coordinate value of the conjugate point; A vector calculator configured to calculate an image point vector on a camera coordinate system based on the calculated coordinate values of the conjugate points; A formula derivation unit for deriving an equation of two or more straight lines having a ground point on a ground coordinate system using the calculated image point vector; And a three-dimensional coordinate determination unit configured to determine a three-dimensional coordinate value for the target point by using the intersection point calculated by calculating an intersection point of the derived two or more linear equations.

바람직하게, 상기 벡터 산출부는 산출된 상기 공액점의 영상 좌표값을 기반으로 카메라 좌표계 상에서 영상정보 획득수단의 투영의 중심에서 영상점을 잇는 영상점 벡터를 산출할 수 있다.Preferably, the vector calculator may calculate an image point vector connecting the image points at the center of the projection of the image information obtaining unit on the camera coordinate system based on the calculated image coordinate values of the conjugate points.

바람직하게, 상기 수식 유도부는 상기 카메라 좌표계로 표현된 영상점 벡터를 이용하여 상기 지상 좌표계로 표현되는 지상점이 존재하는 직선의 방정식을 유도하되, 상기 직선의 방정식은 수학식

Figure 112011031426248-pat00003
로 정의하고, 여기서, 상기 GP는 지상 좌표계로 표현된 지상점의 좌표를 의미하며 카메라의 투영 중심, 영상점과 지상점을 잇는 상기 직선 상에 존재하고, 상기 λ는 상기 직선 상에 한 점을 특정하기 위한 변수를 나타내며, 상기
Figure 112011031426248-pat00004
는 카메라 좌표계로 표현된 벡터를 지상좌표계로 변환하기 위한 회전행렬을 나타내며, 상기 Cn는 카메라 좌표계로 표현되 영상점 벡터를 나타내며, 상기 GOC는 지상 좌표계로 표현된 카메라의 투영 중심을 나타낼 수 있다.Preferably, the equation derivation unit derives an equation of a straight line having a ground point represented by the ground coordinate system using the image point vector represented by the camera coordinate system, the equation of the straight line is
Figure 112011031426248-pat00003
Wherein, G P is the coordinate of the ground point represented by the ground coordinate system and is present on the straight line connecting the projection center of the camera, the image point and the ground point, and λ is one point on the straight line. Represents a variable for specifying
Figure 112011031426248-pat00004
Denotes a rotation matrix for converting a vector expressed in a camera coordinate system into a ground coordinate system, C n denotes an image point vector expressed in a camera coordinate system, and G O C denotes a projection center of a camera expressed in a ground coordinate system. Can be.

바람직하게, 상기 좌표 결정부는 2개 이상의 중첩된 영상에서 선정한 공액점으로부터 각각 유도한 2개 이상의 상기 직선의 방정식을 이용하여 직선 간의 거리의 제곱이 합이 최소인 상기 교차점을 산출하여 산출된 상기 교차점을 이용하여 각 직선마다 지상점 좌표값들을 산출한 후, 그 지상점의 좌표값들 사이의 거리를 기 설정된 임계치와 비교하여, 그 비교한 결과로 지상점의 좌표값들 사이의 거리가 기 설정된 임계치보다 작으면, 두 지상점의 좌표값들의 평균을 구하여 그 구한 두 지상점의 좌표값들의 평균으로 대상지점에 대한 3차원 좌표값을 결정할 수 있다.Preferably, the coordinate determination unit calculates the intersection point of which the sum of the squares of the distances between the straight lines is the minimum using the equation of two or more straight lines respectively derived from the conjugate points selected from two or more overlapping images. After calculating the ground point coordinate values for each straight line, the distance between the coordinate values of the ground point is compared with the preset threshold value, and as a result of the comparison, the distance between the coordinate values of the ground point is the preset threshold value. If it is smaller, the average of the coordinate values of the two ground points can be obtained and the three-dimensional coordinate value of the target point can be determined by the average of the coordinate values of the two ground points.

또한, 본 발명에 따른 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템은 영상정보 획득수단과 위치정보 획득수단으로부터 중첩된 전방위 영상, 위치 정보 및 자세 정보를 입력받는 정보 수집부를 더 포함할 수 있다.
In addition, the system for determining the three-dimensional coordinates of the object using the overlapping omnidirectional image according to the present invention further comprises an information collecting unit for receiving the overlapping omnidirectional image, position information and attitude information from the image information obtaining means and the position information obtaining means. It may include.

본 발명의 또 다른 한 관점에 따른 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 방법은 (a)영상정보 획득수단이 중첩 전방위 영상을 획득하는 단계; (b)위치정보 획득수단이 상기 영상정보 획득수단의 위치 정보와 자세 정보를 획득하는 단계; (c)사용자 단말기가 상기 중첩된 전방위 영상, 상기 위치 정보와 자세 정보, 기 설정된 대상지점에 대한 공액점의 영상점 좌표값을 기반으로 카메라 좌표계 상에서의 영상점 벡터를 산출하는 단계; (d)상기 사용자 단말기가 산출된 상기 카메라 좌표계 상에서의 영상점 벡터를 이용하여 지상 좌표계 상에서의 지상점이 존재하는 직선의 방정식을 유도하는 단계; 및 (e)상기 사용자 단말기가 유도된 상기 직선의 방정식으로 교차점을 산출하여 산출된 상기 교차점을 이용하여 상기 대상지점에 대한 3차원 좌표값을 결정하는 단계를 포함할 수 있다.According to another aspect of the present invention, a method for determining three-dimensional coordinates of an object by using an overlapping omnidirectional image includes: (a) obtaining, by the image information acquiring means, the overlapping omnidirectional image; (b) obtaining, by the position information obtaining means, position information and attitude information of the image information obtaining means; (c) calculating, by the user terminal, an image point vector on a camera coordinate system based on the overlapping omnidirectional image, the position information and attitude information, and an image point coordinate value of a conjugate point with respect to a preset target point; (d) deriving, by the user terminal, an equation of a straight line in which a ground point exists in a ground coordinate system using the calculated image point vector in the camera coordinate system; And (e) determining a three-dimensional coordinate value for the target point by using the intersection point calculated by calculating an intersection point using the equation of the straight line in which the user terminal is derived.

바람직하게, 상기 (c) 단계는 적어도 두 개의 충접된 전방위 영상에서 임의의 대상지점이 선택되면 각 전방위 영상으로부터 그 대상지점에 대한 공액점의 영상 좌표값을 산출할 수 있다.Preferably, in the step (c), if an arbitrary target point is selected from at least two abutted omnidirectional images, an image coordinate value of a conjugate point with respect to the target point may be calculated from each omnidirectional image.

바람직하게, 상기 (c) 단계는 상기 공액점의 영상 좌표값을 기반으로 카메라 좌표계 상에서 상기 영상정보 획득수단의 투영의 중심에서 영상점을 잇는 영상점 벡터를 산출할 수 있다.Preferably, the step (c) may calculate an image point vector connecting the image points at the center of the projection of the image information acquisition means on the camera coordinate system based on the image coordinate values of the conjugate points.

바람직하게, 상기 (d) 단계는 상기 카메라 좌표계로 표현된 영상점 벡터를 이용하여 상기 지상 좌표계로 표현되는 지상점이 존재하는 직선의 방정식을 유도하되, 상기 직선의 방정식은 수학식

Figure 112011031426248-pat00005
로 정의하고, 여기서, 상기 GP는 지상 좌표계로 표현된 지상점의 좌표를 의미하며 카메라의 투영 중심, 영상점과 지상점을 잇는 상기 직선 상에 존재하고, 상기 λ는 상기 직선 상에 한 점을 특정하기 위한 변수를 나타내며, 상기
Figure 112011031426248-pat00006
는 카메라 좌표계로 표현된 벡터를 지상좌표계로 변환하기 위한 회전행렬을 나타내며, 상기 Cn는 카메라 좌표계로 표현되 영상점 벡터를 나타내며, 상기 GOC는 지상 좌표계로 표현된 카메라의 투영 중심을 나타낼 수 있다.Preferably, step (d) derives an equation of a straight line having a ground point represented by the ground coordinate system using an image point vector represented by the camera coordinate system, wherein the equation of the straight line is
Figure 112011031426248-pat00005
Wherein, G P is the coordinate of the ground point represented by the ground coordinate system and is present on the straight line connecting the projection center of the camera, the image point and the ground point, and λ is one point on the straight line. Represents a variable for specifying
Figure 112011031426248-pat00006
Denotes a rotation matrix for converting a vector expressed in a camera coordinate system into a ground coordinate system, C n denotes an image point vector expressed in a camera coordinate system, and G O C denotes a projection center of a camera expressed in a ground coordinate system. Can be.

바람직하게, 상기 (e) 단계는 2개 이상의 중첩된 영상에서 선정한 공액점으로부터 각각 유도한 2개 이상의 상기 직선의 방정식을 이용하여 직선 간의 거리의 제곱이 합이 최소인 상기 교차점을 산출하여 산출된 상기 교차점을 이용하여 각 직선마다 지상점 좌표값들을 산출한 후, 그 지상점의 좌표값들 사이의 거리를 기 설정된 임계치와 비교하여, 그 비교한 결과로 지상점의 좌표값들 사이의 거리가 기 설정된 임계치보다 작으면, 두 지상점의 좌표값들의 평균을 구하여 그 구한 두 지상점의 좌표값들의 평균으로 대상지점에 대한 3차원 좌표값을 결정할 수 있다.
Preferably, the step (e) is calculated by calculating the intersection point of which the sum of the squares of the distances between the straight lines is the minimum using the equation of two or more straight lines respectively derived from the conjugate points selected from the two or more overlapping images. After calculating the ground point coordinate values for each straight line using the intersection point, the distance between the coordinate values of the ground point is compared with the preset threshold, and as a result of the comparison, the distance between the coordinate values of the ground point is If it is smaller than the set threshold value, the average of the coordinate values of the two ground points can be obtained, and the three-dimensional coordinate value of the target point can be determined based on the average of the coordinate values of the two ground points.

본 발명의 또 다른 한 관점에 따른 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 방법은 (a)입력받은 적어도 두 개의 충접된 전방위 영상에서 임의의 대상지점이 선택되면 각 전방위 영상으로부터 그 대상지점에 대한 공액점의 영상 좌표값을 산출하는 단계; (b)산출된 상기 공액점의 영상 좌표값을 기반으로 카메라 좌표계 상에서의 영상점 벡터를 산출하는 단계; (c)산출된 상기 카메라 좌표계 상에서의 영상점 벡터를 이용하여 지상 좌표계 상에서의 지상점이 존재하는 2개 이상의 직선의 방정식을 유도하는 단계; 및 (d)유도된 상기 2개 이상의 직선의 방정식의 교차점을 산출하여 산출된 상기 교차점을 이용하여 상기 대상지점에 대한 3차원 좌표값을 결정하는 단계를 포함할 수 있다.According to another aspect of the present invention, a method for determining three-dimensional coordinates of an object by using an overlapping omnidirectional image includes: (a) when an arbitrary target point is selected from at least two received omnidirectional images, from each omnidirectional image; Calculating image coordinate values of the conjugate point with respect to the target point; (b) calculating an image point vector on a camera coordinate system based on the calculated image coordinate value of the conjugate point; (c) deriving an equation of two or more straight lines having a ground point on a ground coordinate system using the calculated image point vector on the camera coordinate system; And (d) determining a three-dimensional coordinate value for the target point by using the intersection point calculated by calculating an intersection point of the derived two or more straight line equations.

바람직하게, 상기 (b) 단계는 산출된 상기 공액점의 영상 좌표값을 기반으로 카메라 좌표계 상에서 영상정보 획득수단의 투영의 중심에서 영상점을 잇는 영상점 벡터를 산출할 수 있다.Preferably, the step (b) may calculate an image point vector connecting the image points at the center of the projection of the image information acquisition means on the camera coordinate system based on the calculated image coordinate values of the conjugate points.

바람직하게, 상기 (c) 단계는 상기 카메라 좌표계로 표현된 영상점 벡터를 이용하여 상기 지상 좌표계로 표현되는 지상점이 존재하는 직선의 방정식을 유도하되, 상기 직선의 방정식은 수학식

Figure 112011031426248-pat00007
로 정의하고, 여기서, 상기 GP는 지상 좌표계로 표현된 지상점의 좌표를 의미하며 카메라의 투영 중심, 영상점과 지상점을 잇는 상기 직선 상에 존재하고, 상기 λ는 상기 직선 상에 한 점을 특정하기 위한 변수를 나타내며, 상기
Figure 112011031426248-pat00008
는 카메라 좌표계로 표현된 벡터를 지상좌표계로 변환하기 위한 회전행렬을 나타내며, 상기 Cn는 카메라 좌표계로 표현되 영상점 벡터를 나타내며, 상기 GOC는 지상 좌표계로 표현된 카메라의 투영 중심을 나타낼 수 있다.Preferably, step (c) derives an equation of a straight line having a ground point represented by the ground coordinate system using the image point vector represented by the camera coordinate system, wherein the equation of the straight line is
Figure 112011031426248-pat00007
Wherein, G P is the coordinate of the ground point represented by the ground coordinate system and is present on the straight line connecting the projection center of the camera, the image point and the ground point, and λ is one point on the straight line. Represents a variable for specifying
Figure 112011031426248-pat00008
Denotes a rotation matrix for converting a vector expressed in a camera coordinate system into a ground coordinate system, C n denotes an image point vector expressed in a camera coordinate system, and G O C denotes a projection center of a camera expressed in a ground coordinate system. Can be.

바람직하게, 상기 (d) 단계는 2개 이상의 중첩된 영상에서 선정한 공액점으로부터 각각 유도한 2개 이상의 상기 직선의 방정식을 이용하여 직선 간의 거리의 제곱이 합이 최소인 상기 교차점을 산출하여 산출된 상기 교차점을 이용하여 각 직선마다 지상점 좌표값들을 산출한 후, 그 지상점의 좌표값들 사이의 거리를 기 설정된 임계치와 비교하여, 그 비교한 결과로 지상점의 좌표값들 사이의 거리가 기 설정된 임계치보다 작으면, 두 지상점의 좌표값들의 평균을 구하여 그 구한 두 지상점의 좌표값들의 평균으로 대상지점에 대한 3차원 좌표값을 결정할 수 있다.Preferably, the step (d) is performed by calculating the intersection point of which the sum of the squares of the distances between the straight lines is the minimum using the equation of the two or more straight lines respectively derived from the conjugate points selected from the two or more overlapping images. After calculating the ground point coordinate values for each straight line using the intersection point, the distance between the coordinate values of the ground point is compared with the preset threshold, and as a result of the comparison, the distance between the coordinate values of the ground point is If it is smaller than the set threshold value, the average of the coordinate values of the two ground points can be obtained, and the three-dimensional coordinate value of the target point can be determined based on the average of the coordinate values of the two ground points.

또한, 본 발명에 따른 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 방법은 (a-1) 상기 (a) 단계 이전에 영상정보 획득수단과 위치정보 획득수단으로부터 중첩된 전방위 영상, 위치 정보 및 자세 정보를 입력받는 단계를 더 포함할 수 있다.In addition, the method for determining the three-dimensional coordinates of the object using the overlapping omnidirectional image according to the present invention includes (a-1) an omnidirectional image superimposed from the image information obtaining means and the position information obtaining means before step (a); The method may further include receiving location information and attitude information.

이를 통해, 본 발명은 두 개의 중첩된 전방위 영상에서 선정한 공액점으로부터 유도한 각각의 직선의 교점을 계산하여 대상지점의 3차원 좌표를 결정함으로써, 대상지점에 대한 3차원 좌표의 정확도를 향상시킬 수 있는 효과가 있다.Through this, the present invention can determine the three-dimensional coordinates of the target point by calculating the intersection of each straight line derived from the conjugate point selected from the two overlapping omnidirectional image, it is possible to improve the accuracy of the three-dimensional coordinates for the target point It works.

도 1은 본 발명의 실시예에 따른 시스템의 개략적인 구성을 나타내는 예시도이다.
도 2는 본 발명의 실시예에 따른 좌표계의 정의에 대한 개념도를 나타내는 예시도이다.
도 3은 본 발명의 실시예에 따른 3차원 좌표를 결정하기 위한 방법을 나타내는 예시도이다.
도 4는 본 발명의 실시예에 따른 카메라 좌표계 상의 지상점과 영상점 사이의 관계를 나타내는 예시도이다.
도 5는 본 발명의 실시예에 따른 각 좌표계와 지상점과의 관계를 나타내는 예시도이다.
도 6은 본 발명의 실시예에 따른 3차원 좌표를 결정하는 원리를 설명하기 위한 예시도이다.
도 7은 도 1에 도시된 사용자 단말기(130)의 상세한 구성을 나타내는 예시도이다.
도 8은 본 발명의 실시예에 따른 전방위 카메라의 외관을 나타내는 예시도이다.
도 9는 본 발명에 따른 전방위 영상을 생성하는 과정을 나타내는 예시도이다.
도 10은는 본 발명의 실시예에 따른 전방위 카메라 및 GPS/INS 센서를 통합한 센서를 나타내는 예시도이다.
도 11은 본 발명의 실시예에 따른 통합 센서를 차량에 탑재하여 완성된 모바일 매핑 시스템을 나타내는 예시도이다.
도 12는 본 발명의 실시예에 따른 영상의 취득 경로 및 지상점 그룹을 보여주는 예시도이다.
도 13은 본 발명의 실시예에 따른 전방위 영상을 보여주는 예시도이다.
도 14는 본 발명의 실시예에 따른 각 영역별 검사점을 보여주는 예시도이다.
도 15는 본 발명의 실시예에 따른 전방위 영상으로부터 결정된 지상점과 검사점을 보여주는 예시도이다.
도 16은 본 발명의 실시예에 따른 카메라 위치와 검사점 위치 사이의 관계를 나타내는 예시도이다.
도 17은 본 발명의 실시예에 따른 전방위 영상으로부터 결정된 지상점과 검사점을 보여주는 예시도이다.
1 is an exemplary view showing a schematic configuration of a system according to an embodiment of the present invention.
2 is an exemplary diagram illustrating a conceptual diagram of a definition of a coordinate system according to an exemplary embodiment of the present invention.
3 is an exemplary view showing a method for determining three-dimensional coordinates according to an embodiment of the present invention.
4 is an exemplary diagram illustrating a relationship between a ground point and an image point on a camera coordinate system according to an exemplary embodiment of the present invention.
5 is an exemplary diagram illustrating a relationship between each coordinate system and a ground point according to an exemplary embodiment of the present invention.
6 is an exemplary view for explaining a principle of determining three-dimensional coordinates according to an embodiment of the present invention.
7 is an exemplary view showing a detailed configuration of the user terminal 130 shown in FIG.
8 is an exemplary view showing the appearance of a omnidirectional camera according to an embodiment of the present invention.
9 is an exemplary view illustrating a process of generating an omnidirectional image according to the present invention.
10 is an exemplary view showing a sensor incorporating a omnidirectional camera and a GPS / INS sensor according to an embodiment of the present invention.
11 is an exemplary view showing a mobile mapping system completed by mounting an integrated sensor in a vehicle according to an embodiment of the present invention.
12 is an exemplary view illustrating an acquisition path and a ground point group of an image according to an embodiment of the present invention.
13 is an exemplary view showing an omnidirectional image according to an embodiment of the present invention.
14 is an exemplary view showing a checkpoint for each region according to an exemplary embodiment of the present invention.
15 is an exemplary view showing ground points and inspection points determined from an omnidirectional image according to an embodiment of the present invention.
16 is an exemplary view showing a relationship between a camera position and a checkpoint position according to an embodiment of the present invention.
17 is an exemplary view illustrating ground points and inspection points determined from an omnidirectional image according to an embodiment of the present invention.

이하에서는, 본 발명의 실시예에 따른 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템 및 그 방법을 첨부한 도 1 내지 도 17을 참조하여 설명한다. 본 발명에 따른 동작 및 작용을 이해하는데 필요한 부분을 중심으로 상세히 설명한다. 명세서 전체를 통하여 각 도면에서 제시된 동일한 참조 부호는 동일한 구성 요소를 나타낸다.Hereinafter, a system and method for determining three-dimensional coordinates of an object using an overlapping omnidirectional image according to an embodiment of the present invention will be described with reference to FIGS. 1 to 17. It will be described in detail focusing on the parts necessary to understand the operation and action according to the present invention. Like reference numerals in the drawings denote like elements throughout the specification.

본 발명에서는 두 개의 중첩된 전방위 영상에서 선정한 공액점으로부터 유도한 각각의 직선의 교점을 계산하여 대상지점의 3차원 좌표를 결정할 수 있는 방법을 제안한다.The present invention proposes a method that can determine the three-dimensional coordinates of the target point by calculating the intersection of each straight line derived from the conjugate point selected from the two overlapping omnidirectional image.

제안된 방법은 크게 좌표계 설정, 데이터 수집, 내부표정 수행, 외부표정 수행, 및 대상지점 좌표 결정의 과정으로 구성될 수 있다. 첫 번째 과정은 탑재된 센서의 구성을 확인한 후 센서 및 지상에 개별적으로 정의되어 있는 3차원 좌표계를 정의하고 좌표계 사이의 관계를 수립한다. 두 번째 과정은 전방위 카메라 영상, 카메라의 외부표정 요소를 수집하고 공액점의 좌표값을 산출한다. 세 번째 및 네 번째 과정은 하나의 영상점에 투영될 수 있는 3차원 후보 지상점이 존재하는 직선을 3차원 객체좌표계 상에 표현하기 위해 내부표정 및 외부표정을 수행한다. 내부표정은 하나의 영상점에 대응되는 후보 지상점의 직선을 카메라 좌표계로 표현하는 과정이고, 외부표정은 카메라 좌표계로 표현된 직선을 카메라와 지상과의 관계를 통해 지상 좌표계로 변환하는 과정이다. 마지막 과정은 두 개의 중첩된 영상에서 선정한 공액점으로부터 유도한 각각의 직선의 교점을 계산하여 대상지점의 3차원 좌표를 결정한다.The proposed method can be largely composed of the process of setting the coordinate system, collecting data, performing internal expression, performing external expression, and determining the target point coordinates. The first step is to check the configuration of the mounted sensor, define a three-dimensional coordinate system that is individually defined on the sensor and the ground, and establish the relationship between the coordinate systems. The second process collects the omnidirectional camera image, the camera's external expression elements and calculates the coordinate values of the conjugate points. In the third and fourth processes, internal and external expressions are performed to express a straight line in which a three-dimensional candidate ground point exists that can be projected to one image point on the three-dimensional object coordinate system. The internal expression is a process of expressing a straight line of a candidate ground point corresponding to one image point in a camera coordinate system, and the external expression is a process of converting a straight line expressed in a camera coordinate system into a ground coordinate system through a relationship between the camera and the ground. The final process determines the three-dimensional coordinates of the target point by calculating the intersection of each straight line derived from the conjugate point selected from two superimposed images.

도 1은 본 발명의 실시예에 따른 시스템의 개략적인 구성을 나타내는 예시도이다.1 is an exemplary view showing a schematic configuration of a system according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 본 발명에 따른 시스템은 차량 등에 2개의 센서 예컨대, 전방위 카메라(Omni-directional camera) 등의 영상정보 획득수단(110)과 GPS/INS(Global Positioning System/Inertial Navigation System) 센서 등의 위치정보 획득수단(120), 및 사용자 단말기(130) 등을 탑재하여 구현할 수 있다. 탑재된 센서들은 각각 개별 센서에 독립적으로 정의된 3차원 좌표계를 기준으로 원시 센서 데이터를 출력할 수 있다. 전방위 카메라(110)는 주변 전방위 즉, 전후, 좌우, 상하 방향 등에 대한 영상을 한번에 촬영하는 카메라로서 다수의 카메라 모듈이 전방향을 향하도록 배열되어 있다. 따라서 시스템은 전방위 카메라(110)를 통해 주변 영상 즉, 중첩된 전방위 영상을 획득할 수 있다.As shown in FIG. 1, the system according to the present invention includes image information acquiring means 110 such as two sensors such as an omni-directional camera and a GPS / INS (Global Positioning System / Inertial Navigation System). ) May be implemented by mounting location information acquisition means 120 such as a sensor, and a user terminal 130. The mounted sensors can output raw sensor data based on a three-dimensional coordinate system defined independently for each individual sensor. The omnidirectional camera 110 is a camera for capturing images of surrounding omnidirectional, ie, front, rear, left, and right directions at one time, and is arranged such that a plurality of camera modules face the front direction. Therefore, the system may acquire the surrounding image, that is, the superposed omnidirectional image, through the omnidirectional camera 110.

또한, 시스템은 전방위 카메라(110)의 외부표정 요소로 GPS/INS 센서(120)를 통해 위치 정보 및 자세 정보 등을 획득할 수 있다. GPS/INS 센서(120)를 통해 획득되는 위치 정보 및 자세 정보는 GPS/INS 센서(120) 자체의 위치 정보 및 자세 정보일 수 있지만, GPS/INS 센서(120)가 전방위 카메라(110)와 같이 차량에 탑재되기 때문에 전방위 카메라(110)의 위치 정보 및 자세 정보이거나 차량의 위치 정보 및 자세 정보일 수도 있다.In addition, the system may acquire position information, attitude information, and the like through the GPS / INS sensor 120 as an external expression element of the omnidirectional camera 110. The location information and attitude information obtained through the GPS / INS sensor 120 may be location information and attitude information of the GPS / INS sensor 120 itself, but the GPS / INS sensor 120 may be the same as the omnidirectional camera 110. Since the vehicle is mounted on the vehicle, the location information and the attitude information of the omnidirectional camera 110 may be the location information and the attitude information of the vehicle.

사용자 단말기(130)는 전방위 카메라(110)로부터 전방위 영상을 입력받고, GPS/INS 센서(120)를 통해 위치 정보 및 자세 정보를 입력받을 수 있다. 그리고 사용자 단말기(130)는 두 개의 중첩된 전방위 영상에서 임의의 대상객체 또는 대상지점에 대한 공액점의 영상 좌표값을 산출 수 있다. 여기서, 공액점은 두 개의 중첩된 전방위 영상에서의 공액점일 뿐 아니라 그 이상의 중첩된 전방위 영상에서의 공액점을 포괄하는 개념일 수 있다.The user terminal 130 may receive an omnidirectional image from the omnidirectional camera 110, and receive position information and attitude information through the GPS / INS sensor 120. In addition, the user terminal 130 may calculate an image coordinate value of a conjugate point with respect to a target object or a target point in two overlapping omnidirectional images. Here, the conjugate point may be a concept encompassing a conjugate point in two or more overlapping omnidirectional images as well as a conjugate point in two overlapping omnidirectional images.

사용자 단말기(130)는 이렇게 입력받은 전방위 영상, 위치 정보 및 자세 정보, 공액점의 영상 좌표값을 기반으로 대상시점에 대한 3차원 좌표값을 결정할 수 있다. 예컨대, 사용자 단말기(130)는 스마트폰, 노트북, 네비게이션 등을 포괄하는 개념일 수 있다.
The user terminal 130 may determine a 3D coordinate value for the target viewpoint based on the input omnidirectional image, position information and attitude information, and image coordinate values of the conjugate point. For example, the user terminal 130 may be a concept including a smartphone, a notebook, a navigation, and the like.

또한, 사용자 단말기(130)는 대상지점에 대한 3차원 좌표값을 결정하기 위하여 먼저 탑재된 센서의 구성을 확인한 후 센서 및 지상에 개별적으로 정의되어 있는 3차원 좌표계를 정의하고 각 좌표계 사이의 관계를 수립해야 하는데 이를 도 2를 참조하여 설명한다.In addition, the user terminal 130 first checks the configuration of the mounted sensor in order to determine the three-dimensional coordinate value for the target point, and then defines a three-dimensional coordinate system that is individually defined on the sensor and the ground, and the relationship between each coordinate system It should be established with reference to FIG.

도 2는 본 발명의 실시예에 따른 좌표계의 정의에 대한 개념도를 나타내는 예시도이다.2 is an exemplary diagram illustrating a conceptual diagram of a definition of a coordinate system according to an exemplary embodiment of the present invention.

도 2에 도시한 바와 같이, 본 발명에 따른 3차원 좌표계는 카메라 좌표계(CCS), GPS/INS 좌표계(ICS), 및 지상 좌표계(GCS) 등으로 정의할 수 있다. 센서 데이터의 상호 융합을 위하여 카메라 좌표계, GPS/INS 좌표계, 및 지상 좌표계 사이의 관계를 정밀하게 수립해야 한다.As shown in FIG. 2, the 3D coordinate system according to the present invention may be defined as a camera coordinate system (CCS), a GPS / INS coordinate system (ICS), a ground coordinate system (GCS), or the like. For the mutual fusion of sensor data, the relationship between the camera coordinate system, the GPS / INS coordinate system, and the ground coordinate system must be precisely established.

이러한 카메라 좌표계, GPS/INS 좌표계, 및 지상 좌표계 사이의 관계를 설정하는 과정에서 발생할 수 있는 오차를 줄이기 위하여 카메라 좌표계와 GPS/INS 좌표계의 X축, Y축은 서로 평행하게 설정하고 Z축은 서로 일치시킬 수 있다. 여기서, 각 좌표계에서의 X축은 차량의 진행방향을 나타내고, Y축은 차량 진행방향의 수평 직각 방향을 나타내며, Z축은 차량 진행방향의 수직 직각 방향을 나타낼 수 있다.
In order to reduce the errors that may occur in the process of establishing the relationship between the camera coordinate system, the GPS / INS coordinate system, and the ground coordinate system, the X and Y axes of the camera coordinate system and the GPS / INS coordinate system are set to be parallel to each other, and the Z axis should be matched with each other. Can be. Here, the X axis in each coordinate system may represent a traveling direction of the vehicle, the Y axis may represent a horizontal right angle direction of the vehicle traveling direction, and the Z axis may represent a vertical right angle direction of the vehicle traveling direction.

도 3은 본 발명의 실시예에 따른 3차원 좌표를 결정하기 위한 방법을 나타내는 예시도이다.3 is an exemplary view showing a method for determining three-dimensional coordinates according to an embodiment of the present invention.

도 3에 도시한 바와 같이, 본 발명에 따른 사용자 단말기는 전방위 카메라와 GPS/INS 센서로부터 중첩된 전방위 영상, 위치 정보 및 자세 정보를 입력받을 수 있다(S310). 사용자 단말기는 입력받은 적어도 두 개의 충접된 전방위 영상에서 임의의 대상지점이 선택되면 각 전방위 영상으로부터 그 대상지점에 대한 공액점의 영상 좌표값을 산출할 수 있다(S320).As shown in FIG. 3, the user terminal according to the present invention may receive an overlapping omnidirectional image, location information, and attitude information from the omnidirectional camera and the GPS / INS sensor (S310). The user terminal may calculate an image coordinate value of a conjugate point of the target point from each of the omnidirectional images when a certain target point is selected from at least two received omnidirectional images.

다음으로, 사용자 단말기는 산출된 공액점의 영상 좌표값을 기반으로 카메라 좌표계 상에서 카메라의 투영의 중심에서 영상점을 잇는 영상점 벡터를 산출할 수 있다(S330).
Next, the user terminal may calculate an image point vector connecting the image points at the center of the projection of the camera on the camera coordinate system based on the calculated image coordinate values of the conjugate points (S330).

도 4는 본 발명의 실시예에 따른 카메라 좌표계 상의 지상점과 영상점 사이의 관계를 나타내는 예시도이다.4 is an exemplary diagram illustrating a relationship between a ground point and an image point on a camera coordinate system according to an exemplary embodiment of the present invention.

도 4에 도시한 바와 같이, 그림 (a)에서 본 발명에 따른 카메라 좌표계 상에서 구면 상의 임의의 영상점(image point)과 이에 투영된 지상점(ground point)의 관계를 보여주고 있다. 카메라 좌표계의 원점은 카메라의 투영의 중심에 해당하고, 중심 투영의 원리에 따라 투영의 중심, 영상점, 및 지상점은 하나의 직선 상에 존재하게 된다.As shown in FIG. 4, the relationship between an arbitrary image point on a spherical surface and a ground point projected on the spherical surface of the camera coordinate system according to the present invention is illustrated in FIG. The origin of the camera coordinate system corresponds to the center of the projection of the camera, and according to the principle of the center projection, the center of the projection, the image point, and the ground point exist on one straight line.

투영의 중심에서 영상점을 잊는 벡터 즉, 영상점 벡터 Cn는 3차원 극좌표계의 원리에 의해 다음의 [수학식 1]과 같이 나타낼 수 있다. 영상점 벡터는 투영의 중심에서 지상점을 잊는 벡터 즉, 지상점 벡터와 동일한 방향을 갖는다. 따라서 지상점은 투영의 중심에서 영상점 벡터 Cn의 방향을 갖는 직선 상에 존재할 수 있다.A vector that forgets the image point at the center of the projection, that is, the image point vector C n, can be expressed by the following Equation 1 by the principle of the three-dimensional polar coordinate system. The image point vector has the same direction as the ground point vector that forgets the ground point at the center of the projection. Thus, the ground point may exist on a straight line with the direction of the image point vector C n at the center of the projection.

[수학식 1][Equation 1]

Figure 112011031426248-pat00009
Figure 112011031426248-pat00009

여기서, α는 수평각을 나타내고 β는 수직각을 나타낼 수 있다. 이러한 수평각 α과 수직각 β은 그림 (b)를 참조하여 설명한다. 그림 (b)는 그림 (a)의 구면 영상을 평면으로 펼친 영상이다.Here, α may represent a horizontal angle and β may represent a vertical angle. Such horizontal angle α and vertical angle β will be described with reference to Fig. (B). Figure (b) is an image of the spherical image of Figure (a) unfolded into a plane.

영상점의 좌표는 영상의 좌측 상단을 기준으로 (r,c)로 표현하는데, 여기서 r은 각 행의 번호를 의미하고 c는 각 열의 번호를 의미할 수 있다. 영상점의 좌표와 구면 상의 위치를 나타내는 수평각 α과 수직각 β의 관계는 다음의 [수학식 2]와 같다.The coordinate of the image point is expressed as (r, c) based on the upper left of the image, where r may mean the number of each row and c may mean the number of each column. The relationship between the horizontal angle α and the vertical angle β representing the coordinates of the image point and the position on the spherical surface is shown in Equation 2 below.

[수학식 2]&Quot; (2) "

Figure 112011031426248-pat00010
Figure 112011031426248-pat00010

즉, 본 발명은 두 번째 과정에서 내부표정을 수행하여 영상점 벡터 Cn를 설정할 수 있다.
That is, the present invention may set the image point vector C n by performing internal expression in the second process.

다음으로, 사용자 단말기는 카메라 좌표계로 표현된 영상점 벡터를 이용하여 지상 좌표계로 표현되는 지상점이 존재하는 직선의 방정식을 유도할 수 있다(S340).
Next, the user terminal may derive an equation of a straight line having a ground point represented by the ground coordinate system using the image point vector represented by the camera coordinate system (S340).

도 5는 본 발명의 실시예에 따른 각 좌표계와 지상점과의 관계를 나타내는 예시도이다.5 is an exemplary diagram illustrating a relationship between each coordinate system and a ground point according to an exemplary embodiment of the present invention.

도 5에 도시한 바와 같이, 카메라 좌표계, GPS/INS 좌표계, 지상 좌표계, 및 지상점과의 관계를 보여주고 있다. 하나의 영상점에 투영된 지상점의 지상 좌표계 상의 좌표값 벡터 GP는 투영의 중심에서 지상점을 연결하는 벡터 λGn과 지상 좌표계의 원점에서 투영의 중심을 연결하는 벡터 GOC의 합으로서 다음의 [수학식 3]과 같이 나타낼 수 있다.As shown in Fig. 5, the relationship between the camera coordinate system, the GPS / INS coordinate system, the ground coordinate system, and the ground point is shown. The coordinate vector G P on the ground coordinate system of the ground point projected to one image point is the sum of the vector λ G n connecting the ground point at the center of the projection and the vector G O C connecting the center of the projection at the origin of the ground coordinate system. As shown in the following equation (3).

[수학식 3]&Quot; (3) "

Figure 112011031426248-pat00011
Figure 112011031426248-pat00011

여기서, λ는 변수를 의미할 수 있다.Here, λ may mean a variable.

이때, 지상 좌표계로 표현된 지상점의 방향 벡터 Gn을 내부표정에서 구한 영상점 벡터를 회전변환하면 다음의 [수학식 4]를 얻을 수 있다. In this case, the following Equation 4 can be obtained by rotation-converting the image point vector obtained from the internal expression of the direction vector G n of the ground point represented by the ground coordinate system.

[수학식 4]&Quot; (4) "

Figure 112011031426248-pat00012
Figure 112011031426248-pat00012

여기서,

Figure 112011031426248-pat00013
는 지상 좌표계와 카메라 좌표계 간의 회전행렬을 나타내며,
Figure 112011031426248-pat00014
는 카메라 좌표계와 GPS/INS 좌표계 간의 회전행렬을 나타내며,
Figure 112011031426248-pat00015
는 지상 좌표계와 GPS/INS 좌표계 간의 회전행렬을 나타낼 수 있다.here,
Figure 112011031426248-pat00013
Represents the rotation matrix between the ground and camera coordinates,
Figure 112011031426248-pat00014
Represents the rotation matrix between the camera coordinate system and the GPS / INS coordinate system.
Figure 112011031426248-pat00015
May represent a rotation matrix between the ground coordinate system and the GPS / INS coordinate system.

이때, R은 카메라의 자세정보를 나타내고, O는 카메라의 위치정보를 나타낼 수 있다.In this case, R may represent attitude information of the camera, and O may represent location information of the camera.

또한 카메라의 투영 중심인 GOC를 GPS/INS 좌표계의 원점과 카메라의 투영 중심 사이의 변리(offset)를 이용하면 다음의 [수학식 5]를 얻을 수 있다.In addition, by using the offset between the origin of the GPS / INS coordinate system and the projection center of the camera, G O C , which is the projection center of the camera, can be obtained by the following Equation 5.

[수학식 5][Equation 5]

Figure 112011031426248-pat00016
Figure 112011031426248-pat00016

이렇게 얻은 [수학식 4]와 [수학식 5]를 이용하여 GP를 정리하면 다음의 [수학식 6]과 같다.Using the equations [4] and [Equation 5] obtained in this way to summarize the G P as shown in [Equation 6].

[수학식 6]&Quot; (6) "

Figure 112011031426248-pat00017
Figure 112011031426248-pat00017

결국 [수학식 6]은 하나의 영상점에 투영된 후보 지상점들이 존재하는 직선을 지상 좌표계로 표현한 식이 된다.As a result, Equation 6 is a formula representing a straight line in which candidate ground points projected to one image point exist in a ground coordinate system.

만약, 카메라 좌표계와 GPS/INS 좌표계가 일치한다고 가정하면

Figure 112011031426248-pat00018
로 설정할 수 있는데, I3은 단위 벡터이기 때문에 [수학식 4]와 [수학식 5]로부터 다음의 [수학식 7]을 얻을 수 있다.If we assume that the camera coordinate system and the GPS / INS coordinate system
Figure 112011031426248-pat00018
Since I 3 is a unit vector, the following [Equation 7] can be obtained from [Equation 4] and [Equation 5].

[수학식 7][Equation 7]

Figure 112011031426248-pat00019
Figure 112011031426248-pat00019

[수학식 7]을 앞의 [수학식 6]에 적용하면 다음의 [수학식 8]을 얻을 수 있다.Applying Equation 7 to Equation 6 above, Equation 8 can be obtained.

[수학식 8][Equation 8]

Figure 112011031426248-pat00020

Figure 112011031426248-pat00020

다음으로, 사용자 단말기는 유도된 2개 이상의 직선의 방정식을 이용하여 대상지점에 대한 3차원 좌표값을 산출할 수 있다(S350). 구체적으로 설명하면, 사용자 단말기는 2개 이상의 중첩된 영상에서 선정한 공액점으로부터 각각 유도한 2개 이상의 상기 직선의 방정식을 이용하여 직선 간의 거리의 제곱이 합이 최소인 상기 교차점을 산출하여 산출된 상기 교차점을 이용하여 각 직선마다 지상점 좌표값들을 산출한 후, 그 지상점의 좌표값들 사이의 거리가 기 설정된 임계치와 비교할 수 있다. 사용자 단말기는 그 비교한 결과에 따라 지상점의 좌표값들 사이의 거리가 기 설정된 임계치보다 크면, 정합오류로 판단할 수 있다.Next, the user terminal may calculate a three-dimensional coordinate value for the target point by using the equation of the two or more straight lines derived (S350). Specifically, the user terminal calculates the intersection point of which the sum of the squares of the distances between the straight lines is the minimum using the equation of the two or more straight lines respectively derived from the conjugate points selected from the two or more overlapping images. After calculating the ground point coordinate values for each straight line, the distance between the coordinate values of the ground point can be compared with a preset threshold. If the distance between the coordinate values of the ground point is greater than the preset threshold value, the user terminal may determine that it is a matching error.

반면에, 사용자 단말기는 그 비교한 결과에 따라 지상점의 좌표값들 사이의 거리가 기 설정된 임계치보다 작으면, 두 지상점의 좌표값들의 평균을 구하여 그 구한 두 지상점의 좌표값들의 평균으로 대상지점에 대한 3차원 좌표값을 산출할 수 있다.
On the other hand, if the distance between the coordinates of the ground points is smaller than the preset threshold, the user terminal calculates the average of the coordinate values of the two ground points as the average of the coordinate values of the two ground points. Three-dimensional coordinate values for the target point can be calculated.

두 개의 중첩된 영상에서 선정한 공액점으로부터 유도한 각각의 직선의 방정식의 교차점을 계산하여 대상지점의 3차원 좌표를 결정하는 원리를 도 6을 참조하여 설명한다.The principle of determining the three-dimensional coordinates of the target point by calculating the intersection of the equation of each straight line derived from the conjugate point selected from the two overlapping images will be described with reference to FIG. 6.

도 6은 본 발명의 실시예에 따른 3차원 좌표를 결정하는 원리를 설명하기 위한 예시도이다.6 is an exemplary view for explaining a principle of determining three-dimensional coordinates according to an embodiment of the present invention.

즉 두 개의 중첩된 영상의 공액점에 투영된 지상점 P1, P2는 [수학식 8]을 이용하여 각각 방향 벡터와 시작점으로 표현되는 다음의 [수학식 9]와 같이 나타낼 수 있다.That is, the ground points P1 and P2 projected on the conjugate points of two superimposed images may be expressed by Equation 9 represented by the direction vector and the starting point, respectively, using Equation 8.

[수학식 9][Equation 9]

Figure 112011031426248-pat00021
Figure 112011031426248-pat00021

[수학식 9]에서 지상점 P1, P2는 공액점이기 때문에 같은 직선상에 존재하고 동일한 점을 나타내고, [수학식 9]를 이용하여 다음의 [수학식 10]을 유도할 수 있다.In Equation 9, since the ground points P1 and P2 are conjugate points, they exist on the same straight line and represent the same point, and the following Equation 10 can be derived using Equation 9.

[수학식 10]&Quot; (10) "

Figure 112011031426248-pat00022
Figure 112011031426248-pat00022

이러한 [수학식 10]을 행렬로 표현하면 다음의 [수학식 11]과 같이 나타낼 수 있다.If Equation 10 is expressed as a matrix, it can be expressed as Equation 11 below.

[수학식 11]&Quot; (11) "

Figure 112011031426248-pat00023
Figure 112011031426248-pat00023

최소제곱법(method of least squares)을 이용하여 미지수 ξ를 구하기 위하여 앞의 [수학식 11]을 정리하면 다음의 [수학식 12]와 같이 나타낼 수 있다.In order to obtain the unknown ξ by using the method of least squares, Equation 11 can be expressed as Equation 12 below.

[수학식 12][Equation 12]

Figure 112011031426248-pat00024
Figure 112011031426248-pat00024

이렇게 추정한 미지수

Figure 112011031426248-pat00025
를 [수학식 9]에 적용하여 다음의 [수학식 13]을 구할 수 있다.Unknown
Figure 112011031426248-pat00025
Apply to Equation 9 to obtain the following Equation 13.

[수학식 13]&Quot; (13) "

Figure 112011031426248-pat00026
Figure 112011031426248-pat00026

도 6을 참조하면, 추정한 지상점

Figure 112011031426248-pat00027
간의 거리
Figure 112011031426248-pat00028
를 보여주고 있다. 만약 두 점
Figure 112011031426248-pat00029
사이의 거리가 임계값보다 크면, 정합오류로 판단하게 된다. 반면 두 점
Figure 112011031426248-pat00030
사이의 거리가 임계값보다 작으면 두 점의 중점
Figure 112011031426248-pat00031
를 산출하여 이를 3차원 좌표로 결정하게 된다.Referring to Figure 6, the estimated ground point
Figure 112011031426248-pat00027
Distance between
Figure 112011031426248-pat00028
Is showing. If two points
Figure 112011031426248-pat00029
If the distance between them is larger than the threshold, it is determined as a matching error. While two points
Figure 112011031426248-pat00030
Midpoint of two points if distance between them is less than threshold
Figure 112011031426248-pat00031
It is determined by calculating the three-dimensional coordinates.

예컨대, 두 점의 중점

Figure 112011031426248-pat00032
는 두 점
Figure 112011031426248-pat00033
의 평균값일 수 있다.For example, two points
Figure 112011031426248-pat00032
Two points
Figure 112011031426248-pat00033
It may be an average value of.

이때, 본 발명은 두 개의 중첩된 영상에서 선정한 공액점으로부터 유도한 직선의 방정식의 교차점을 계산하여 대상지점의 3차원 좌표를 결정하고 있지만, 반드시 이에 한정되지 않고 적어도 두 개 이상의 중첩된 영상에서 선정한 공액점을 적용할 수도 있다.
At this time, the present invention determines the three-dimensional coordinates of the target point by calculating the intersection of the equation of the straight line derived from the conjugate point selected from the two overlapping images, but is not necessarily limited to this conjugate point selected from at least two overlapping images You can also apply

도 7은 도 1에 도시된 사용자 단말기(130)의 상세한 구성을 나타내는 예시도이다.7 is an exemplary view showing a detailed configuration of the user terminal 130 shown in FIG.

도 7에 도시한 바와 같이, 본 발명에 따른 사용자 단말기(130)는 정보 수집부(131), 공액점 산출부(132), 벡터 산출부(133), 수식 유도부(134), 좌표 결정부(135) 등을 포함하여 구성될 수 있다.As shown in FIG. 7, the user terminal 130 according to the present invention includes an information collecting unit 131, a conjugate point calculating unit 132, a vector calculating unit 133, a mathematical induction unit 134, and a coordinate determining unit 135. ) And the like.

정보 수집부(131)는 영상정보 획득수단과 위치정보 획득수단으로부터 중첩된 전방위 영상, 위치 정보 및 자세 정보를 입력받을 수 있다. 공액점 산출부(132)는 입력받은 적어도 두 개의 충접된 전방위 영상에서 임의의 대상지점이 선택되면 각 전방위 영상으로부터 그 대상지점에 대한 공액점의 영상 좌표값을 산출할 수 있다.The information collecting unit 131 may receive an overlapping omnidirectional image, location information, and attitude information from the image information obtaining unit and the location information obtaining unit. The conjugate point calculator 132 may calculate an image coordinate value of the conjugate point of the target point from each of the omnidirectional images when an arbitrary target point is selected from the at least two received omnidirectional images.

벡터 산출부(133)는 산출된 공액점의 영상 좌표값을 기반으로 카메라 좌표계 상에서 카메라의 투영의 중심에서 영상점을 잇는 영상점 벡터를 산출할 수 있다.The vector calculator 133 may calculate an image point vector connecting the image points at the center of the projection of the camera on the camera coordinate system based on the calculated image coordinate values of the conjugate points.

수식 유도부(134)는 산출된 상기 영상점 벡터를 이용하여 지상 좌표계 상에서 지상점이 존재하는 2개 이상의 직선의 방정식을 유도할 수 있다.The equation inducing unit 134 may derive an equation of two or more straight lines having a ground point on the ground coordinate system using the calculated image point vector.

3차원 좌표 결정부(135)는 유도된 2개 이상의 상기 직선의 방정식의 교차점을 산출하여 산출된 상기 교차점을 이용하여 상기 대상지점에 대한 3차원 좌표값을 결정할 수 있다. 구체적으로 설명하면, 3차원 좌표 결정부(135)는 2개 이상의 중첩된 영상에서 선정한 공액점으로부터 각각 유도한 2개 이상의 상기 직선의 방정식을 이용하여 직선 간의 거리의 제곱이 합이 최소인 상기 교차점을 산출하여 산출된 상기 교차점을 이용하여 각 직선마다 지상점 좌표값들을 산출한 후, 그 지상점의 좌표값들 사이의 거리를 기 설정된 임계치와 비교할 수 있다. 3차원 좌표 결정부(135)는 그 비교한 결과에 따라 지상점의 좌표값들 사이의 거리가 기 설정된 임계치보다 크면, 정합오류로 판단할 수 있다.The three-dimensional coordinate determination unit 135 may determine the three-dimensional coordinate value for the target point by using the intersection point calculated by calculating the intersection of the derived equations of the two or more straight lines. Specifically, the three-dimensional coordinate determination unit 135 uses the equation of two or more straight lines respectively derived from the conjugate points selected from two or more overlapping images to determine the intersection point of which the sum of the squares of the straight lines is the minimum sum. After calculating the ground point coordinate values for each straight line by using the calculated intersection point, the distance between the coordinate values of the ground point may be compared with a preset threshold. If the distance between the coordinate values of the ground point is larger than the preset threshold value, the 3D coordinate determination unit 135 may determine that it is a matching error.

반면 3차원 좌표 결정부(135)는 그 비교한 결과에 따라 지상점의 좌표값들 사이의 거리가 기 설정된 임계치보다 작으면, 두 지상점의 좌표값들의 평균을 구하여 그 구한 두 지상점의 좌표값들의 평균으로 대상지점에 대한 3차원 좌표값을 결정할 수 있다.
On the other hand, if the distance between the coordinates of the ground points is smaller than the preset threshold, the 3D coordinate determination unit 135 calculates the average of the coordinate values of the two ground points and calculates the coordinates of the two ground points. The average of the values may determine a three-dimensional coordinate value for the target point.

이하에서는 본 발명의 실시예에 따른 객체의 3차원 좌표를 결정하기 위한 방법을 실험한 결과를 도 8 내지 도 17을 참조하여 설명한다.Hereinafter, a result of experimenting a method for determining 3D coordinates of an object according to an embodiment of the present invention will be described with reference to FIGS. 8 to 17.

센서 시스템Sensor system

도 8은 본 발명의 실시예에 따른 전방위 카메라의 외관을 나타내는 예시도이다.8 is an exemplary view showing the appearance of a omnidirectional camera according to an embodiment of the present invention.

도 8에 도시한 바와 같이, 본 발명에서 사용한 전방위 카메라(Omni-directional camera)의 제원은 다음의 [표 1]에서 보여주고 있다. 즉, 카메라는 1600 x 1200의 공간 해상도를 갖는 6개의 CCD를 통해 360ㅀ의 시야각(Field Of View; FOV)을 갖는다. 출력 영상은 가로 360ㅀ, 세로 180ㅀ를 포함하는 5400 x 2700의 해상도를 갖는다.As shown in Figure 8, the specification of the omni-directional camera used in the present invention is shown in the following [Table 1]. That is, the camera has a field of view (FOV) of 360 degrees through six CCDs having a spatial resolution of 1600 x 1200. The output image has a resolution of 5400 x 2700 including a horizontal 360 Hz and a vertical 180 Hz.

[표 1][Table 1]

Figure 112011031426248-pat00034
Figure 112011031426248-pat00034

도 9는 본 발명에 따른 전방위 영상을 생성하는 과정을 나타내는 예시도이다.9 is an exemplary view illustrating a process of generating an omnidirectional image according to the present invention.

도 9에 도시한 바와 같이, 전방위 카메라를 통해 6개의 개별적인 영상을 취득하여 최종적으로 통합된 하나의 영상을 생성하는 과정을 보여주고 있다. 먼저 6개의 CCD를 통해 Bayer-tiled Raw 형식의 영상을 획득한 후 JPEG형식으로 압축하여 Firewire를 통해 PC(Personal Computer)로 전송한다. PC에서 전송된 영상의 압축을 풀고, Raw 영상을 RGB 컬러영상으로 변환하여 그래픽카드로 전달한다. 그래픽 카드에서 배럴왜곡(barrel distortion)을 제거하는 보정(rectification) 과정, 영상 텍스쳐를 2D 또는 3D 좌표계로 변환하는 투영(projection) 과정, 각각의 CCD를 통해 획득된 영상들을 서로 연결하는 블랜딩(blending) 과정을 거쳐 최종적으로 하나의 영상(stitched image)을 생성한다.
As shown in FIG. 9, the process of acquiring six individual images through an omnidirectional camera and generating one finally integrated image is shown. First, Bayer-tiled Raw format image is acquired through 6 CCDs, then compressed into JPEG format and transmitted to PC (Personal Computer) through Firewire. It decompresses the image transmitted from the PC, converts the raw image into RGB color image, and delivers it to the graphic card. Rectification process to eliminate barrel distortions on graphics cards, projection process to convert image texture to 2D or 3D coordinate system, and blending to connect images acquired through each CCD to each other Finally, one stitched image is generated.

전방위 카메라 영상의 외부표정 요소를 취득하기 위해 전방위 카메라와 함께 GPS/INS 센서를 탑재하였다. 사용된 센서는 모바일 매핑 시스템(Mobile Mapping System)과 같은 이동형 시스템에 적합한 센서이다. 3축 방향으로 가속도를 측정하는 가속도계(accelerometer)와 3개의 회전축의 각속도를 측정하는 자이로스코프(gyroscope)가 내장된 IMU(Inertial Measurement Unit)로 구성되어 있다. GPS는 3차원 절대좌표의 위치를 측정할 뿐만 아니라 2개의 GPS 안테나를 이용하여 INS의 오차를 보정하는 GAMS(GNSS Azimuth Measurement Subsystem)을 사용한다. GPS의 반송파를 이용해 2개의 GPS 안테나 사이의 상대적 위치 벡터를 측정하는 시스템으로 INS의 오차를 연속적으로 보정한다.GPS / INS sensor is equipped with omnidirectional camera to acquire external expression elements of omnidirectional camera image. The sensor used is a sensor suitable for a mobile system such as a mobile mapping system. It consists of an accelerometer that measures acceleration in three axes and an Inertial Measurement Unit (IMU) with a built-in gyroscope that measures the angular velocity of three rotary axes. GPS uses the GMS (GNSS Azimuth Measurement Subsystem), which not only measures the position of three-dimensional absolute coordinates but also corrects the error of the INS using two GPS antennas. A system that measures the relative position vector between two GPS antennas using GPS carriers and continuously compensates for errors in the INS.

다음의 [표 2]는 사용된 GPS/INS 센서로 측정한 위치 및 자세에 대한 정확도를 보여준다.Table 2 below shows the accuracy of position and attitude measured by the GPS / INS sensor used.

[표 2][Table 2]

Figure 112011031426248-pat00035
Figure 112011031426248-pat00035

도 10은는 본 발명의 실시예에 따른 전방위 카메라 및 GPS/INS 센서를 통합한 센서를 나타내는 예시도이고, 도 11은 본 발명의 실시예에 따른 통합 센서를 차량에 탑재하여 완성된 모바일 매핑 시스템을 나타내는 예시도이다.10 is an exemplary view showing a sensor incorporating a omnidirectional camera and a GPS / INS sensor according to an embodiment of the present invention, Figure 11 is a mobile mapping system completed by mounting the integrated sensor according to an embodiment of the present invention in a vehicle It is an exemplary figure to show.

도 10 내지 도 11을 참조하면 통합 센서의 상단부에는 전방위 카메라, 아래에는 INS가 탑재되어 있으며 차량 진행 방향(X축 방향)으로 2대의 GPS 안테나가 탑재되어 있다. 완성된 통합 센서는 상하 방향으로 상당히 길어 터널 및 교량 하부를 통과할 경우 충돌 위험성이 있고, 전방위 카메라의 특성상 차량이 영상에 포함되기 때문에 이를 최소화하기 위해 차체가 작고 낮은 차량을 선정하였다.
10 to 11, an omnidirectional camera is mounted on the upper end of the integrated sensor, and an INS is mounted below, and two GPS antennas are mounted in the vehicle travel direction (X-axis direction). The completed integrated sensor is considerably longer in the vertical direction, and there is a risk of collision when passing through the tunnel and the lower part of the bridge.

실험 데이터Experimental data

도 12는 본 발명의 실시예에 따른 영상의 취득 경로 및 지상점 그룹을 보여주는 예시도이고, 도 13은 본 발명의 실시예에 따른 전방위 영상을 보여주는 예시도이다.12 is an exemplary view showing an image acquisition path and a ground point group according to an embodiment of the present invention, and FIG. 13 is an exemplary view showing an omnidirectional image according to an embodiment of the present invention.

도 12를 참조하면, 실험을 통해 획득된 영상 데이터는 평균 1MB의 용량을 가진 5400 * 2700의 해상도를 갖는 영상으로 Jpeg 압축방식을 사용하였다. 영상을 취득한 장소는 경기도 오산시청 부근의 도로 주변으로 지도상의 동쪽에서 서쪽으로 이동하면서 영상을 취득하였다. 차량이 이동한 도로는 편도 2~3차선으로 근처에 공원 및 5층 안팎의 낮은 건물이 있고 다소 먼 지점에는 고층 아파트 및 상가들이 분포되어 있다. 기존에 검사점이 확보되어 있는 3개의 그룹 A,B,C에서 기선의 길이 따라 각 2쌍의 중첩영상을 선택하였다. 또한, 그룹 C에서는 대상객체와 카메라의 상호위치와 정확도의 관계를 분석하기 위해서 추가로 유사한 크기의 기선을 갖는 2쌍의 중첩영상을 선택하였다. 선택된 전방위 영상의 예시는 도 13에서 볼 수 있다. 이러한 전방위 영상은 수평방향으로 360ㅀ수직 방향으로 180ㅀ해당하는 범위의 전방위 정보를 포함하고 있으며 영상의 중심이 차량의 진행방향을 나타낸다.
Referring to FIG. 12, the image data obtained through the experiment was an image having a resolution of 5400 * 2700 having an average capacity of 1MB and used the Jpeg compression method. The place where the images were acquired was obtained by moving from east to west on the map around the road near Osan City Hall, Gyeonggi-do. The road on which the vehicle travels is a two- or three-way one-way street, with nearby parks and low-rise buildings on and around the fifth floor, and high-rise apartments and malls at some distance. Two pairs of overlapping images were selected along the length of the baseline in three groups A, B, and C, which had previously secured a checkpoint. Also, in group C, two pairs of superimposed images with similar baselines were selected to analyze the relationship between the object position and the camera's mutual position and accuracy. An example of the selected omnidirectional image can be seen in FIG. 13. The omnidirectional image includes omnidirectional information in a range corresponding to 360 ° in the horizontal direction and 180 ° in the vertical direction, and the center of the image represents the driving direction of the vehicle.

다음의 [표 3]은 GPS/INS 데이터로부터 측정한 개별 영상을 취득한 시점의 전방위 카메라의 위치/자세를 나타내는 외부표정 요소 및 기선 거리를 보여주고 있다. 각 영역 별로 단기선 그룹(A1, B1, C1)은 약 2 m 내외의 기선을 장기선 그룹(A2, B2, C2)은 16-18 m의 기선을 갖는다. 그룹 C3 및 C4는 대상객체와 카메라의 상호위치와 정확도의 관계를 분석하기 위해서 선택한 것으로 12 m의 기선을 갖는다.[Table 3] below shows the external expression elements and the baseline distance indicating the position / posture of the omnidirectional camera at the time of acquiring the individual images measured from the GPS / INS data. In each region, the short-term ship group A1, B1, C1 has a baseline of about 2 m and the long-term ship group A2, B2, C2 has a baseline of 16-18 m. Groups C3 and C4 were selected to analyze the relationship between the object and the camera's mutual position and accuracy, and have a baseline of 12 m.

[표 3][Table 3]

Figure 112011031426248-pat00036

Figure 112011031426248-pat00036

제안된 방법을 통해 전방위 영상으로부터 결정된 지상점의 정확도를 검증하기 위해 GPS와 토탈스테이션을 이용하여 영상에서 식별이 용이한 주요 지점의 3차원 절대좌표를 측정하여 검사점으로 사용하였다.In order to verify the accuracy of the ground point determined from the omnidirectional image through the proposed method, three-dimensional absolute coordinates of the main points that can be easily identified in the image using GPS and total station were used as test points.

도 14는 본 발명의 실시예에 따른 각 영역별 검사점을 보여주는 예시도이다.14 is an exemplary view showing a checkpoint for each region according to an exemplary embodiment of the present invention.

도 14에 도시한 바와 같이, 영역 A는 경고 표지판으로 4개의 검사점을 포함하며 영역 B는 도로 표지판으로 3개의 검사점을 포함하고 있다. 마지막으로 영역 C는 도로 위의 방향 화살표로 3개의 검사점을 포함하고 있다.
As shown in Fig. 14, area A includes four check points as warning signs and area B includes three check points as road signs. Finally, area C contains three checkpoints with directional arrows on the road.

결과 및 분석Results and analysis

도 15는 본 발명의 실시예에 따른 전방위 영상으로부터 결정된 지상점과 검사점을 보여주는 예시도이다.15 is an exemplary view showing ground points and inspection points determined from an omnidirectional image according to an embodiment of the present invention.

도 15에 도시한 바와 같이, 제안된 방법을 통해 전방위 영상으로부터 결정된 지상점과 GPS 및 토탈스테이션으로 측량한 검사점을 비교하여 보여주고 있다. 단기선 영상을 통해 결정된 지상점을 연결한 다각형(붉은색, S1~Sn)보다 장기선 영상을 통해 결정된 지상점을 연결한 다각형(녹색, L1~Ln)이 검사점을 연결한 다각형(파란색, C1~Cn)과 더 유사한 것을 볼 수 있다.As shown in FIG. 15, the ground point determined from the omnidirectional image is compared with the inspection point measured by the GPS and the total station through the proposed method. Polygons (green, L1-Ln) connecting the ground points determined through the long-term line image (green, L1-Ln) rather than polygons connecting the ground points determined through the short-line image (blue, C1- More similar to Cn).

이를 정량적으로 살펴보기 위해서 지상점 좌표의 오차를 계산하여 다음의 [표 4]에 정리하였다.To examine this quantitatively, the error of ground point coordinates was calculated and summarized in the following [Table 4].

[표 4][Table 4]

Figure 112011031426248-pat00037

Figure 112011031426248-pat00037

검사점 좌표를 참값으로 가정하여 지상점 좌표와의 차이를 계산한 결과 RMSE가 수 십 cm에서 1 m 내외로 계산되었다. 장기선의 경우에 다각형의 유사성이 높아보였지만 절대좌표값에 대한 RMSE는 기선의 길이에 따른 차이가 크지 않았다. 지상점과 검사점을 각각 연결한 다각형이 상당히 유사한 것으로 관측됨에도 불구하고 절대좌표값에 대한 RMSE가 큰 것을 미루어볼 때 지상점 좌표값에 상당한 크기의 시스템적 오차를 포함하고 있는 것이라고 판단된다. 이러한 시스템적 오차는 지상점과 검사점 사이의 3차원 이동 및 회전 변환을 통해 제거될 수 있다. 또는, 영상의 외부표정요소를 1-2개의 지상기준점(Ground Control Point)을 포함하여 추정함을 통해 제거할 수도 있다. 시스템적 오차가 제거된 상태에서 여전히 남아있는 오차의 크기를 알아보고자 위 두 방법 중 축척을 고정한 후 지상점과 검사점간의 3축 회전각 및 이동량을 고려하여 변환계수를 결정하는 방법을 통하여 3차원 좌표의 상대적인 오차량을 계산하였다.Assuming the checkpoint coordinates are true, the difference from the ground coordinates was calculated and the RMSE was calculated from several tens of cm to about 1 m. In the case of long-term lines, the similarity of polygons appeared to be high, but the RMSE for absolute coordinates was not significantly different according to the length of the baseline. Although the polygons connecting the ground points and check points were observed to be quite similar, it is considered that the ground point coordinates contain a considerable amount of system error, considering that the RMSE of the absolute coordinate values is large. This systematic error can be eliminated through three-dimensional movement and rotational transformation between ground and inspection points. Alternatively, the external expression element of the image may be removed by estimating one or two ground control points. In order to determine the magnitude of the error still remaining after the systematic error is removed, the three-dimensional method is determined by considering the three-axis rotation angle and the amount of movement between the ground point and the inspection point after fixing the scale. The relative error amount of the coordinates was calculated.

다음의 [표 5]는 검사점과 지상점 사이의 절대좌표의 오차를 나타내고, 단위는 [m]이다.[Table 5] below shows the error of the absolute coordinate between the inspection point and the ground point, and the unit is [m].

[표 5][Table 5]

Figure 112011031426248-pat00038

Figure 112011031426248-pat00038

다음의 [표 6]은 토탈 스테이션과 GPS를 통해 획득한 검사점과 제안된 방법론으로 추정된 지상점의 관계를 3개의 이동변환 계수와 3개의 회전변환 계수를 통해 보여주고 있다.[Table 6] shows the relationship between the check points acquired through the total station and the GPS and the ground points estimated by the proposed methodology through three movement transformation coefficients and three rotation transformation coefficients.

[표 6]TABLE 6

Figure 112011031426248-pat00039

Figure 112011031426248-pat00039

다음의 [표 7]은 앞서 구한 6개의 변환계수를 통해 산출된 지상점 오차를 보여주고 단위는 [m]이다.[Table 7] below shows the ground point error calculated from the six conversion coefficients, and the unit is [m].

[표 7][Table 7]

Figure 112011031426248-pat00040

Figure 112011031426248-pat00040

시스템적 오차를 포함하는 절대좌표 오차의 RMSE에 비해 시스템적 오차가 제외된 상대좌표 오차의 RMSE가 크게 감소한 것을 확인할 수 있다. 이 결과를 통해 정밀한 측정으로 획득한 검사점과 조정계산 된 지상점 사이의 3차원 이동 및 회전 변환 계수를 추정하여 시스템적 오차를 제거함으로써 중첩된 전방위 영상으로부터 대상객체의 3차원 모델 또는 대상지점의 상대좌표를 수 cm 내외의 정확도로 추출할 수 있다는 것을 알 수 있었다.
It can be seen that the RMSE of relative coordinate error without systematic error is significantly reduced compared to the RMSE of absolute coordinate error including systemic error. Based on these results, the three-dimensional movement and rotation conversion coefficients between the checkpoints obtained by precise measurement and the adjusted ground point are estimated to eliminate the systematic error. It can be seen that the relative coordinates can be extracted with an accuracy of about several cm.

도 16은 본 발명의 실시예에 따른 카메라 위치와 검사점 위치 사이의 관계를 나타내는 예시도이다.16 is an exemplary view showing a relationship between a camera position and a checkpoint position according to an embodiment of the present invention.

대상 객체와의 거리에 비해 너무 짧지 않은 기선을 갖는 중첩 영상을 선택하여 적절한 거리 대 기선의 비를 유지하면 상대적으로 상관관계가 낮은 두 개의 공선 조건식(collinearity equation)을 얻을 수 있고 이로부터 대상 객체의 3차원 좌표를 정밀하게 결정할 수 있다.By selecting an overlapping image with a baseline that is not too short for the distance to the target object and maintaining the proper ratio of distance to the baseline, two relatively low collinearity equations can be obtained, from which Three-dimensional coordinates can be determined precisely.

그러나 도 16에 있는 그룹 C3의 경우처럼 대상점이 차량의 진행방향(x축 방향)으로 분포되어 있는 경우는 기선이 길어도 각각의 투영중심에서 하나의 대상지점에 연결하는 직선이 상당히 유사하게 나타나고 이로 인해 공선 조건식 간의 상관관계가 크기 때문에 좋은 결과를 얻을 수 없다. 이에 거리 대 기선의 비뿐 만 아니라 대상객체와 카메라 사이의 상호위치도 3차원 좌표 결정에 중요한 요소로 예측된다. 이를 검증하기 위해서 기선의 길이는 거의 동일하게 유지하고 상호위치가 다른 중첩 영상 즉, 도 16의 그룹 C4를 선택하였다. 본 발명의 실험에서는 카메라의 위치에 따른 영상만 다를 뿐 기선의 길이 및 사용된 검사점등의 모든 실험 조건을 같게 하여 지상점의 3차원 절대좌표 및 오차를 구하였다. 도 16에서 보는 바와 같이 그룹 C3는 X축을 기준으로 두 카메라 사이에 검사점 이 위치하지 않은 경우이고 C4는 두 카메라 사이에 검사점 그룹이 위치된 경우이다.
However, as in the case of the group C3 in FIG. 16, when the target points are distributed in the traveling direction (x-axis direction) of the vehicle, even when the base line is long, the straight lines connecting to one target point at each projection center appear quite similar. Good correlations cannot be obtained because of the large correlation between collinear conditions. Therefore, not only the ratio of the distance to the base line but also the mutual position between the object and the camera are predicted to be important factors in determining the 3D coordinates. In order to verify this, the overlapping images of which the baseline lengths are kept substantially the same and have different mutual positions, that is, group C4 of FIG. 16 were selected. In the experiment of the present invention, only the image according to the position of the camera is different, and the three-dimensional absolute coordinates and errors of the ground points were obtained by equalizing all the experimental conditions such as the length of the base line and the inspection point used. As shown in FIG. 16, group C3 is a case where a checkpoint is not located between two cameras based on the X axis, and C4 is a case where a checkpoint group is located between two cameras.

도 17은 본 발명의 실시예에 따른 전방위 영상으로부터 결정된 지상점과 검사점을 보여주는 예시도이다.17 is an exemplary view illustrating ground points and inspection points determined from an omnidirectional image according to an embodiment of the present invention.

도 17에 도시한 바와 같이, 검사점과 두 그룹의 중첩영상으로부터 결정된 지상점을 보여주고 있다. 그룹 C3의 지상점(붉은색, C3) 보다 그룹 C4의 지상점(녹색, C4)이 모양, 크기 및 방향 면에서 검사점(파란색, P)과 더 유사한 것을 확인할 수 있다. C3의 경우 각 공선 조건식의 상관관계가 높은 반면 C4의 경우 상관관계가 매우 낮아 독립적인 공선 조건식을 얻을 수 있어서 보다 높은 정확도를 갖는다.As shown in FIG. 17, the inspection point and the ground point determined from the superimposed images of the two groups are shown. It can be seen that the ground points of the group C4 (green, C4) are more similar to the checkpoints (blue, P) in shape, size and direction than the ground points of the group C3 (red, C3). In the case of C3, the correlation of each collinear condition is high, whereas in the case of C4, the correlation is very low, so an independent collinear condition can be obtained.

다음의 [표 8]은 검사점과 지상점의 3차원 절대 좌표 및 그 오차를 정량적으로 보여주고 단위는 [m]이다.[Table 8] shows the three-dimensional absolute coordinates of the checkpoint and the ground point and their error quantitatively and the unit is [m].

[표 8][Table 8]

Figure 112011031426248-pat00041

Figure 112011031426248-pat00041

[표 8]를 통해 그룹 C4가 C3보다는 약 2배 정도의 높은 정확도를 갖는 다는 사실을 알 수 있다.Table 8 shows that group C4 is about twice as accurate as C3.

다음의 [표 9]는 시스템적 오차를 제거한 후 그룹 C3와 C4의 환경하에서 실험을 한 결과를 보여주고 단위는 [m]이다.[Table 9] below shows the results of experiments under the environment of groups C3 and C4 after removing the system error, and the unit is [m].

[표 9]TABLE 9

Figure 112011031426248-pat00042

Figure 112011031426248-pat00042

기선 길이에 따른 정확도 검증 실험에서와 같이 시스템 오차를 포함한 절대좌표 결정 정확도 보다 시스템 오차를 제외한 상대좌표의 정확도가 높음을 확인할 수 있었다. 이러한 실험을 통해 검사점을 중심으로 앞뒤에 위치하는 중첩 영상을 사용하면 보다 정확한 대상 객체의 모델을 추출할 수 있다는 것을 알 수 있었다.
As in the accuracy verification experiment according to the baseline length, the accuracy of the relative coordinates excluding the system error is higher than that of the absolute coordinates including the system error. Through these experiments, it was found that the model of the target object can be extracted more accurately by using the superimposed images located in front and behind the checkpoint.

전방위 카메라 중첩 영상과 GPS/INS 정보를 이용하여 대상 객체의 3차원 좌표를 계산하는 수학적 모델을 수립하고 이를 실측 데이터에 적용하여 검증하였다. 두 개의 영상에서 취득된 한 쌍의 공액점으로부터 이에 대응되는 지상 좌표계 상에서 정의된 한 쌍의 직선을 유도하고 이의 교점을 계산하여 지상점의 3차원 좌표를 결정하였다. GPS와 토탈스테이션으로 정밀하게 측정한 검사점과 비교하여 정확도를 검증하였다. 기선의 길이 및 카메라/대상객체 사이의 상호위치를 적절하게 설정한다면 수 cm 내의 정확도를 가지고 대상객체의 3차원 모델 또는 대상지점의 상대좌표를 추출할 수 있다는 것을 알 수 있었다. 이는 전방위 카메라 영상으로부터 도시정보시스템(UIS)를 구성하는 도로의 구성요소, 도로면의 표지, 도로주변의 교통시설물 및 건물 등의 주요 객체들을 충분히 활용 가능한 정확도 수준으로 추출할 수 있다는 것을 의미한다.A mathematical model for calculating three-dimensional coordinates of a target object using omnidirectional camera superimposition images and GPS / INS information was established and verified by applying it to the measured data. The three-dimensional coordinates of the ground point were determined by deriving a pair of straight lines defined on the corresponding ground coordinate system from the pair of conjugate points acquired from the two images and calculating their intersection points. The accuracy was verified by comparing the test points precisely measured by GPS and total station. If the length of the baseline and the mutual position between the camera and the object are properly set, it can be seen that the relative coordinates of the object or the three-dimensional model of the object can be extracted with an accuracy of several cm. This means that it is possible to extract key objects such as road components, road signs, traffic facilities and buildings around the road from the omnidirectional camera image to a level that can be fully utilized.

대상지점의 절대좌표는 수 cm에서 1 m내외의 정확도를 보이고 있으며 단순한 기하 모델로 표현될 수 있는 시스템적 오차가 포함된 것으로 보인다. 이러한 오차는 카메라 좌표계와 GPS/INS 좌표계 사이의 관계를 보다 정확하게 설정하고, 전방위 카메라 보정(Calibration)을 수행함을 통해 상당히 제거될 것으로 판단된다.
The absolute coordinates of the target point show accuracy of about several centimeters to about 1 m and include systematic errors that can be represented by simple geometric models. This error may be considerably eliminated by more accurately setting the relationship between the camera coordinate system and the GPS / INS coordinate system and performing omnidirectional camera calibration.

본 발명에 의한 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 모바일 매핑 시스템 및 그 방법이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Various modifications and variations can be made by those skilled in the art to determine the three-dimensional coordinates of an object using the omnidirectional image according to the present invention, and those skilled in the art to which the present invention pertains. This will be possible. Therefore, the embodiments disclosed in the present invention are not intended to limit the scope of the present invention but to limit the scope of the technical idea of the present invention. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

110: 영상정보 획득수단
120: 위치정보 획득수단
130: 사용자 단말기
131: 정보 수집부
132: 공액점 산출부
133: 벡터 산출부
134: 수식 유도부
135: 3차원 좌표 결정부
110: image information acquisition means
120: location information acquisition means
130: user terminal
131: Information collecting section
132: conjugate point calculation unit
133: vector calculator
134: formula guide
135: 3D coordinate determination unit

Claims (20)

중첩된 전방위 영상을 획득하는 영상정보 획득수단;
상기 영상정보 획득수단의 위치 정보와 자세 정보를 획득하는 위치정보 획득수단; 및
상기 중첩된 전방위 영상, 상기 위치 정보와 자세 정보, 기 설정된 대상지점에 대한 공액점의 영상 좌표값을 기반으로 카메라 좌표계 상에서의 영상점 벡터를 산출하여 산출된 상기 영상점 벡터를 이용하여 지상 좌표계 상에서 지상점이 존재하는 2개 이상의 직선의 방정식을 유도하고, 유도된 상기 2개 이상의 직선의 방정식의 교차점을 산출하여 산출된 상기 교차점을 이용하여 상기 대상지점에 대한 3차원 좌표값을 결정하는 사용자 단말기;
를 포함하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템.
Image information acquiring means for acquiring the superposed omnidirectional image;
Location information acquisition means for obtaining location information and attitude information of the image information acquisition means; And
The image point vector calculated on the camera coordinate system is calculated based on the overlapped omnidirectional image, the position information and attitude information, and the image coordinate value of the conjugate point with respect to the preset target point. A user terminal for deriving an equation of two or more straight lines in which a point exists and determining a three-dimensional coordinate value for the target point by using the intersection point calculated by calculating an intersection point of the derived two or more linear equations;
System for determining the three-dimensional coordinates of the object using an overlapping omnidirectional image comprising a.
제1 항에 있어서,
상기 사용자 단말기는,
적어도 두 개의 충접된 전방위 영상에서 임의의 대상지점이 선택되면 각 전방위 영상으로부터 그 대상지점에 대한 공액점의 영상 좌표값을 산출하는 것을 특징으로 하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템.
The method according to claim 1,
The user terminal comprises:
Determining three-dimensional coordinates of an object by using an overlapping omnidirectional image, wherein an image coordinate value of a conjugate point for the target point is calculated from each omnidirectional image when an arbitrary target point is selected in at least two abutment omnidirectional images. System.
제2 항에 있어서,
상기 사용자 단말기는,
상기 공액점의 영상 좌표값을 기반으로 카메라 좌표계 상에서 상기 전방위 카메라의 투영 중심에서 영상점을 잇는 영상점 벡터를 산출하는 것을 특징으로 하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템.
The method of claim 2,
The user terminal comprises:
And an image point vector for connecting the image points at the projection center of the omnidirectional camera on the camera coordinate system based on the image coordinate values of the conjugate points.
제1 항에 있어서,
상기 사용자 단말기는,
상기 카메라 좌표계로 표현된 영상점 벡터를 이용하여 상기 지상 좌표계로 표현되는 지상점이 존재하는 직선의 방정식을 유도하되,
상기 직선의 방정식은 수학식
Figure 112011031426248-pat00043
로 정의하고, 여기서, 상기 GP는 지상 좌표계로 표현된 지상점의 좌표를 의미하며 카메라의 투영 중심, 영상점과 지상점을 잇는 상기 직선 상에 존재하고, 상기 λ는 상기 직선 상에 한 점을 특정하기 위한 변수를 나타내며, 상기
Figure 112011031426248-pat00044
는 카메라 좌표계로 표현된 벡터를 지상좌표계로 변환하기 위한 회전행렬을 나타내며, 상기 Cn는 카메라 좌표계로 표현되 영상점 벡터를 나타내며, 상기 GOC는 지상 좌표계로 표현된 카메라의 투영 중심을 나타내는 것을 특징으로 하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템.
The method according to claim 1,
The user terminal comprises:
Using the image point vector represented by the camera coordinate system to derive an equation of a straight line in which the ground point represented by the ground coordinate system exists,
The equation of the straight line is an equation
Figure 112011031426248-pat00043
Wherein, G P is the coordinate of the ground point represented by the ground coordinate system and is present on the straight line connecting the projection center of the camera, the image point and the ground point, and λ is one point on the straight line. Represents a variable for specifying
Figure 112011031426248-pat00044
Denotes a rotation matrix for converting a vector expressed in a camera coordinate system into a ground coordinate system, C n denotes an image point vector expressed in a camera coordinate system, and G O C denotes a projection center of a camera expressed in a ground coordinate system. System for determining the three-dimensional coordinates of the object using the overlapping omnidirectional image, characterized in that.
제1 항에 있어서,
상기 사용자 단말기는,
2개 이상의 중첩된 영상에서 선정한 공액점으로부터 각각 유도한 2개 이상의 상기 직선의 방정식을 이용하여 직선 간의 거리의 제곱이 합이 최소인 상기 교차점을 산출하여 산출된 상기 교차점을 이용하여 각 직선마다 지상점 좌표값들을 산출한 후, 그 지상점 좌표값들 사이의 거리를 기 설정된 임계치와 비교하여, 그 비교한 결과로 지상점의 좌표값들 사이의 거리가 기 설정된 임계치보다 작으면, 지상점 좌표값들의 평균을 구하여 그 구한 두 지상점의 좌표값들의 평균으로 대상지점에 대한 3차원 좌표값을 결정하는 것을 특징으로 하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템.
The method according to claim 1,
The user terminal comprises:
Ground point for each straight line using the intersection point calculated by calculating the intersection point of which the sum of squares of the distances between the straight lines is the minimum using equations of two or more straight lines respectively derived from conjugate points selected from two or more overlapping images. After calculating the coordinate values, the distance between the ground point coordinate values is compared with the preset threshold value, and if the distance between the ground point coordinate values is smaller than the preset threshold value, the ground point coordinate value A system for determining three-dimensional coordinates of an object using an overlapping omnidirectional image, wherein the average of the two points is determined to determine a three-dimensional coordinate value of the target point by averaging the coordinate values of the two ground points.
입력받은 적어도 두 개의 충접된 전방위 영상에서 임의의 대상지점이 선택되면 각 전방위 영상으로부터 그 대상지점에 대한 공액점의 영상 좌표값을 산출하는 공액점 산출부;
산출된 상기 공액점의 좌표값을 기반으로 카메라 좌표계 상에서의 영상점 벡터를 산출하는 벡터 산출부;
산출된 상기 영상점 벡터를 이용하여 지상 좌표계 상에서 지상점이 존재하는 2개 이상의 직선의 방정식을 유도하는 수식 유도부; 및
유도된 2개 이상의 상기 직선의 방정식의 교차점을 산출하여 산출된 상기 교차점을 이용하여 상기 대상지점에 대한 3차원 좌표값을 결정하는 3차원 좌표 결정부;
를 포함하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템.
A conjugate point calculator configured to calculate an image coordinate value of a conjugate point of the target point from each of the omnidirectional images when an arbitrary target point is selected from the at least two received omnidirectional images;
A vector calculator configured to calculate an image point vector on a camera coordinate system based on the calculated coordinate values of the conjugate points;
A formula derivation unit for deriving an equation of two or more straight lines having a ground point on a ground coordinate system using the calculated image point vector; And
A three-dimensional coordinate determination unit configured to determine a three-dimensional coordinate value for the target point by using the intersection point calculated by calculating an intersection point of two or more derived straight line equations;
System for determining the three-dimensional coordinates of the object using an overlapping omnidirectional image comprising a.
제6 항에 있어서,
상기 벡터 산출부는,
산출된 상기 공액점의 영상 좌표값을 기반으로 카메라 좌표계 상에서 영상정보 획득수단의 투영의 중심에서 영상점을 잇는 영상점 벡터를 산출하는 것을 특징으로 하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템.
The method of claim 6,
The vector calculation unit,
The 3D coordinates of the object are determined using an overlapping omnidirectional image, which calculates an image point vector connecting the image points at the center of the projection of the image information acquisition means on the camera coordinate system based on the calculated image coordinate values of the conjugate points. System for doing so.
제6 항에 있어서,
상기 수식 유도부는,
상기 카메라 좌표계로 표현된 영상점 벡터를 이용하여 상기 지상 좌표계로 표현되는 지상점이 존재하는 직선의 방정식을 유도하되,
상기 직선의 방정식은 수학식
Figure 112011031426248-pat00045
로 정의하고, 여기서, 상기 GP는 지상 좌표계로 표현된 지상점의 좌표를 의미하며 카메라의 투영 중심, 영상점과 지상점을 잇는 상기 직선 상에 존재하고, 상기 λ는 상기 직선 상에 한 점을 특정하기 위한 변수를 나타내며, 상기
Figure 112011031426248-pat00046
는 카메라 좌표계로 표현된 벡터를 지상좌표계로 변환하기 위한 회전행렬을 나타내며, 상기 Cn는 카메라 좌표계로 표현되 영상점 벡터를 나타내며, 상기 GOC는 지상 좌표계로 표현된 카메라의 투영 중심을 나타내는 것을 특징으로 하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템.
The method of claim 6,
The formula induction unit,
Using the image point vector represented by the camera coordinate system to derive an equation of a straight line in which the ground point represented by the ground coordinate system exists,
The equation of the straight line is an equation
Figure 112011031426248-pat00045
Wherein, G P is the coordinate of the ground point represented by the ground coordinate system and is present on the straight line connecting the projection center of the camera, the image point and the ground point, and λ is one point on the straight line. Represents a variable for specifying
Figure 112011031426248-pat00046
Denotes a rotation matrix for converting a vector expressed in a camera coordinate system into a ground coordinate system, C n denotes an image point vector expressed in a camera coordinate system, and G O C denotes a projection center of a camera expressed in a ground coordinate system. System for determining the three-dimensional coordinates of the object using the overlapping omnidirectional image, characterized in that.
제6 항에 있어서,
상기 좌표 결정부는,
2개 이상의 중첩된 영상에서 선정한 공액점으로부터 각각 유도한 2개 이상의 상기 직선의 방정식을 이용하여 직선 간의 거리의 제곱이 합이 최소인 상기 교차점을 산출하여 산출된 상기 교차점을 이용하여 각 직선마다 지상점 좌표값들을 산출한 후, 그 지상점의 좌표값들 사이의 거리를 기 설정된 임계치와 비교하여, 그 비교한 결과로 지상점의 좌표값들 사이의 거리가 기 설정된 임계치보다 작으면, 두 지상점의 좌표값들의 평균을 구하여 그 구한 두 지상점의 좌표값들의 평균으로 대상지점에 대한 3차원 좌표값을 결정하는 것을 특징으로 하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템.
The method of claim 6,
The coordinate determination unit,
Ground point for each straight line using the intersection point calculated by calculating the intersection point of which the sum of squares of the distances between the straight lines is the minimum using equations of two or more straight lines respectively derived from conjugate points selected from two or more overlapping images. After calculating the coordinate values, the distance between the coordinate values of the ground point is compared with the preset threshold value, and as a result of the comparison, if the distance between the coordinate values of the ground point is smaller than the predetermined threshold value, the two ground points A system for determining three-dimensional coordinates of an object using an overlapping omnidirectional image, wherein the coordinate values of the target points are determined by averaging the coordinate values of the two ground points.
제6 항에 있어서,
영상정보 획득수단과 위치정보 획득수단으로부터 중첩된 전방위 영상, 위치 정보 및 자세 정보를 입력받는 정보 수집부;
를 더 포함하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템.
The method of claim 6,
An information collecting unit which receives the omnidirectional image, position information, and attitude information superimposed from the image information obtaining unit and the position information obtaining unit;
The system for determining the three-dimensional coordinates of the object using an overlapping omnidirectional image further comprising.
(a)영상정보 획득수단이 중첩 전방위 영상을 획득하는 단계;
(b)위치정보 획득수단이 상기 영상정보 획득수단의 위치 정보와 자세 정보를 획득하는 단계;
(c)사용자 단말기가 상기 중첩된 전방위 영상, 상기 위치 정보와 자세 정보, 기 설정된 대상지점에 대한 공액점의 영상점 좌표값을 기반으로 카메라 좌표계 상에서의 영상점 벡터를 산출하는 단계;
(d)상기 사용자 단말기가 산출된 상기 카메라 좌표계 상에서의 영상점 벡터를 이용하여 지상 좌표계 상에서의 지상점이 존재하는 직선의 방정식을 유도하는 단계; 및
(e)상기 사용자 단말기가 유도된 상기 직선의 방정식으로 교차점을 산출하여 산출된 상기 교차점을 이용하여 상기 대상지점에 대한 3차원 좌표값을 결정하는 단계;
를 포함하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 방법.
(a) obtaining, by the image information acquiring means, an overlapping omnidirectional image;
(b) obtaining, by the position information obtaining means, position information and attitude information of the image information obtaining means;
(c) calculating, by the user terminal, an image point vector on a camera coordinate system based on the overlapping omnidirectional image, the position information and attitude information, and an image point coordinate value of a conjugate point with respect to a preset target point;
(d) deriving, by the user terminal, an equation of a straight line in which a ground point exists in a ground coordinate system using the calculated image point vector in the camera coordinate system; And
(e) determining, by the user terminal, a three-dimensional coordinate value for the target point using the intersection point calculated by calculating an intersection point using the equation of the straight line derived;
Method for determining the three-dimensional coordinates of the object using the overlapping omnidirectional image comprising a.
제11 항에 있어서,
상기 (c) 단계는,
적어도 두 개의 충접된 전방위 영상에서 임의의 대상지점이 선택되면 각 전방위 영상으로부터 그 대상지점에 대한 공액점의 영상 좌표값을 산출하는 것을 특징으로 하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 방법.
12. The method of claim 11,
The step (c)
Determining three-dimensional coordinates of an object by using an overlapping omnidirectional image, wherein an image coordinate value of a conjugate point of the target point is calculated from each omnidirectional image when an arbitrary target point is selected from at least two abutment images. Way.
제11 항에 있어서,
상기 (c) 단계는,
상기 공액점의 영상 좌표값을 기반으로 카메라 좌표계 상에서 상기 영상정보 획득수단의 투영의 중심에서 영상점을 잇는 영상점 벡터를 산출하는 것을 특징으로 하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 방법.
12. The method of claim 11,
The step (c)
Determining three-dimensional coordinates of an object using an overlapping omnidirectional image, characterized by calculating an image point vector connecting an image point at the center of the projection of the image information acquisition means on a camera coordinate system based on the image coordinate value of the conjugate point. Way.
제11 항에 있어서,
상기 (d) 단계는,
상기 카메라 좌표계로 표현된 영상점 벡터를 이용하여 상기 지상 좌표계로 표현되는 지상점이 존재하는 직선의 방정식을 유도하되,
상기 직선의 방정식은 수학식
Figure 112011031426248-pat00047
로 정의하고, 여기서, 상기 GP는 지상 좌표계로 표현된 지상점의 좌표를 의미하며 카메라의 투영 중심, 영상점과 지상점을 잇는 상기 직선 상에 존재하고, 상기 λ는 상기 직선 상에 한 점을 특정하기 위한 변수를 나타내며, 상기
Figure 112011031426248-pat00048
는 카메라 좌표계로 표현된 벡터를 지상좌표계로 변환하기 위한 회전행렬을 나타내며, 상기 Cn는 카메라 좌표계로 표현되 영상점 벡터를 나타내며, 상기 GOC는 지상 좌표계로 표현된 카메라의 투영 중심을 나타내는 것을 특징으로 하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 방법.
12. The method of claim 11,
The step (d)
Using the image point vector represented by the camera coordinate system to derive an equation of a straight line in which the ground point represented by the ground coordinate system exists,
The equation of the straight line is an equation
Figure 112011031426248-pat00047
Wherein, G P is the coordinate of the ground point represented by the ground coordinate system and is present on the straight line connecting the projection center of the camera, the image point and the ground point, and λ is one point on the straight line. Represents a variable for specifying
Figure 112011031426248-pat00048
Denotes a rotation matrix for converting a vector expressed in a camera coordinate system into a ground coordinate system, C n denotes an image point vector expressed in a camera coordinate system, and G O C denotes a projection center of a camera expressed in a ground coordinate system. Method for determining the three-dimensional coordinates of the object using the overlapping omnidirectional image, characterized in that.
제11 항에 있어서,
상기 (e) 단계는,
2개 이상의 중첩된 영상에서 선정한 공액점으로부터 각각 유도한 2개 이상의 상기 직선의 방정식을 이용하여 직선 간의 거리의 제곱이 합이 최소인 상기 교차점을 산출하여 산출된 상기 교차점을 이용하여 각 직선마다 지상점 좌표값들을 산출한 후, 그 지상점의 좌표값들 사이의 거리를 기 설정된 임계치와 비교하여, 그 비교한 결과로 지상점의 좌표값들 사이의 거리가 기 설정된 임계치보다 작으면, 두 지상점의 좌표값들의 평균을 구하여 그 구한 두 지상점의 좌표값들의 평균으로 대상지점에 대한 3차원 좌표값을 결정하는 것을 특징으로 하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 방법.
12. The method of claim 11,
In step (e),
Ground point for each straight line using the intersection point calculated by calculating the intersection point of which the sum of squares of the distances between the straight lines is the minimum using equations of two or more straight lines respectively derived from conjugate points selected from two or more overlapping images. After calculating the coordinate values, the distance between the coordinate values of the ground point is compared with the preset threshold value, and as a result of the comparison, if the distance between the coordinate values of the ground point is smaller than the predetermined threshold value, the two ground points A method for determining three-dimensional coordinates of an object using an overlapping omnidirectional image, characterized by obtaining an average of coordinate values of and determining a three-dimensional coordinate value of a target point by averaging the coordinate values of the two ground points.
(a)입력받은 적어도 두 개의 충접된 전방위 영상에서 임의의 대상지점이 선택되면 각 전방위 영상으로부터 그 대상지점에 대한 공액점의 영상 좌표값을 산출하는 단계;
(b)산출된 상기 공액점의 영상 좌표값을 기반으로 카메라 좌표계 상에서의 영상점 벡터를 산출하는 단계;
(c)산출된 상기 카메라 좌표계 상에서의 영상점 벡터를 이용하여 지상 좌표계 상에서의 지상점이 존재하는 2개 이상의 직선의 방정식을 유도하는 단계; 및
(d)유도된 상기 2개 이상의 직선의 방정식의 교차점을 산출하여 산출된 상기 교차점을 이용하여 상기 대상지점에 대한 3차원 좌표값을 결정하는 단계;
를 포함하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 방법.
(a) calculating an image coordinate value of a conjugate point of the target point from each of the omnidirectional images when an arbitrary target point is selected from the at least two received omnidirectional images;
(b) calculating an image point vector on a camera coordinate system based on the calculated image coordinate value of the conjugate point;
(c) deriving an equation of two or more straight lines having a ground point on a ground coordinate system using the calculated image point vector on the camera coordinate system; And
(d) determining a three-dimensional coordinate value for the target point using the intersection point calculated by calculating an intersection point of the two or more linear equations derived;
Method for determining the three-dimensional coordinates of the object using the overlapping omnidirectional image comprising a.
제16 항에 있어서,
상기 (b) 단계는,
산출된 상기 공액점의 영상 좌표값을 기반으로 카메라 좌표계 상에서 영상정보 획득수단의 투영의 중심에서 영상점을 잇는 영상점 벡터를 산출하는 것을 특징으로 하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 방법.
17. The method of claim 16,
The step (b)
The 3D coordinates of the object are determined using an overlapping omnidirectional image, which calculates an image point vector connecting the image points at the center of the projection of the image information acquisition means on the camera coordinate system based on the calculated image coordinate values of the conjugate points. How to.
제16 항에 있어서,
상기 (c) 단계는,
상기 카메라 좌표계로 표현된 영상점 벡터를 이용하여 상기 지상 좌표계로 표현되는 지상점이 존재하는 직선의 방정식을 유도하되,
상기 직선의 방정식은 수학식
Figure 112011031426248-pat00049
로 정의하고, 여기서, 상기 GP는 지상 좌표계로 표현된 지상점의 좌표를 의미하며 카메라의 투영 중심, 영상점과 지상점을 잇는 상기 직선 상에 존재하고, 상기 λ는 상기 직선 상에 한 점을 특정하기 위한 변수를 나타내며, 상기
Figure 112011031426248-pat00050
는 카메라 좌표계로 표현된 벡터를 지상좌표계로 변환하기 위한 회전행렬을 나타내며, 상기 Cn는 카메라 좌표계로 표현되 영상점 벡터를 나타내며, 상기 GOC는 지상 좌표계로 표현된 카메라의 투영 중심을 나타내는 것을 특징으로 하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 방법.
17. The method of claim 16,
The step (c)
Using the image point vector represented by the camera coordinate system to derive an equation of a straight line in which the ground point represented by the ground coordinate system exists,
The equation of the straight line is an equation
Figure 112011031426248-pat00049
Wherein, G P is the coordinate of the ground point represented by the ground coordinate system and is present on the straight line connecting the projection center of the camera, the image point and the ground point, and λ is one point on the straight line. Represents a variable for specifying
Figure 112011031426248-pat00050
Denotes a rotation matrix for converting a vector expressed in a camera coordinate system into a ground coordinate system, C n denotes an image point vector expressed in a camera coordinate system, and G O C denotes a projection center of a camera expressed in a ground coordinate system. Method for determining the three-dimensional coordinates of the object using the overlapping omnidirectional image, characterized in that.
제16 항에 있어서,
상기 (d) 단계는,
2개 이상의 중첩된 영상에서 선정한 공액점으로부터 각각 유도한 2개 이상의 상기 직선의 방정식을 이용하여 직선 간의 거리의 제곱이 합이 최소인 상기 교차점을 산출하여 산출된 상기 교차점을 이용하여 각 직선마다 지상점 좌표값들을 산출한 후, 그 지상점의 좌표값들 사이의 거리를 기 설정된 임계치와 비교하여, 그 비교한 결과로 지상점의 좌표값들 사이의 거리가 기 설정된 임계치보다 작으면, 두 지상점의 좌표값들의 평균을 구하여 그 구한 두 지상점의 좌표값들의 평균으로 대상지점에 대한 3차원 좌표값을 결정하는 것을 특징으로 하는 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 방법.
17. The method of claim 16,
The step (d)
Ground point for each straight line using the intersection point calculated by calculating the intersection point of which the sum of squares of the distances between the straight lines is the minimum using equations of two or more straight lines respectively derived from conjugate points selected from two or more overlapping images. After calculating the coordinate values, the distance between the coordinate values of the ground point is compared with the preset threshold value, and as a result of the comparison, if the distance between the coordinate values of the ground point is smaller than the predetermined threshold value, the two ground points A method for determining three-dimensional coordinates of an object by using an omnidirectional image, characterized in that for obtaining the average of the coordinate values of the two ground points to determine the three-dimensional coordinate value for the target point.
제16 항에 있어서,
(a-1) 상기 (a) 단계 이전에 영상정보 획득수단과 위치정보 획득수단으로부터 중첩된 전방위 영상, 위치 정보 및 자세 정보를 입력받는 단계;
를 더 포함하는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 방법.
17. The method of claim 16,
(a-1) receiving an overlapping omnidirectional image, position information, and attitude information from the image information obtaining unit and the position information obtaining unit before the step (a);
Method for determining the three-dimensional coordinates of the object using the overlapping omnidirectional image further comprising.
KR1020110039678A 2010-04-27 2011-04-27 System for determining 3-dimensional coordinates of objects using overlapping omni-directional images and method thereof KR101179108B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20100038996 2010-04-27
KR1020100038996 2010-04-27

Publications (2)

Publication Number Publication Date
KR20110119589A KR20110119589A (en) 2011-11-02
KR101179108B1 true KR101179108B1 (en) 2012-09-07

Family

ID=45391108

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110039678A KR101179108B1 (en) 2010-04-27 2011-04-27 System for determining 3-dimensional coordinates of objects using overlapping omni-directional images and method thereof

Country Status (1)

Country Link
KR (1) KR101179108B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101316524B1 (en) 2013-01-03 2013-10-08 충남대학교산학협력단 Method and apparatus for estimating location in the object using omnidirectional vision sensor
KR20140139443A (en) 2013-05-27 2014-12-05 (주)지에스엠솔루션 Positional information construction method using omnidirectional image
KR20190076806A (en) * 2017-12-22 2019-07-02 한국기술교육대학교 산학협력단 Method for workspace modeling based on virtual wall using 3d scanner and system thereof

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101445739B1 (en) * 2012-11-13 2014-10-06 한국건설기술연구원 Position Detecting Method of Road Traffic Sign
CN108492482B (en) * 2017-12-18 2020-11-03 上海云拿智能科技有限公司 Goods monitoring system and monitoring method
WO2020111307A1 (en) * 2018-11-28 2020-06-04 전자부품연구원 3d object recognition and tracking method for mobile augmented reality
KR102170745B1 (en) * 2018-12-28 2020-10-27 한국국토정보공사 Method of estimating a location by fusing indoor spatial information data
KR102422292B1 (en) * 2020-11-03 2022-07-18 김동욱 Method and apparatus for obtaining 3D-coordinates from 2D-image

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
오태완 외 1명, "전방위 카메라 영상으로부터 3차원 절대 좌표 결정", 2010 한국지형공간정보학회 춘계학술대회, pp.19-22(2010.03)
전재춘 외 1명, "IMU/GPS와 카메라 좌표계간의 물리적 관계를 위한 수학적 모델링", 2한국측량학회지, Vol.26, No.6, pp.611-616(2008.12)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101316524B1 (en) 2013-01-03 2013-10-08 충남대학교산학협력단 Method and apparatus for estimating location in the object using omnidirectional vision sensor
KR20140139443A (en) 2013-05-27 2014-12-05 (주)지에스엠솔루션 Positional information construction method using omnidirectional image
KR20190076806A (en) * 2017-12-22 2019-07-02 한국기술교육대학교 산학협력단 Method for workspace modeling based on virtual wall using 3d scanner and system thereof
KR101998396B1 (en) 2017-12-22 2019-07-09 한국기술교육대학교 산학협력단 Method for workspace modeling based on virtual wall using 3d scanner and system thereof

Also Published As

Publication number Publication date
KR20110119589A (en) 2011-11-02

Similar Documents

Publication Publication Date Title
KR101179108B1 (en) System for determining 3-dimensional coordinates of objects using overlapping omni-directional images and method thereof
CN111156998B (en) Mobile robot positioning method based on RGB-D camera and IMU information fusion
JP5832341B2 (en) Movie processing apparatus, movie processing method, and movie processing program
Zhao et al. A vehicle-borne urban 3-D acquisition system using single-row laser range scanners
CN103256920B (en) Determining tilt angle and tilt direction using image processing
EP2154542B1 (en) GPS-installed all-azimuth camera and spatial data collecting device
JP5992184B2 (en) Image data processing apparatus, image data processing method, and image data processing program
EP2442275A2 (en) Method and apparatus for three-dimensional image reconstruction
US20090154793A1 (en) Digital photogrammetric method and apparatus using intergrated modeling of different types of sensors
JP4619962B2 (en) Road marking measurement system, white line model measurement system, and white line model measurement device
CN107917699B (en) Method for improving aerial three quality of mountain landform oblique photogrammetry
CN108692719A (en) Article detection device
JP2012118666A (en) Three-dimensional map automatic generation device
EP3155369B1 (en) System and method for measuring a displacement of a mobile platform
KR102239562B1 (en) Fusion system between airborne and terrestrial observation data
CN103411587A (en) Positioning and attitude-determining method and system
US20170227361A1 (en) Mobile mapping system
JP6135972B2 (en) Orientation method, orientation program, and orientation device
Zhao et al. Direct georeferencing of oblique and vertical imagery in different coordinate systems
Lo et al. The direct georeferencing application and performance analysis of UAV helicopter in GCP-free area
CN108253942B (en) Method for improving oblique photography measurement space-three quality
JP2010066595A (en) Environment map generating device and environment map generating method
CN112862818B (en) Underground parking lot vehicle positioning method combining inertial sensor and multi-fisheye camera
KR101249369B1 (en) Apparatus and method for bundle adjustment of omni-directional images
Al-Rawabdeh et al. A robust registration algorithm for point clouds from UAV images for change detection

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150804

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160608

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170721

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180801

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190731

Year of fee payment: 8