KR101342393B1 - Georeferencing Method of Indoor Omni-Directional Images Acquired by Rotating Line Camera - Google Patents

Georeferencing Method of Indoor Omni-Directional Images Acquired by Rotating Line Camera Download PDF

Info

Publication number
KR101342393B1
KR101342393B1 KR1020120044341A KR20120044341A KR101342393B1 KR 101342393 B1 KR101342393 B1 KR 101342393B1 KR 1020120044341 A KR1020120044341 A KR 1020120044341A KR 20120044341 A KR20120044341 A KR 20120044341A KR 101342393 B1 KR101342393 B1 KR 101342393B1
Authority
KR
South Korea
Prior art keywords
coordinate system
image
point
line camera
camera
Prior art date
Application number
KR1020120044341A
Other languages
Korean (ko)
Other versions
KR20130121290A (en
Inventor
이임평
오소정
Original Assignee
서울시립대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울시립대학교 산학협력단 filed Critical 서울시립대학교 산학협력단
Priority to KR1020120044341A priority Critical patent/KR101342393B1/en
Publication of KR20130121290A publication Critical patent/KR20130121290A/en
Application granted granted Critical
Publication of KR101342393B1 publication Critical patent/KR101342393B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 회전식 라인 카메라로 획득한 실내 전방위 영상에 대해, 실내에서 기준이 되는 객체좌표계를 정의하여 객체기준점을 확보하고, 회전식 라인 카메라로 획득한 실내 전방위 영상의 외부표정요소를 추정하며 가장 적합한 투영법을 결정하여, 고품질의 전방위 영상을 제공할 수 있는 지오레퍼런싱 방법에 관한 것이다.The present invention defines an object coordinate system as a reference in the room for an indoor omnidirectional image obtained by a rotary line camera, secures an object reference point, estimates an external expression element of an indoor omnidirectional image obtained by a rotary line camera, and is the most suitable projection method. The present invention relates to a georeferencing method capable of providing a high quality omnidirectional image.

Description

회전식 라인 카메라로 획득한 실내 전방위 영상의 지오레퍼런싱 방법{Georeferencing Method of Indoor Omni-Directional Images Acquired by Rotating Line Camera}Georeferencing Method of Indoor Omni-Directional Images Acquired by Rotating Line Camera}

본 발명은 지오레퍼런싱 방법에 관한 것으로서, 회전식 라인 카메라로 획득한 실내 전방위 영상에 대해, 고품질의 전방위 영상 서비스를 제공할 수 있는 지오레퍼런싱 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a georeferenced method, and to a georeferenced method capable of providing a high quality omnidirectional image service to an indoor omnidirectional image obtained by a rotary line camera.

최근, '구글'의 스트리트뷰와 '다음'의 로드뷰 등과 같은 전방위 영상을 이용한 서비스 개발이 활발하다. 전방위(Omni-directional) 영상은 촬영지점을 기준으로 모든 방향을 촬영한 영상으로, 사용자를 중심으로 360°로 주변의 모든 곳을 볼 수 있다. 따라서 전방위 영상을 이용한 서비스들은 사용자들에게 방문한 적이 없는 장소의 정보를 보다 정확하게 전달할 수 있다. 예를 들어, 기존의 지도 서비스를 이용해서는 처음 방문하는 장소에서 방향을 찾기 어렵지만, 전방위 영상 서비스를 이용하면 현재 위치를 기준으로 모든 방향의 정보를 포함하고 있으므로 방향을 쉽게 찾을 수 있다.Recently, service development using omnidirectional video such as Google's Street View and Daum's Road View has been actively conducted. Omni-directional video is an image taken in all directions from the shooting location, and the user can see all around the user at 360 °. Therefore, services using the omnidirectional image can more accurately deliver information on places that have never been visited to users. For example, it is difficult to find a direction at the place of first visit using the existing map service, but the omnidirectional video service includes information of all directions based on the current location, so the direction can be easily found.

전방위 영상은 취득되는 방식에 따라 크게 투영중심이 하나인 단시점 전방위 영상과 투영중심이 여러 개인 다시점 전방위 영상으로 분류된다. 단시점 전방위 영상은 거울을 이용하여 하나의 프레임 카메라로 전방위 영상을 생성하는 방법이다. 이 방법은 왜곡이 심하게 발생하고 보정하기 쉽지 않다. 또한 높고 균일한 해상도를 갖는 영상을 취득하기 어렵다. 이에 현재 제공되는 대부분의 전방위 영상 서비스는 다시점 전방위 영상을 활용하고 있다. 다시점 전방위 영상은 일반적으로 다수의 프레임 카메라가 동시에 촬영한 영상을 접합하여 생성한다. 비교적 균일한 고해상도의 영상정보가 제공되지만 특히 개별영상들이 접합될 때 중첩되는 영역에서 즉 하나의 개별영상의 중심에서 멀어질수록 왜곡이 많이 발생한다는 단점이 있다. 따라서 많은 수의 카메라를 사용하여 개별영상의 시야각(Field Of View)을 작게 함으로써 보다 왜곡이 적은 다시점 전방위 영상을 생성할 수 있다. 그러나 이 경우에도 개별영상의 개별픽셀마다 대상물까지의 거리를 정확히 알지 못하므로 완전한 왜곡 보정은 어렵다.The omnidirectional image is classified into a single-view omnidirectional image having a large projection center and a multi-view omnidirectional image having multiple projection centers according to the acquired method. The short-term omnidirectional image is a method of generating an omnidirectional image using a frame camera using a mirror. This method causes severe distortion and is not easy to correct. In addition, it is difficult to obtain an image having a high and uniform resolution. Most of the omnidirectional video services currently provided utilize multi-view omnidirectional video. Multi-view omnidirectional images are generally created by joining images taken by multiple frame cameras simultaneously. Although relatively uniform high resolution image information is provided, in particular, when the individual images are joined, a distortion occurs in the overlapping area, that is, the farther away from the center of one individual image. Therefore, by using a large number of cameras to reduce the field of view (individual image) of the individual image it is possible to generate a multi-view omnidirectional image with less distortion. However, even in this case, since the distance to the object for each individual pixel of the individual image is not accurately known, complete distortion correction is difficult.

이러한 단점을 극복하기 위하여 시야각이 작은 하나의 카메라로 전방위 영상을 취득할 수 있는 회전식 라인 카메라를 이용할 수 있다. 회전식 라인 카메라는 하나의 라인 카메라를 360° 회전하면서 촬영한 라인 영상들을 순차적으로 접합하여 전방위 영상을 생성한다. 다수의 프레임 카메라로 동시에 취득한 영상을 접합하여 생성하는 기존의 방식과 달리 시야각이 아주 작은 라인 영상을 접합하기 때문에 왜곡이 거의 발생하지 않는다는 장점이 있다. 그러나 회전하는 동안 회전축이나 대상체가 움직이지 않아야한다는 단점 때문에 실외에서 차량에 탑재하여 이동하면서 전방위 영상을 취득하기 어렵다. 따라서 회전식 라인 카메라는 실내의 전방위 영상을 취득하는데 효과적이며 실내의 3차원 모델링이나 '다음'의 스토어뷰와 같은 실내 공간에 대한 공간영상정보 서비스에 효과적으로 활용될 수 있다.To overcome this disadvantage, a rotary line camera capable of acquiring omnidirectional images with a single camera having a small viewing angle may be used. The rotary line camera sequentially joins line images taken while rotating one line camera 360 ° to generate an omnidirectional image. Unlike the conventional method of joining and generating images acquired by a plurality of frame cameras at the same time, there is an advantage in that distortion is hardly generated because a line image having a very small viewing angle is bonded. However, due to the disadvantage that the rotating shaft or the object should not move while rotating, it is difficult to acquire the omnidirectional image while being mounted and moved in the vehicle outdoors. Therefore, the rotary line camera is effective for acquiring the omnidirectional image of the room and can be effectively used for spatial image information service on the indoor space such as 3D modeling of the room or 'next' store view.

그러나, 회전식 라인 카메라로 획득한 실내 전방위 영상을 이용하여 객체의 3차원 정보를 얻기 위해서, 1999년 ~ 2006년 사이에 'Wei', ' Tang', 'Shum', 'Li', 'Huang' 등이 여러가지 모델링을 수행하였으나, 이와 같은 기존의 연구에서 전방위 영상을 취득한 시점의 카메라의 위치와 자세를 객체좌표계 상에서 결정하지 않으며, 기준점 확보의 어려움이 있기 때문에 실내 전방위 영상의 지오레퍼런싱을 수행하기 어려운 문제점이 있다. However, in order to obtain three-dimensional information of the object by using the indoor omnidirectional image acquired by the rotary line camera, 'Wei', 'Tang', 'Shum', 'Li', 'Huang', etc. between 1999 and 2006. Although various modeling has been performed, in the previous studies, the position and attitude of the camera at the time of acquiring the omnidirectional image are not determined in the object coordinate system, and since the reference point is difficult to secure, the georeferencing of indoor omnidirectional images is performed. There is a difficult problem.

따라서, 본 발명은 상술한 문제점을 해결하기 위한 것으로서, 본 발명의 목적은, 회전식 라인 카메라로 획득한 실내 전방위 영상에 대해, 실내에서 기준이 되는 객체좌표계를 정의하여 객체기준점을 확보하고, 회전식 라인 카메라로 획득한 실내 전방위 영상의 외부표정요소를 추정하며 가장 적합한 투영법을 결정하여, 고품질의 전방위 영상을 제공할 수 있는 지오레퍼런싱 방법을 제공하는 데 있다.Accordingly, the present invention is to solve the above-described problems, an object of the present invention, to define the object coordinate system as a reference in the room for the indoor omnidirectional image obtained by the rotary line camera, to secure the object reference point, the rotary line The present invention provides a georeferencing method capable of providing high quality omnidirectional images by estimating an external expression element of an indoor omnidirectional image obtained by a camera and determining a most suitable projection method.

먼저, 본 발명의 특징을 요약하면, 본 발명의 일면에 따른, 라인 카메라로 획득한 실내 전방위 영상의 지오레퍼런싱 방법은, 라인 카메라를 회전하면서 전방위에 대한 라인 단위의 영상을 획득하여 저장 수단에 저장하고 이를 이용해 초점거리(f) 상의 각 영상점(i, j)의 영상으로 투영되는 n×m 개 픽셀의 전방위 영상을 생성하되, 미리 선정한 실내의 복수 객체기준점(예, 적어도 3개 이상)과 획득한 상기 영상의 공선방정식을 이용하여 상기 라인 카메라의 자세 데이터를 포함하는 외부표정요소를 추정하여 상기 영상점(i, j)의 좌표값을 보정하며, 상기 공선방정식의 산출 과정은, 실내의 코너점을 원점으로 하고 상기 코너점에서 만나는 세개의 모서리로 3개의 축을 정의한 객체좌표계로 객체점(OP)을 표현하는 제1단계; 상기 객체점(OP)을 상기 영상이 촬영되는 순간의 위치와 자세로 정의된 카메라좌표계로 표현되는 객체점(CP)으로 변환하는 제2단계; 소정의 투영법에 기초하여 상기 카메라좌표계로 표현되는 라인 카메라의 초점거리(f) 상에서의 객체점(CP)에 대한 상기 영상점(i, j) 중 j방향 거리 rp을 산출하는 제3단계; 및 객체점(CP)이 상기 영상에 맺히는 각도(α-β)와 상기 rp로부터 객체점(CP)의 픽셀 위치를 계산해 상기 영상점(i, j)의 좌표값을 결정하는 제4단계; 및 회전식 상기 라인 카메라로 획득한 전방위 영상에 대한 상기 외부표정요소를 추정하는 제5단계를 포함한다.First, to summarize the features of the present invention, according to an aspect of the present invention, the method of geo-referencing the indoor omnidirectional image obtained by the line camera, the storage means by obtaining the line unit image for the omnidirectional while rotating the line camera To generate an omnidirectional image of n × m pixels projected onto the image of each image point (i, j) on the focal length (f), and to select a plurality of object reference points in the room (eg, at least three or more). ) And the coordinates of the image points (i, j) are corrected by estimating an external expression element including posture data of the line camera using the acquired collinear equation of the image. the corner point in the room as the origin and the first stage representing the object point (P O) to the object coordinate system defined by three axes in the three edges meeting at the corner point; A second step of converting the object point O P into an object point C P represented by a camera coordinate system defined by a position and a posture of the moment when the image is captured; A third step of calculating a j-direction distance r p of the image points i and j with respect to the object point C P on the focal length f of the line camera represented by the camera coordinate system based on a predetermined projection method; ; And a fourth operation of calculating coordinates of the image points i and j by calculating pixel positions of the object point C P from the angle α-β formed by the object point C P on the image and the r p . step; And a fifth step of estimating the external expression element of the omnidirectional image obtained by the rotary line camera.

상기 복수 객체기준점으로서 상기 객체좌표계로 표현된 적어도 3개 이상의 객체점(OP)을 이용하되, 실내의 한 코너점을 객체좌표계의 원점으로 정의하고 상기 코너점에서 만나는 세 모서리의 길이를 측정하여 측정 좌표계의 (Xb, Yb, Zb)을 획득하고 객체좌표계로 표현되는 3개 점의 좌표 (Xa, Ya, Za)로 변환하기 위해 [수학식10]을 이용하여 추정하되, (Xb, Yb, Zb)는 측정 좌표계로 표현된 3개 점의 3차원 좌표값, (Xa, Ya, Za)는 객체 좌표계로 표현된 3개 점의 3차원 좌표값, R은 객체 좌표계에서 측정 좌표계로 변환하는 회전변환행렬, t는 이동변환행렬이다.But using the least (O P) more than two object points represented in the object coordinate system as a plurality of object reference point to define a corner point in the room as the origin of the object coordinate system and measuring the length of the three edges meeting at the corner point Equation 10 is used to obtain (X b , Y b , Z b ) of the measurement coordinate system and convert it to coordinates (X a , Y a , Z a ) of three points represented in the object coordinate system. , (X b , Y b , Z b ) are three-dimensional coordinate values of three points expressed in the measurement coordinate system, and (X a , Y a , Z a ) are three-dimensional coordinate values expressed in the object coordinate system. , R is the rotation transformation matrix to convert from the object coordinate system to the measurement coordinate system, and t is the transformation matrix.

상기 제2단계에서, 하기의 [수학식1]~[수학식5]을 이용하되, 여기서, r은 라인 카메라의 회전반경, α는 라인 카메라의 가상의 회전좌표계에서의 회전각, β는 라인 카메라와 회전축이 틀어진 각, θ는 회전좌표계의 X축과 객체점을 회전좌표계의 XY평면으로 투영시킨 점의 X축 회전각, ε는 θ와 α의 차이각, RP(RX, RY, RZ)는 회전좌표계에서의 객체점(OP) 좌표, CP(CX, CY, CZ)는 카메라좌표계에서의 객체점(OP) 좌표이다.In the second step, Equations 1 to 5 below are used, wherein r is a rotation radius of the line camera, α is a rotation angle in the virtual rotation coordinate system of the line camera, and β is a line. Θ is the angle between the camera and the rotation axis, θ is the X-axis rotation angle of the point where the X axis and the object point of the rotation coordinate system are projected on the XY plane of the rotation coordinate system, ε is the difference angle between θ and α, R P ( R X, R Y , R Z) is the object point O P coordinate in the rotational coordinate system, and C P ( C X, C Y, C Z) is the object point O P coordinate in the camera coordinate system.

상기 제3단계에서, 하기의 [수학식6]~[수학식7]을 이용하되, 여기서, ρ는 라인 카메라로 들어오는 객체점(OP)의 광선과 광학축이 이루는 각도, CP(CX, CY, CZ)는 카메라좌표계에서의 객체점(OP) 좌표이다. In the third step, using [Equation 6] to [Equation 7] below, wherein, ρ is the ray and the optical axis of the point object from entering the line camera (O P) forming an angle, P C (X C, Y C, Z C) is the object point (P O) coordinates in the camera coordinate system.

상기 제4단계에서, 하기의 [수학식8]을 이용하되, 여기서, (i,j)는 픽셀로 표현되는 영상 좌표계 상의 영상점, α는 라인 카메라의 가상의 회전좌표계에서의 회전각, β는 라인 카메라의 카메라좌표계에서의 회전각, n은 영상의 j방향 픽셀수, μα 는 픽셀당 회전각, μj 는 픽셀당 j방향 크기이다. In the fourth step, Equation 8 below is used, where (i, j) is an image point on an image coordinate system expressed in pixels, and α is a rotation angle in a virtual rotation coordinate system of a line camera, β Is the rotation angle in the camera coordinate system of the line camera, n is the number of pixels in the j direction of the image, μ α is the rotation angle per pixel, and μ j is the size of the j direction per pixel.

상기 제5단계에서, 영상점(i, j)에 대한 비선형 관측 방정식 [수학식9]을 이용하여 상기 외부표정요소인 라인 카메라의 가상의 회전좌표계에서의 원점(OXR, OYR, OZR)과 자세 데이터(ω, φ, κ,), 를 추정하되, 상기 투영법1, 상기 투영법2, 상기 투영법3, 및 상기 투영법4을 모두 적용 후 i, j 방향으로 잔차가 가장작은 투영법으로 추정한 상기 외부표정요소를 결정하며, 여기서, 객체기준점(oX, oY, oZ), 라인 카메라의 회전반경(r), 라인 카메라의 회전각(β)이 이용된다.In the fifth step, the origin ( O X R ,) in the virtual rotational coordinate system of the line camera as the external expression element using the nonlinear observation equation [Equation 9] for the image points (i, j). O Y R , O Z R ) and posture data (ω, φ, κ,), are estimated, but after the projection method 1, the projection method 2, the projection method 3, and the projection method 4 are all applied, the residual in the i, j direction Determines the external expression factor estimated by the smallest projection method, where the object reference point ( o X, o Y, o Z), the rotation radius (r) of the line camera, and the rotation angle (β) of the line camera are used. .

본 발명에 따른 지오레퍼런싱 방법에 따르면, 회전식 라인 카메라로 획득한 실내 전방위 영상에 대해, 정의된 객체좌표계와 객체기준점을 통해 추정된 외부표정요소를 이용한 투영법으로 고품질의 전방위 영상을 제공할 수 있다.According to the georeferencing method according to the present invention, a high-quality omnidirectional image can be provided with respect to an indoor omnidirectional image obtained by a rotary line camera by a projection method using an external coordinate element estimated through a defined object coordinate system and an object reference point. have.

도 1은 본 발명의 일실시예에 따른 고품질의 전방위 영상의 제공을 위한 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 회전식 라인 카메라의 영상 획득에 대한 각 좌표계의 3차원 기하모델을 설명하기 위한 도면이다.
도 3은 도 2의 좌표계의 2차원 기하모델을 설명하기 위한 도면이다.
도 4는 어안렌즈 카메라의 투영법을 설명하기 위한 도면이다.
도 5는 객체 좌표계의 일례를 설명하기 위한 도면이다.
도 6과 도 7은 각각 실내 전방위 내부 영상과 외부 영상의 일례이다.
도 8과 도 9는 좌표변환 수행 전과 후의 객체점들을 그린 것으로 측정좌표계와 객체좌표계로 표현된 객체점들의 일례이다.
도 10은 도 9에서 이상점과 이상점을 제거한 객체점들의 일례이다.
도 11은 실내 전방위 내부 영상의 i방향 잔차 분포도의 일례이다.
도 12는 실내 전방위 외부 영상의 j방향 잔차 분포도의 일례이다.
도 13은 회전각에 따른 실내 전방위 내부 영상의 i방향 잔차 분포도의 일례이다.
도 14는 회전각에 따른 실내 전방위 외부 영상의 j방향 잔차 분포도의 일례이다.
도 15는 실내 전방위 내부 영상의 i방향 잔차 분포도의 일례이다.
도 16은 실내 전방위 외부 영상의 j방향 잔차 분포도의 일례이다.
도 17은 Z값에 따른 실내 전방위 내부 영상의 j방향 잔차 분포도의 일례이다.
도 18은 Z값에 따른 실내 전방위 외부 영상의 j방향 잔차 분포도의 일례이다.
도 19는 거리에 따른 실내 전방위 내부 영상의 i방향 잔차 분포도의 일례이다.
도 20은 거리에 따른 실내 전방위 외부 영상의 i방향 잔차 분포도의 일례이다.
도 21은 거리에 따른 실내 전방위 내부 영상의 j방향 잔차 분포도의 일례이다.
도 22는 거리에 따른 실내 전방위 외부 영상의 j방향 잔차 분포도의 일례이다.
도 23은 방사거리에 따른 실내 전방위 내부 영상의 i방향 잔차 분포도의 일례이다.
도 24는 방사거리에 따른 실내 전방위 외부 영상의 i방향 잔차 분포도의 일례이다.
도 25는 방사거리에 따른 실내 전방위 내부 영상의 j방향 잔차 분포도의 일례이다.
도 26은 방사거리에 따른 실내 전방위 외부 영상의 j방향 잔차 분포도의 일례이다.
1 is a view for explaining a system for providing a high quality omnidirectional image according to an embodiment of the present invention.
FIG. 2 is a diagram for describing a 3D geometric model of each coordinate system for image acquisition of the rotary line camera of FIG. 1.
3 is a view for explaining a two-dimensional geometric model of the coordinate system of FIG.
4 is a diagram for explaining a projection method of a fisheye lens camera.
5 is a diagram for explaining an example of the object coordinate system.
6 and 7 are examples of indoor omnidirectional internal and external images, respectively.
8 and 9 illustrate object points before and after performing coordinate transformation, and are examples of object points represented by a measurement coordinate system and an object coordinate system.
FIG. 10 is an example of object points from which an abnormal point and an abnormal point are removed in FIG. 9.
11 is an example of the i-direction residual distribution diagram of the indoor omnidirectional interior image.
12 is an example of a j-direction residual distribution diagram of an indoor omnidirectional external image.
13 is an example of the i-direction residual distribution diagram of the indoor omnidirectional interior image according to the rotation angle.
14 is an example of a j-direction residual distribution diagram of an indoor omnidirectional external image according to a rotation angle.
15 is an example of the i-direction residual distribution diagram of the indoor omnidirectional interior image.
16 is an example of a j-direction residual distribution diagram of an indoor omnidirectional external image.
17 is an example of a j-direction residual distribution diagram of an indoor omnidirectional internal image according to a Z value.
18 is an example of a j-direction residual distribution diagram of an indoor omnidirectional external image according to a Z value.
19 is an example of the i-direction residual distribution diagram of the indoor omnidirectional interior image according to distance.
20 is an example of the i-direction residual distribution diagram of the indoor omnidirectional external image according to distance.
21 is an example of a j-direction residual distribution diagram of an indoor omnidirectional interior image according to distance.
22 is an example of a j-direction residual distribution diagram of an indoor omnidirectional external image according to a distance.
23 is an example of the i-direction residual distribution diagram of the indoor omnidirectional interior image according to the radiation distance.
24 is an example of the i-direction residual distribution diagram of the indoor omnidirectional external image according to the radiation distance.
25 is an example of a j-direction residual distribution diagram of an indoor omnidirectional interior image according to a radiation distance.
FIG. 26 is an example of a j-direction residual distribution diagram of an indoor omnidirectional external image according to a radiation distance. FIG.

이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다.
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings and the contents described in the accompanying drawings, but the present invention is not limited or limited to the embodiments.

본 발명에서는 회전식 라인 카메라로 취득한 단일 전방위 영상의 지오레퍼런싱, 즉 외부표정요소를 결정하는 방법을 설명한다. 이를 위해, 먼저 회전식 라인 카메라와 좌표계들을 정의하고, 회전식 라인 카메라로 취득한 전방위 영상에 대한 공선방정식을 유도한다. 또한, 지오레퍼런싱 과정에 필요한 객체기준점을 실내에서 효율적으로 획득하는 방법을 제시하고 공선방정식과 객체기준점을 이용하여 외부표정요소 추정을 위한 수학적 모델을 설명한다.
The present invention describes a method of georeferencing a single omnidirectional image acquired by a rotary line camera, that is, determining an external expression element. To this end, first, a rotary line camera and coordinate systems are defined, and a collinear equation for the omnidirectional image acquired by the rotary line camera is derived. In addition, we present a method to efficiently obtain the object reference point required for the georeferencing process indoors and explain the mathematical model for estimating the external expression element using the collinear equation and the object reference point.

<회전식 라인 카메라 및 좌표계 정의><Definition of Rotating Line Camera and Coordinate System>

도 1과 같이 본 발명에 따른 지오레퍼런싱을 통하여 고품질의 전방위 영상의 제공을 위한 시스템(100)은, 1×m개의 라인 픽셀들을 가지고 있는 라인 카메라(110) 한대가 회전중심으로부터 r만큼 떨어져 시계방향으로 360°를 회전하며 영상을 촬영하는 시스템이다. 라인 카메라(100)는 모터 회전축에 결합된 소정 지지 플레이트에 장착되며 제어장치(130)는 모터 회전축이 시계 방향 또는 반시계 방향으로 일정 속도로 회전하도록 그 구동을 제어하여 라인 카메라(110)를 회전할 수 있다. 라인 카메라(100)가 회전하며 촬영하여 획득하는 한 줄(column)의 영상들은 제어장치(130)의 저장매체(131)에 저장되며, 이때 제어장치(130)는 라인 카메라(110)가 영상 데이터를 획득 시에 대응되는 각각의 위치 데이터(카메라좌표계)에 대응시켜 전방위에 대한 각 라인 단위의 영상 데이터를 저장매체(131)에 저장할 수 있다. 제어장치(130)의 합성부(132)는 지오레퍼런싱을 통한 영상 접합에 따라 저장 매체(131)에 저장된 영상 데이터를 이용하여 최종적으로 n×m 개 픽셀의 각 좌표 (I,j)에 대한 2차원 전방위 영상을 생성할 수 있다.
As shown in FIG. 1, in the system 100 for providing a high quality omnidirectional image through georeferencing according to the present invention, one line camera 110 having 1 × m line pixels is spaced apart from the center of rotation by r. It is a system to shoot video by rotating 360 ° clockwise. The line camera 100 is mounted on a predetermined support plate coupled to the motor rotation shaft, and the controller 130 controls the driving so that the motor rotation shaft rotates at a constant speed in a clockwise or counterclockwise direction to rotate the line camera 110. can do. One column of images obtained by rotating and photographing the line camera 100 are stored in the storage medium 131 of the control device 130. In this case, the control device 130 is configured by the line camera 110. In response to each position data (camera coordinate system) corresponding to the acquisition, image data of each line unit for all directions can be stored in the storage medium 131. The synthesizing unit 132 of the control device 130 finally uses the image data stored in the storage medium 131 according to the image bonding through geo-referencing to finally coordinates (I, j) of n × m pixels. A two-dimensional omnidirectional image may be generated.

실내에서 회전식 라인 카메라(110)로 전방위 영상을 획득할 때, 객체점들이 존재하는 객체좌표계, 카메라가 회전하는 회전좌표계, 영상이 촬영되는 순간의 카메라 좌표계로 구성된다. 도 2는 각 좌표계의 3차원 기하모델이고, 도 3은 이를 2차원 기하모델로 나타낸 것이다.When acquiring the omnidirectional image with the rotary line camera 110 indoors, it consists of an object coordinate system in which object points exist, a rotation coordinate system in which the camera rotates, and a camera coordinate system at the moment the image is captured. Figure 2 is a three-dimensional geometric model of each coordinate system, Figure 3 shows this as a two-dimensional geometric model.

객체좌표계는 실내의 임의의 코너점을 원점으로 정의할 수 있다. 객체좌표계의 자세는 코너점에서 수직으로 만나는 세 개의 모서리들로 정의된 3개의 축을 기준으로 정의한다. 도 2와 같이 oZ축은 실내 천정에서 코너점으로 이어지는 모서리로 정의하고, oX축과 oY축은 나머지 두 개의 모서리로 정의할 수 있다. The object coordinate system may define any corner point of the room as the origin. The pose of the object coordinate system is defined based on three axes defined by three corners perpendicular to the corner point. As shown in FIG. 2, the o Z axis may be defined as an edge leading to a corner point in the indoor ceiling, and the o X axis and o Y axis may be defined as two remaining corners.

가상의 회전좌표계의 원점은 회전 중심(OR)으로 정의한다. 회전좌표계의 RZ축은 천정방향으로 객체좌표계의 oZ축과 동일한 방향으로 정의하고, 회전좌표계의 RX축은 회전 중심(OR)과 회전을 시작하는 점을 연결하여 정의하며, 회전좌표계의 RY축은 RX축을 반시계방향으로 90°만큼 회전하여 정의한다. The origin of the virtual rotation coordinate system is defined as the rotation center O R. The R Z axis of the rotation coordinate system is defined in the zenith direction in the same direction as the o Z axis of the object coordinate system, and the R X axis of the rotation coordinate system is defined by connecting the rotation center (O R ) and the point where the rotation starts. The R Y axis is defined by rotating the R X axis counterclockwise by 90 °.

카메라좌표계의 원점은 영상이 촬영되는 지점(OC)으로 정의한다. 카메라좌표계는 영상이 촬영되는 순간의 위치와 자세로 정의되므로 영상의 i방향에 따라 다르게 정의된다. 카메라좌표계의 CZ축은 광학축으로 정의하고 CY축은 천정방향으로 정의하며 CX축은CY 축을 반시계방향으로 90°만큼 회전하여 정의한다.The origin of the camera coordinate system is defined as a point O C at which an image is captured. The camera coordinate system is defined differently according to the i-direction of the image because it is defined by the position and posture of the moment when the image is captured. The C Z axis of the camera coordinate system is defined as the optical axis, the C Y axis is defined as the ceiling direction, and the C X axis is defined by rotating the C Y axis counterclockwise by 90 °.

도 2 및 도 3에서, P는 객체점이고 P'는 객체점의 영상점이다. r은 회전반경이고 f는 라인 카메라(110)의 초점거리이며, ROC은 영상을 촬영하는 순간의 라인 카메라(110)의 위치이고, α는 영상을 촬영하는 순간의 회전좌표계에서의 회전각이다. β는 라인 카메라(110)의 광학축 CZ축이 CX축과 이루는 카메라(110)의 틀어진 회전각(또는 라인 카메라의 카메라좌표계에서의 회전각)을 나타내며, 촬영을 시작할 때 고정되는 CX축과의 상대적인 각도이다.
2 and 3, P is an object point and P 'is an image point of the object point. r is the rotation radius, f is the focal length of the line camera 110, R O C is the position of the line camera 110 at the moment of shooting the image, α is the angle of rotation in the rotational coordinate system at the moment the image is taken to be. β represents the distorted rotation angle (or rotation angle in the camera coordinate system of the line camera) of the camera 110 in which the optical axis C Z axis of the line camera 110 forms the C X axis, and C X fixed at the start of shooting. The angle relative to the axis.

<전방위 영상에 대한 공선방정식>Collinear Equation for All Direction Images

공선방정식은 객체점 P이 영상에 투영된 지점 P'을 결정하는 공식으로써, 중심투영의 원리에 따라 투영중심(OC), 객체점(P)과 영상점(P')이 하나의 직선 상에 존재한다는 조건으로 유도된다. 전방위 영상에 대한 공선방정식은 객체점(P)의 좌표변환, 영상점(P')으로의 투영, 영상점(P')의 좌표변환으로 나누어 유도할 수 있다.The collinear equation is a formula for determining the point P 'from which the object point P is projected onto the image. The projection center (O C ), the object point (P), and the image point (P') form a straight line according to the principle of center projection. Derived from the condition that exists in. The collinear equation for the omnidirectional image can be derived by dividing the coordinate transformation of the object point P, the projection to the image point P ', and the coordinate transformation of the image point P'.

첫째, 객체점(P)의 좌표변환은 객체좌표계로 표현된(측정하여 획득된) 객체점(OP)(oX, oY, oZ)을 카메라좌표계로 표현되는 객체점(CP)(CX, CY, CZ)으로 변환한다. 먼저, [수학식1]을 이용하여 OP 를 회전좌표계로 표현되는 객체점 RP(RX, RY, RZ)으로 변환한다. 다음으로, [수학식2]를 이용하여 RP 를 CP 로 변환한다. OOR는 객체좌표계에서 표현된 회전좌표계의 원점이고, RRO는 객체좌표계에서 회전좌표계로의 회전변환행렬이다. ROC는 회전좌표계에서 표현된 카메라좌표계의 원점이고 CRR은 회전좌표계에서 카메라좌표계로의 회전변환행렬이다. 여기서 카메라좌표계의 원점 ROC은 [수학식3]과 같이 사진을 촬영하는 순간의 회전각 α로 결정할 수 있다. 카메라좌표계의 회전변환은 [수학식4]와 같이 α와 β로 결정할 수 있다. 이때 α는 도 3에서와 같이 θ와 ε으로 구할 수 있는데, -2π≤α≤0이고 θ는 회전좌표계로 표현된 객체점 RP 의 평면좌표값으로 구할 수 있으며 ε은 sin법칙에 의해서 γ를 구한 후, 삼각형 내각의 합 조건을 이용하여 구할 수 있다. α는 [수학식5]와 같이 정의할 수 있으며 β는 임의의 실수로 정의할 수 있고 β>0이다. θ는 회전좌표계의 X축과 객체점을 회전좌표계의 XY평면으로 투영시킨 점의 X축 회전각에 해당하고, ε는 θ와 α의 차이각에 해당한다. First, the coordinate transformation of the object point P is an object point C P representing the object point O P ( o X, o Y, o Z) expressed in the object coordinate system (obtained by measuring). Convert to ( C X, C Y, C Z). First, by using Equation 1, O P is converted into an object point R P ( R X, R Y, R Z) represented by a rotational coordinate system. Next, R P is converted into C P using Equation 2 below. O O R is the origin of the rotation coordinate system expressed in the object coordinate system, and R R O is the rotation transformation matrix from the object coordinate system to the rotation coordinate system. R O C is the origin of the camera coordinate system expressed in the rotation coordinate system, and C R R is the rotation transformation matrix from the rotation coordinate system to the camera coordinate system. Here, the origin R O C of the camera coordinate system may be determined as the rotation angle α at the moment of taking the picture as shown in [Equation 3]. The rotational transformation of the camera coordinate system can be determined by α and β as shown in [Equation 4]. In this case, α can be obtained from θ and ε as shown in FIG. 3, where -2π≤α≤0 and θ can be obtained from the plane coordinates of the object point R P expressed in the rotational coordinate system, and ε is determined by the sin law. After finding, it can obtain | require using the sum condition of a triangular cabinet. α can be defined as shown in [Equation 5], and β can be defined by any real number, and β> 0. [theta] corresponds to the X-axis rotation angle of the point at which the X-axis and the object point of the rotational coordinate system are projected on the XY plane of the rotational coordinate system, and [epsilon] corresponds to the difference angle between [theta] and [alpha].

[수학식1][Equation 1]

Figure 112012033751859-pat00001
Figure 112012033751859-pat00001

[수학식2]&Quot; (2) &quot;

Figure 112012033751859-pat00002
Figure 112012033751859-pat00002

[수학식3]&Quot; (3) &quot;

Figure 112012033751859-pat00003
Figure 112012033751859-pat00003

[수학식4]&Quot; (4) &quot;

Figure 112012033751859-pat00004
Figure 112012033751859-pat00004

[수학식5][Equation 5]

Figure 112012033751859-pat00005
Figure 112012033751859-pat00005

둘째, 영상점(P')으로의 투영은 카메라좌표계 상에서의 카메라의 투영법으로 결정할 수 있다. 본 발명에서는 어안렌즈(Fisheye Lens) 라인 카메라를 사용하였으므로 도 4와 같은 어안렌즈 카메라의 투영법을 이용한다. f는 라인 카메라(110)의 초점거리이고, ρ는 라인 카메라(110)로 들어오는 객체점(OP)의 광선과 광학축이 이루는 각도, rp는 라인 카메라(110)의 투영중심에서 영상점(P')까지의 거리로 본 발명에서 제안하는 전방위 영상의 방향 좌표값이다. 'Juho' 등(2004)은 4종류의 어안렌즈 카메라 투영법을 제시하였으나, 본 발명에서는 사용된 카메라에 적합한 투영법을 알지 못하므로 [수학식6]에서 제시한 4가지 투영법을 모두 적용하여 잔차가 가장 적은 투영법을 결정한다. [수학식7]은 영상점(P')에 대하여 라인 카메라(110)의 광선과 광학축과 이루는 각 ρ을 결정하는 식이다.Second, the projection to the image point P 'may be determined by the projection method of the camera on the camera coordinate system. In the present invention, since a fisheye lens line camera is used, the projection method of the fisheye lens camera as shown in FIG. 4 is used. f is the focal length of the line camera (110), ρ is the image points in the projection center of the angle between the ray and the optical axis of the line camera 110, an object point (O P) entering the forming, r p is the line camera 110 The distance to (P ') is the direction coordinate value of the omnidirectional image proposed by the present invention. 'Juho' et al. (2004) proposed four kinds of fisheye lens camera projection methods, but since the present invention does not know a projection method suitable for the camera used, the residuals are best applied by applying all four projection methods shown in [Equation 6]. Determine the less projection. Equation (7) is an equation for determining an angle p between the light ray of the line camera 110 and the optical axis with respect to the image point P '.

[수학식6][Equation 6]

Figure 112012033751859-pat00006
Figure 112012033751859-pat00006

[수학식7]&Quot; (7) &quot;

Figure 112012033751859-pat00007
Figure 112012033751859-pat00007

셋째, 영상점의 좌표변환은 카메라 좌표계로 표현된 객체의 영상점(CP)을 영상 좌표계에서 표현되도록 변환한다. 먼저, 영상의 i방향 좌표값은 [수학식8]과 같이 카메라의 위치 및 자세와 관계가 있으므로 객체점이 영상에 맺히는 각도(α-β)을 픽셀당 회전각(μα)으로 나누어 결정한다. μα 는 360°를 i방향의 총 픽셀수 m으로 나누어 결정한다. 다음으로 영상의 j방향 좌표값은 rp를 픽셀당 j방향의 크기(μj)로 나누어 결정할 수 있다. 그런데 영상의 j방향 좌표값은 -n/2에서 n/2(n은 영상의 j방향 픽셀수)의 범위를 가지므로 [수학식8]과 같이 영상의 방향 좌표값인 영상점 (i, j)(픽셀로 표현되는 영상 좌표계 상의 영상점)을 결정한다.Third, the coordinate transformation of the image point converts the image point C P of the object represented by the camera coordinate system to be expressed in the image coordinate system. First, since the i-direction coordinate value of the image is related to the position and attitude of the camera as shown in [Equation 8], it is determined by dividing the angle α-β formed by the object point in the image by the rotation angle μ α per pixel. μ α is determined by dividing 360 ° by the total number of pixels m in the i direction. Next, the j-direction coordinate value of the image may be determined by dividing r p by the size (μ j ) of the j-direction per pixel. However, since the j direction coordinate value of the image has a range of -n / 2 to n / 2 (n is the number of pixels in the j direction of the image), the image point (i, j), which is the direction coordinate value of the image as shown in [Equation 8]. ) (The image point on the image coordinate system expressed in pixels).

[수학식8]&Quot; (8) &quot;

Figure 112012033751859-pat00008

Figure 112012033751859-pat00008

<외부표정요소 추정>External estimation factor estimation

일반적으로 실외 영상에 대한 외부표정요소 추정은 GPS(Global Position System) 또는 토탈스테이션으로 측정하여 취득되는 절대좌표값의 지상기준점을 이용한다. 토탈스테이션은 레이저를 대상 객체에 조사하고 반사되는 신호를 분석해 대상 객체까지의 수평거리, 방위각, 고저차 등을 산출하는 장치이다. 그러나 실내 영상의 경우, 절대좌표값의 지상기준점을 사용하기 어렵다. 따라서 실내 영상의 외부표정요소를 추정하기 위해서는 실내에서 정의되는 상술한 바와 같은 객체좌표계가 필요하며 객체좌표계로 표현된 객체기준점 좌표가 필요하다. 객체좌표계의 설정은 위에서 설명한 바와 같이 실내의 한 모서리점을 원점으로 정의하고 원점에서 만나는 세 개의 모서리를 각 축의 자세로 정의함으로써 가능하다. 이렇게 정의한 객체좌표계에서의 코너점들의 좌표값은 원점과의 거리를 이용하여 도 5와 같이 예시되는 방법으로 정의될 수 있다.In general, the estimation of an external coordinate element for an outdoor image uses a ground reference point of absolute coordinate values obtained by measuring with a Global Position System (GPS) or a total station. Total station is a device that calculates horizontal distance, azimuth angle, height difference to target object by irradiating laser to target object and analyzing reflected signal. However, for indoor images, it is difficult to use the ground reference point of the absolute coordinate value. Therefore, in order to estimate the external pointing element of the indoor image, the object coordinate system as defined above is defined indoors and the object reference point coordinates expressed in the object coordinate system are required. As described above, the object coordinate system can be set by defining one corner point of the room as the origin and three corners meeting at the origin as the attitude of each axis. The coordinate values of the corner points in the object coordinate system defined in this way may be defined by a method illustrated in FIG. 5 using a distance from an origin point.

위와 같이 주로 코너점으로 취득되는 객체좌표계에서 표현된 객체기준점과 위에서 유도한 회전식 라인 카메라(110)로 획득한 전방위 영상의 공선방정식은 [수학식9]와 같은 관측방정식으로 개략적으로 표현할 수 있고 제어장치(130)의 합성부(132)는 이를 이용하여 외부표정요소를 추정한다. 즉, 영상점 (i, j)은 외부표정요소(ω, φ, κ, OXR, OYR, OZR), 즉, 회전좌표계에서의 원점(OXR, OYR, OZR)와 자세 데이터(ω, φ, κ,), 객체기준점(oX, oY, oZ), 회전반경(r), 카메라(110)의 틀어진 회전각(β)이 비선형으로 관계하고 있으며, 영상점(i, j)에 대한 비선형 관측 방정식 [수학식9]을 이용하여 외부표정요소를 추정하되, [수학식6]의 상기 투영법1, 상기 투영법2, 상기 투영법3, 및 상기 투영법4을 모두 적용 후 i, j 방향으로 잔차가 가장작은 투영법으로 추정한 상기 외부표정요소를 결정한다. 외부표정요소(ω, φ, κ)는 각각 전방(Roll축 방향), 전방의 우측방향(Pitch 축 방향), 중력 방향(Yaw 축 방향) 각각에 대한 카메라 자세 데이터일 수 있고, 외부표정요소(OXR, OYR, OZR)는 객체좌표계에서 표현된 객체기준점에 대한 회전좌표계의 원점 위치 데이터이다.As described above, the collinear equation of the object reference point expressed in the object coordinate system acquired mainly as a corner point and the omnidirectional image obtained by the rotary line camera 110 derived from the above can be schematically expressed by an observation equation as shown in [Equation 9]. The synthesizing unit 132 of the device 130 estimates the external expression element by using the same. That is, the image point (i, j) is the external expression element (ω, φ, κ, O X R , O Y R , O Z R ), that is, the origin point in the rotational coordinate system ( O X R , O Y R , O Z R ), posture data (ω, φ, κ,), object reference point ( o X, o Y, o Z), radius of rotation (r), and twisted angle of rotation (β) of camera 110 are nonlinear Using the nonlinear observation equation [Equation 9] for the image points (i, j), the external expression element is estimated, and the projection method 1, the projection method 2, the projection method 3, and the After all of the projection methods 4 are applied, the external expression elements estimated by the projection method having the smallest residual in the i and j directions are determined. The external expression elements ω, φ, and κ may be camera pose data for each of the front (Roll axis direction), the front right direction (Pitch axis direction), and the gravity direction (Yaw axis direction), respectively. O X R , O Y R , O Z R ) is the origin position data of the rotation coordinate system with respect to the object reference point expressed in the object coordinate system.

[수학식9]&Quot; (9) &quot;

Figure 112012033751859-pat00009
Figure 112012033751859-pat00009

하나의 객체기준점은 하나의 영상점에 대응되므로[수학식8], [수학식9]같은 두 개의 관측방정식을 수립할 수 있다. 위와 같은 6개의 외부표정요소를 풀려면 적어도 6개의 관측방정식이 필요하고 이에 따라 3개 이상의 기준점이 필요하다. 3개 이상의 기준점을 사용해서 위와 같은 관측방정식을 수립한 후 선형화하여 최소제곱법을 적용하여 외부표정요소를 추정할 수 있다. 추정된 외부표정요소는 다시 영상점 (i, j)의 오차 보정에 이용될 수 있다.
Since one object reference point corresponds to one image point, two observation equations such as Equation 8 and Equation 9 can be established. In order to solve the above six external expression elements, at least six observation equations are needed, and thus three or more reference points are required. Using three or more reference points, the above observation equations can be established and linearized to estimate external expression factors by applying the least square method. The estimated external expression element may again be used for error correction of the image points (i, j).

<실험 방법><Experimental Method>

먼저, 회전식 라인 카메라(110)로 전방위 영상과 객체기준점(OCP)을 획득한 후 4종류의 투영법을 적용하여 지오레퍼런싱을 수행하고 잔차가 최소인 투영법을 결정한다. 또한, 결정된 투영법을 적용한 결과를 분석하여 제안하는 회전식 라인 카메라로 획득한 실내 전방위 영상의 지오레퍼런싱의 적합성을 판단한다.
First, after obtaining the omnidirectional image and the object reference point (OCP) with the rotary line camera 110, georeferencing is performed by applying four types of projection methods, and a projection method having a minimum residual is determined. In addition, the result of applying the determined projection method is analyzed to determine the suitability of georeferencing the indoor omnidirectional image obtained with the proposed rotary line camera.

<전방위 영상 획득><Observation image acquisition>

여기서는 1×4000 픽셀을 가진 라인 카메라(110)를 사용하였고, 카메라의 초점거리는 15㎜이며 카메라와 회전좌표계의 RX축이 이루는 각을 90°로 고정하였다. 먼저, 회전반경을 0으로 설정하여 도 6과 같이 실내 전방위 내부 영상을 획득한 후, 회전반경(r)을 18cm로 설정하여 도 7과 같이 실내 전방위 외부 영상을 획득하였다. 전방위 영상의 크기는 8000×4000픽셀이고 픽셀당 크기는 10㎛×10㎛이다. 도 6및 도 7과 같은 영상에서 객체기준점으로 임의의 56개점을 사용하였다.
In this case, a line camera 110 having a 1 × 4000 pixel was used, and the focal length of the camera was 15 mm, and the angle formed by the R X axis of the camera and the rotating coordinate system was fixed at 90 °. First, the rotation radius is set to 0 to obtain an indoor omnidirectional image as shown in FIG. 6, and the rotation radius r is set to 18 cm to obtain an indoor omnidirectional external image as shown in FIG. 7. The size of the omnidirectional image is 8000 x 4000 pixels and the size per pixel is 10 m x 10 m. In the images shown in FIGS. 6 and 7, arbitrary 56 points were used as the object reference point.

<객체기준점 획득><Acquire Object Reference Point>

회전식 라인 카메라(110)로 획득한 실내 전방위 영상의 외부표정요소를 추정하기 위해서는 3개 이상의 객체기준점이 필요하다. 본 실험에서는 회전식 라인 카메라(110)에 가장 적합한 투영법을 결정하기 위하여 다수의 객체기준점을 사용하였다.Three or more object reference points are required to estimate the external expression elements of the indoor omnidirectional image acquired by the rotary line camera 110. In this experiment, a plurality of object reference points were used to determine the best projection method for the rotary line camera 110.

예를 들어, 실내의 한 코너점을 원점으로 정의하고 해당 코너점에서 만나는 세 모서리의 길이를 측정하여 측정 좌표계의 (Xb, Yb, Zb)을 획득하고 객체좌표계로 표현되는 3개 점의 좌표 (Xa, Ya, Za)로 변환하기 위해 [수학식10]을 이용하여 추정할 수 있다. 여기서, (Xb, Yb, Zb)는 측정 좌표계로 표현된 3개 점의 3차원 좌표값, (Xa, Ya, Za)는 객체 좌표계로 표현된 3개 점의 3차원 좌표값, R은 객체 좌표계에서 측정 좌표계로 변환하기 위한 소정의 회전변환행렬, t는 에러 보정을 위해 일정 이동값을 더해주기 위한 이동변환행렬이다.For example, define a corner point of the room as the origin, measure the length of the three corners that meet at that corner point, obtain (X b , Y b , Z b ) of the measurement coordinate system, and three points represented by the object coordinate system. It can be estimated using Equation 10 to convert to the coordinates (X a , Y a , Z a ) of. Where (X b , Y b , Z b ) is the three-dimensional coordinate value of three points expressed in the measurement coordinate system, and (X a , Y a , Z a ) is the three-dimensional coordinates of three points expressed in the object coordinate system. The value R is a predetermined rotation transformation matrix for converting from the object coordinate system to the measurement coordinate system, and t is a movement transformation matrix for adding a constant movement value for error correction.

[수학식10]&Quot; (10) &quot;

Figure 112012033751859-pat00010
Figure 112012033751859-pat00010

먼저, 이와 같은 측정 좌표계와 객체 좌표계 간 파라미터 추정 방식을 이용하기 위하여 토탈스테이션으로 8개의 코너점과 74개의 객체점을 측정하였다. 객체점은 영상에서 보이는 책장들의 교차점들로 구성하였다. 4개의 코너점을 이용하여 측정좌표계와 객체좌표계간의 좌표변환계수를 추정하고, 추정된 좌표변환 계수를 이용하여 74개의 객체점을 객체좌표계로 좌표변환하였다. 마지막으로, 객체점의 이상점을 제거하여 최종적으로 52개의 객체점과 4개의 모서리점으로 56개의 객체기준점을 획득하였다. 이상점은 책장에서 비슷한 높이에 있어야 하는 두 점들 Z값의 차가 큰 것과 일정한 길이를 가지는 책장 길이의 차가 큰 것으로 정의하였다.First, in order to use the parameter estimation method between the measured coordinate system and the object coordinate system, eight corner points and 74 object points were measured by the total station. The object point consists of the intersections of the bookshelves seen in the image. The coordinate transformation coefficient between the measured coordinate system and the object coordinate system was estimated using four corner points, and 74 object points were converted to the object coordinate system using the estimated coordinate transformation coefficient. Finally, 56 object reference points were obtained by removing 52 outliers and 4 corner points. The ideal point is defined as the difference between the two points, Z, that should be at similar heights in the bookcase, and the difference between the lengths of the bookcases having a constant length.

[표 1]은 좌표변환계수 추정시 사용한 4개의 코너점 좌표로 측정좌표계와 객체좌표계로 표현된 좌표값이다. [표 2]는 추정된 좌표변환계수로 객체좌표계에서 표현된 측정좌표계의 원점(Xt, Yt, Zt)과 자세(ω, φ, κ)이다. [표 3]은 좌표변환 수행 전과 후의 코너점 좌표로서, 측정좌표계와 객체좌표계로 표현된 8개 코너점들(C0~C7)이다. 도 8과 도 9는 좌표변환 수행 전과 후의 객체점들을 그린 것으로 측정좌표계와 객체좌표계로 표현된 객체점들이다. 도 10은 이상점과 이상점을 제거한 객체점들을 그린 것이다. Table 1 shows the four corner point coordinates used to estimate the coordinate transformation coefficients, which are coordinate values expressed in the measurement coordinate system and the object coordinate system. [Table 2] is the estimated coordinate transformation coefficient and the origin (X t ,) of the measurement coordinate system expressed in the object coordinate system. Y t , Z t ) and attitude (ω, φ, κ). [Table 3] shows the coordinates of the corner points before and after the coordinate transformation, and the eight corner points C0 to C7 expressed in the measurement coordinate system and the object coordinate system. 8 and 9 illustrate object points before and after performing coordinate transformation, and are object points represented by a measurement coordinate system and an object coordinate system. 10 is a drawing of object points with outliers and outliers removed.

[표 1][Table 1]

Figure 112012033751859-pat00011
Figure 112012033751859-pat00011

[표 2][Table 2]

Figure 112012033751859-pat00012
Figure 112012033751859-pat00012

[표 3][Table 3]

Figure 112012033751859-pat00013

Figure 112012033751859-pat00013

<회전식 라인 카메라에 적합한 투영법 결정><Determine the suitable projection method for the rotary line camera>

최종적으로 결정한 56개의 객체기준점을 이용하여 내외부 영상의 외부표정요소를 추정하였다. 전방위 내외부 영상은 동시에 획득하지 않고 내부영상을 먼저 획득한 후에 외부 영상을 획득하였으므로 내외부 영상의 회전중심은 동일하고 출발시점은 다르다. 따라서 내외부 영상의 회전좌표계의 원점과 ω, φ는 비슷했고 κ는 많이 달랐다.Finally, the external markers of internal and external images were estimated using the 56 object reference points. Since the internal and external images are obtained without first acquiring the internal image and the external image, the center of rotation of the internal and external images is the same and the starting point is different. Therefore, ω and φ were similar to the origin of the rotational coordinate system of internal and external images, and κ was very different.

[표 4]는 내부 영상의 외부표정요소를 추정한 결과이고 [표 5]는 외부 영상의 외부표정요소를 추정한 결과이다. 투영법 1을 적용할 때 가장 정밀하게 추정되었다.[Table 4] shows the results of estimating the external expression elements of the internal image and [Table 5] shows the results of estimating the external expression elements of the external image. The most precise estimate was made when applying projection 1.

[표 4][Table 4]

Figure 112012033751859-pat00014
Figure 112012033751859-pat00014

[표 5][Table 5]

Figure 112012033751859-pat00015
Figure 112012033751859-pat00015

[표 6]은 투영법별로 적용하여 추정한 분산요소, 영상점의 i, j방향별 잔차들의 표준편차이다. 영상점의 i좌표값은 회전각과 관련이 있고, j좌표값은 투영법과 관련이 있으므로 영상점의 i, j 방향별로 표준편차를 살펴보았다. 투영법 1을 적용하였을 때, 관측치의 정밀도와 잔차의 표준편차가 가장 좋았다.Table 6 shows the standard deviations of the residuals in the i and j directions of the variance component and image point estimated by each projection method. The i-coordinate value of the image point is related to the rotation angle, and the j-coordinate value is related to the projection method. When the projection method 1 was applied, the observation precision and the standard deviation of the residual were the best.

[표 6]TABLE 6

Figure 112012033751859-pat00016
Figure 112012033751859-pat00016

4가지 투영법을 적용한 결과, 상대적으로 영상의 i방향의 오차는 적었으나 j방향의 오차는 투영법별로 큰 차이가 있었다. 또한, j방향의 오차가 커질수록 i방향의 오차도 커지는 경향을 보인다. 이는 j방향에만 영향을 끼치는 투영법이 외부표정요소에도 영향을 미치고 추정된 외부표정요소는 영상점의 i좌표값에 영향을 미치기 때문으로 판단한다. 추정된 외부표정요소의 정밀도, 추정된 분산요소와 잔차의 표준편차가 투영법 1을 적용하였을 때 가장 작았다. 따라서 본 연구에서는 제안한 회전식 라인 카메라에 적합한 투영법으로 투영법 1을 결정하였다.
As a result of applying the four projection methods, the error in the i direction of the image was relatively small, but the error in the j direction was significantly different for each projection method. In addition, as the error in the j direction increases, the error in the i direction also tends to increase. This is because the projection method affecting only the j-direction affects the external expression element and the estimated external expression element affects the i-coordinate value of the image point. The precision of the estimated externally-expressed elements, and the standard deviation of the estimated variance and residuals, were the smallest when applying projection method 1. Therefore, in this study, Projection Method 1 was determined as a suitable projection method for the proposed rotary line camera.

<제안한 지오레퍼런싱의 적합성 분석><Analysis of the Profitability of Proposed Georeferencing>

지오레퍼런싱의 적합성은 i, j방향별 잔차 크기의 분포와 주요 변수와 잔차와의 관련성으로 분석할 수 있다. 먼저, 투영법 1을 적용하여 추정한 외부표정요소로 계산된 영상점의 i방향 잔차 크기의 분포 경향을 살펴보았다. 도 11과 12는 내외부 영상의 i방향 영상점 잔차의 히스토그램이다. 몇몇의 이상값을 포함하지만 정규분포에서 크게 벗어나지 않는 것으로 보여진다.The suitability of georeferencing can be analyzed by the distribution of residual size in the i and j directions and the relationship between the main variables and the residuals. First, the distribution tendency of the i-direction residual size of the image point calculated by the external expression element estimated by applying the projection method 1 was examined. 11 and 12 are histograms of the i-direction image point residuals of the internal and external images. It contains some outliers but does not seem to deviate significantly from the normal distribution.

다음으로 영상점의 i값을 결정하는 주요변수인 회전각(α)과 영상점의 i 방향 잔차를 살펴보았다. 도 13과 14에서 보듯이, 회전각과 영상점의 i방향 잔차간에는 큰 관련성이 없음을 알 수 있었다.Next, the rotation angle (α), which is a key variable for determining the i value of the image point, and the i-direction residual of the image point were examined. As shown in FIGS. 13 and 14, it was found that there is no significant relationship between the rotation angle and the i-direction residual of the image point.

도 15와 16은 내외부 영상점의 j방향 잔차 크기의 히스토그램이다. 가장 적합한 어안렌즈 투영법을 적용했음에도 불구하고 표준편차가 작지 않은데 이는 왜곡이 심한 어안렌즈의 특성 때문인 것으로 판단한다.15 and 16 are histograms of the j-direction residual magnitudes of the inner and outer image points. Although the most suitable fisheye lens projection method is applied, the standard deviation is not small due to the characteristics of fisheye lens with severe distortion.

다음으로 영상점의 j값은 주요변수인 객체점의 RZ값과만 관계가 있다. 따라서 객체점의 RZ값과 영상의 j방향 잔차와의 관련성을 살펴보았다. 도 17과 18에서 보듯이, RZ값과 j방향의 잔차 간에는 음의 상관관계가 있음을 알 수 있었다. 특히, -0.5m와 0.5m 사이에서 음의 상관관계가 뚜렷하게 나타났다.Next, the j value of the image point is only related to the R Z value of the object point which is the main variable. Therefore, the relationship between the R Z value of the object point and the j-direction residual of the image is examined. As shown in FIGS. 17 and 18, it can be seen that there is a negative correlation between the R Z value and the residual in the j direction. In particular, a negative correlation was apparent between -0.5m and 0.5m.

또한, 영상점에 영향을 끼치는 주요한 변수인 카메라와 객체점간의 거리(D)와 영상점의 i, j 방향별 잔차와의 관련성을 살펴보았다. 도 19와 20은 카메라와 객체점간의 거리에 따른 내외부 영상의 방향 i잔차이고 도 21과 22는 내외부 영상의 j방향 잔차이다. 큰 관련성이 없음을 확인할 수 있었다.In addition, the relationship between the distance (D) between the camera and the object point, which is an important variable affecting the image point, and the residuals in the i and j directions of the image point was examined. 19 and 20 are residual i directions of the inner and outer images according to the distance between the camera and the object point, and FIGS. 21 and 22 are residual j directions of the inner and outer images. There was no significant relationship.

마지막으로 방사거리에 따른 i방향과 j방향의 잔차를 살펴보았다. 도 23과 도 24는 방사거리에 따른 내외부 영상의 i방향 잔차이고 도 25과 26는 내외부 영상의 j방향 잔차이다. j방향 잔차의 분포가 방사거리와 뚜렷한 관련성을 나타내고 있으며 이는 렌즈왜곡의 영향이 j방향에 크게 미치기 때문이다.
Finally, the residuals in the i and j directions according to the radiation distance were examined. 23 and 24 are residual i-directions of the inner and outer images according to the radiation distance, and FIGS. 25 and 26 are residual j-directions of the inner and outer images. The distribution of j-direction residuals has a clear correlation with the radiation distance, because the effect of lens distortion has a great influence on the j-direction.

<결론><Conclusion>

본 발명에서와 같이, 회전식 라인 카메라로 획득한 실내 단일 전방위 영상의 지오레퍼런싱을 위한 외부표정요소를 추정하기 위해, 회전식 라인 카메라 및 좌표계들을 정의하고, 공선방정식을 유도하여 이용하고, 또한 객체기준점 확보를 위하여 객체좌표계를 정의하고 좌표변환계수를 추정한 후, 좌표변환을 수행하여 객체좌표계로 표현된 객체기준점을 획득하여, 4가지 투영법을 적용하여 외부표정요소를 추정하였다. 추정 정밀도가 가장 좋은 투영법을 선정하고, 선정된 투영법으로 계산한 잔차의 분포 및 주요 변수와의 관련성에 대하여 분석함으로써, 제안한 지오레퍼런싱 방법이 회전식 라인 카메라로 획득한 실내 전방위 영상에 적합함을 확인하였다. 위의 실험예에서 추정된 외부표정요소의 위치는 1.4㎜의 정밀도로, 자세는 0.05°의 정밀도로 추정할 수 있었다. 또한 영상점 잔차는 i방향으로는 2.56 픽셀, j방향으로는 9.85 픽셀의 표준편차를 나타내었고, j방향 잔차는 객체점의 값과의 음의 상관관계가 있었다. 이 외에도 상대적으로 영상의 j방향 잔차가 방사거리와 뚜렷한 관련성을 보이는 것으로 보아 어안렌즈의 왜곡 보정이 필요한 것으로 보이며, 향후, 회전식 라인 카메라의 캘리브레이션을 수행한다면 회전중심의 거리(r)와 카메라가 틀어진 회전각(β), 어안렌즈 카메라의 왜곡계수 등의 추정이 가능할 것이고, 이를 통해 보다 정밀한 지오레퍼런싱을 수행할 수 있으며, 두 장 이상의 지오레퍼런싱된 실내 전방위 영상을 이용하여 객체점들의 3차원 좌표추정이 가능하고, 더 나아가 정밀한 실내 3차원 모델링이 가능할 것으로 기대된다.As in the present invention, in order to estimate an external expression element for georeferencing an indoor single omnidirectional image obtained with a rotary line camera, a rotary line camera and coordinate systems are defined, a collinear equation is derived, and an object is also used. In order to secure the reference point, the object coordinate system was defined, the coordinate transformation coefficient was estimated, the coordinate transformation was performed to obtain the object reference point represented by the object coordinate system, and external projection elements were estimated by applying four projection methods. By selecting the projection method with the best estimation accuracy and analyzing the distribution of residuals calculated by the selected projection method and its relationship with the main variables, we propose that the proposed georeferencing method is suitable for the indoor omnidirectional image obtained with the rotary line camera. Confirmed. In the above experimental example, the estimated position of the external expression element was estimated to be 1.4 mm in accuracy, and the posture was estimated to be 0.05 ° in accuracy. Also, the image point residual showed a standard deviation of 2.56 pixels in the i direction and 9.85 pixels in the j direction, and the j direction residual had a negative correlation with the value of the object point. In addition, since the j-direction of the image shows a clear relationship with the radiation distance, it is necessary to correct the distortion of the fisheye lens.If the calibration of the rotary line camera is performed in the future, the distance of the center of rotation (r) and the camera are distorted. It will be possible to estimate the angle of rotation (β) and the distortion coefficient of the fisheye lens camera, which will enable more accurate georeferencing and more than two georeferenced indoor omnidirectional images. It is expected that three-dimensional coordinate estimation will be possible, and furthermore, accurate indoor three-dimensional modeling will be possible.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

전방위 영상 제공 시스템(100)
라인 카메라(100)
제어장치(130)
저장매체(131)
합성부(132)
Omnidirectional image providing system (100)
Line camera (100)
Controller 130
Storage medium (131)
Synthesis part 132

Claims (6)

라인 카메라로 획득한 실내 전방위 영상의 지오레퍼런싱 방법에 있어서, 라인 카메라를 회전하면서 전방위에 대한 라인 단위의 영상을 획득하여 저장 수단에 저장하고 이를 이용해 초점거리(f) 상의 각 영상점(i, j)의 영상으로 투영되는 n×m 개 픽셀의 전방위 영상을 생성하되, 미리 선정한 실내의 복수 객체기준점과 획득한 상기 영상의 공선방정식을 이용하여 상기 라인 카메라의 자세 데이터를 포함하는 외부표정요소를 추정하여 상기 영상점(i, j)의 좌표값을 보정하며,
상기 공선방정식의 산출 과정은, 실내의 코너점을 원점으로 하고 상기 코너점에서 만나는 세개의 모서리로 3개의 축을 정의한 객체좌표계로 객체점(OP)을 표현하는 제1단계;
상기 객체점(OP)을 상기 영상이 촬영되는 순간의 위치와 자세로 정의된 카메라좌표계로 표현되는 객체점(CP)으로 변환하는 제2단계;
소정의 투영법에 기초하여 상기 카메라좌표계로 표현되는 라인 카메라의 초점거리(f) 상에서의 객체점(CP)에 대한 상기 영상점(i, j) 중 j방향 거리 rp을 산출하는 제3단계; 및
객체점(CP)이 상기 영상에 맺히는 각도와 상기 rp로부터 객체점(CP)의 픽셀 위치를 계산해 상기 영상점(i, j)의 좌표값을 결정하는 제4단계; 및
회전식 상기 라인 카메라로 획득한 전방위 영상에 대한 상기 외부표정요소를 추정하는 제5단계
를 포함하는 것을 특징으로 하는 지오레퍼런싱 방법.
In the georeferencing method of indoor omnidirectional images obtained with a line camera, a line-by-line image of an omnidirectional image is obtained by rotating the line camera, stored in a storage means, and each image point (i) on the focal length f is used by the same. and an external expression element that generates an omnidirectional image of n × m pixels projected onto the image of j), and includes posture data of the line camera using a preselected plurality of object reference points in the room and the acquired collinear equation of the image. Correcting the coordinate values of the image points (i, j),
Calculation process of the collinearity equations, the corner point as the origin of the room and the first stage representing the object point (P O) to the object coordinate system defined by three axes in the three edges meeting at the corner point;
A second step of converting the object point O P into an object point C P represented by a camera coordinate system defined by a position and a posture of the moment when the image is captured;
A third step of calculating a j-direction distance r p of the image points i and j with respect to the object point C P on the focal length f of the line camera represented by the camera coordinate system based on a predetermined projection method; ; And
A fourth step of calculating coordinate values of the image points (i, j) by calculating a pixel position of the object point ( C P) from an angle formed by the object point ( C P) to the image and the r p ; And
A fifth step of estimating the external expression element of the omnidirectional image acquired by the rotating line camera;
Georeferencing method comprising a.
제1항에 있어서,
상기 복수 객체기준점으로서 상기 객체좌표계로 표현된 적어도 3개 이상의 객체점(OP)을 이용하되,
실내의 한 코너점을 객체좌표계의 원점으로 정의하고 상기 코너점에서 만나는 세 모서리의 길이를 측정하여 측정 좌표계의 (Xb, Yb, Zb)을 획득하고 객체좌표계로 표현되는 3개 점의 좌표 (Xa, Ya, Za)로 변환하기 위해 수학식
Figure 112012033751859-pat00017

을 이용하여 추정하되, (Xb, Yb, Zb)는 측정 좌표계로 표현된 3개 점의 3차원 좌표값, (Xa, Ya, Za)는 객체 좌표계로 표현된 3개 점의 3차원 좌표값, R은 객체 좌표계에서 측정 좌표계로 변환하는 회전변환행렬, t는 이동변환행렬인 것을 특징으로 하는 지오레퍼런싱 방법.
The method of claim 1,
At least three or more object points O P expressed in the object coordinate system are used as the plurality of object reference points.
Define a corner point of the room as the origin of the object coordinate system and obtain the (X b , Y b , Z b ) of the measured coordinate system by measuring the lengths of the three corners that meet at the corner point, Equation to convert to coordinates (X a , Y a , Z a )
Figure 112012033751859-pat00017

(X b , Y b , Z b ) are three-dimensional coordinate values of three points expressed in the measurement coordinate system, and (X a , Y a , Z a ) are three points expressed in the object coordinate system. The three-dimensional coordinate value of, R is a rotation transformation matrix for converting from the object coordinate system to the measurement coordinate system, t is a geo-referencing method, characterized in that the movement transformation matrix.
제1항에 있어서,
상기 제2단계에서,
수학식들
Figure 112013077324494-pat00018

Figure 112013077324494-pat00019

Figure 112013077324494-pat00020

Figure 112013077324494-pat00021

Figure 112013077324494-pat00022

을 이용하되, 여기서, OOR는 객체좌표계에서 표현된 회전좌표계의 원점, RRO는 객체좌표계에서 회전좌표계로의 회전변환행렬, r은 라인 카메라의 회전반경, α는 라인 카메라의 가상의 회전좌표계에서의 회전각, β는 라인 카메라와 회전축이 틀어진 각, θ는 회전좌표계의 X축과 객체점을 회전좌표계의 XY평면으로 투영시킨 점의 X축 회전각, ε는 θ와 α의 차이각, RP(RX, RY, RZ)는 회전좌표계에서의 객체점(OP) 좌표, CP(CX, CY, CZ)는 카메라좌표계에서의 객체점(OP) 좌표인 것을 특징으로 하는 지오레퍼런싱 방법.
The method of claim 1,
In the second step,
Equations
Figure 112013077324494-pat00018

Figure 112013077324494-pat00019

Figure 112013077324494-pat00020

Figure 112013077324494-pat00021

Figure 112013077324494-pat00022

Where O O R is the origin of the rotation coordinate system expressed in the object coordinate system, R R O is the rotation transformation matrix from the object coordinate system to the rotation coordinate system, r is the rotation radius of the line camera, and α is the virtual Rotation angle in the rotational coordinate system, β is the angle between the line camera and the rotation axis, θ is the X-axis rotation angle of the point projected to the XY plane of the rotation coordinate system, ε is the difference between θ and α Where R P ( R X, R Y, R Z) is the object point ( O P) coordinate in the rotational coordinate system, and C P ( C X, C Y, C Z) is the object point ( O P) in the camera coordinate system. Georeferencing method characterized in that the coordinate.
제1항에 있어서,
상기 제3단계에서,
수학식들
Figure 112012033751859-pat00023

Figure 112012033751859-pat00024

을 이용하되, 여기서, ρ는 라인 카메라로 들어오는 객체점(OP)의 광선과 광학축이 이루는 각도, f는 라인 카메라의 초점거리, CP(CX, CY, CZ)는 카메라좌표계에서의 객체점(OP) 좌표인 것을 특징으로 하는 지오레퍼런싱 방법.
The method of claim 1,
In the third step,
Equations
Figure 112012033751859-pat00023

Figure 112012033751859-pat00024

, Where: ρ is the angle between the optical axis and the ray of the object point O P coming into the line camera, f is the focal length of the line camera, and C P ( C X, C Y, C Z) is the object point O in the camera coordinate system. P) Georeferencing method characterized in that the coordinate.
제1항에 있어서,
상기 제4단계에서,
수학식
Figure 112012033751859-pat00025

을 이용하되, 여기서, (i,j)는 픽셀로 표현되는 영상 좌표계 상의 영상점, α는 라인 카메라의 가상의 회전좌표계에서의 회전각, β는 라인 카메라의 카메라좌표계에서의 회전각, n은 영상의 j방향 픽셀수, μα 는 픽셀당 회전각, μj 는 픽셀당 j방향 크기인 것을 특징으로 하는 지오레퍼런싱 방법.
The method of claim 1,
In the fourth step,
Equation
Figure 112012033751859-pat00025

Where (i, j) is an image point on an image coordinate system expressed in pixels, α is a rotation angle in a virtual rotation coordinate system of the line camera, β is a rotation angle in the camera coordinate system of the line camera, and n is The number of pixels in the j direction of the image, μ α is the rotation angle per pixel, μ j is the size of the j direction per pixel.
제4항에 있어서,
상기 제5단계에서,
객체기준점, 라인 카메라의 회전반경, 및 라인 카메라와 회전축이 틀어진 각을 이용하여, 영상점(i, j)에 대하여 상기 외부표정요소인 라인 카메라의 가상의 회전좌표계에서의 원점과 자세 데이터를 추정하되,
상기 투영법1, 상기 투영법2, 상기 투영법3, 및 상기 투영법4을 모두 적용 후 i, j 방향으로 잔차가 가장작은 투영법으로 추정한 상기 외부표정요소를 결정하는 것을 특징으로 하는 지오레퍼런싱 방법.


5. The method of claim 4,
In the fifth step,
Using the object reference point, the rotation radius of the line camera, and the angle at which the line camera and the rotation axis are distorted, the origin and posture data of the virtual rotation coordinate system of the line camera as the external expression element are estimated with respect to the image point (i, j). But
And applying the projection method 1, the projection method 2, the projection method 3, and the projection method 4 to determine the external expression element estimated by the projection method having the smallest residual in the i and j directions.


KR1020120044341A 2012-04-27 2012-04-27 Georeferencing Method of Indoor Omni-Directional Images Acquired by Rotating Line Camera KR101342393B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120044341A KR101342393B1 (en) 2012-04-27 2012-04-27 Georeferencing Method of Indoor Omni-Directional Images Acquired by Rotating Line Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120044341A KR101342393B1 (en) 2012-04-27 2012-04-27 Georeferencing Method of Indoor Omni-Directional Images Acquired by Rotating Line Camera

Publications (2)

Publication Number Publication Date
KR20130121290A KR20130121290A (en) 2013-11-06
KR101342393B1 true KR101342393B1 (en) 2013-12-18

Family

ID=49851546

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120044341A KR101342393B1 (en) 2012-04-27 2012-04-27 Georeferencing Method of Indoor Omni-Directional Images Acquired by Rotating Line Camera

Country Status (1)

Country Link
KR (1) KR101342393B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102126159B1 (en) 2019-11-10 2020-06-23 주식회사 에스360브이알 Scanning panoramic camera and scanning stereoscopic panoramic camera
KR20200116682A (en) 2019-04-02 2020-10-13 주식회사 에스360브이알 Scanning mono and stereoscopic panoramic image acquisition device
KR102320398B1 (en) 2020-05-07 2021-11-01 심재권 Camera rotating apparatus

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102627453B1 (en) * 2018-10-17 2024-01-19 삼성전자주식회사 Method and device to estimate position
CN109188852B (en) * 2018-10-17 2020-11-10 北京空间机电研究所 Laboratory calibration method of spliced camera suitable for asymmetric field of view
CN111767767A (en) * 2019-05-24 2020-10-13 北京京东尚科信息技术有限公司 Method and device for detecting indoor object, electronic equipment and storage medium
KR102300570B1 (en) * 2020-07-31 2021-09-09 주식회사 쓰리아이 Assembly for omnidirectional image capture and method performing by the same
KR102483388B1 (en) * 2020-07-31 2022-12-30 주식회사 쓰리아이 Method for processing omnidirectional image and server performing the same
CN112883325B (en) * 2021-01-15 2023-09-22 中国测绘科学研究院 Method for calculating rear intersection numerical value of single image space
CN113506208B (en) * 2021-06-21 2023-07-14 中煤科工集团西安研究院有限公司 Annular image plane unfolding method of forward-looking drilling visual observer

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200116682A (en) 2019-04-02 2020-10-13 주식회사 에스360브이알 Scanning mono and stereoscopic panoramic image acquisition device
KR102126159B1 (en) 2019-11-10 2020-06-23 주식회사 에스360브이알 Scanning panoramic camera and scanning stereoscopic panoramic camera
KR102320398B1 (en) 2020-05-07 2021-11-01 심재권 Camera rotating apparatus

Also Published As

Publication number Publication date
KR20130121290A (en) 2013-11-06

Similar Documents

Publication Publication Date Title
KR101342393B1 (en) Georeferencing Method of Indoor Omni-Directional Images Acquired by Rotating Line Camera
US9965870B2 (en) Camera calibration method using a calibration target
EP3550513B1 (en) Method of generating panorama views on a mobile mapping system
JP5580164B2 (en) Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program
KR101590530B1 (en) Automatic scene calibration
US8059887B2 (en) System and method for providing mobile range sensing
US20150116691A1 (en) Indoor surveying apparatus and method
Zhang et al. A universal and flexible theodolite-camera system for making accurate measurements over large volumes
US9881377B2 (en) Apparatus and method for determining the distinct location of an image-recording camera
EP2022007A2 (en) System and architecture for automatic image registration
JP2013535013A (en) Method and apparatus for image-based positioning
Gerke Using horizontal and vertical building structure to constrain indirect sensor orientation
Burkhard et al. Stereovision mobile mapping: System design and performance evaluation
JP5991821B2 (en) Photogrammetry equipment
Chandaria et al. Realtime camera tracking in the MATRIS project
Chandaria et al. The MATRIS project: real-time markerless camera tracking for augmented reality and broadcast applications
CN115511961A (en) Three-dimensional space positioning method, system and storage medium
CN117882110A (en) Pose estimation method of movable platform, movable platform and storage medium
Barazzetti et al. Stitching and processing gnomonic projections for close-range photogrammetry
CN109945840B (en) Three-dimensional image shooting method and system
JP5409451B2 (en) 3D change detector
Hrabar et al. PTZ camera pose estimation by tracking a 3D target
DeChant et al. A close-range photogrammetric solution working with zoomed images from digital cameras
Theiss Rigorous image formation from airborne and spaceborne digital array scanners
Erdnüß Calibration and synchronization of geospatial metadata for aerial sensor systems

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161111

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171123

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181203

Year of fee payment: 6