KR100867731B1 - Method for estimation of omnidirectional camera motion - Google Patents

Method for estimation of omnidirectional camera motion Download PDF

Info

Publication number
KR100867731B1
KR100867731B1 KR1020070086763A KR20070086763A KR100867731B1 KR 100867731 B1 KR100867731 B1 KR 100867731B1 KR 1020070086763 A KR1020070086763 A KR 1020070086763A KR 20070086763 A KR20070086763 A KR 20070086763A KR 100867731 B1 KR100867731 B1 KR 100867731B1
Authority
KR
South Korea
Prior art keywords
camera
vector
contour
image
point
Prior art date
Application number
KR1020070086763A
Other languages
Korean (ko)
Inventor
홍현기
황용호
이재만
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020070086763A priority Critical patent/KR100867731B1/en
Application granted granted Critical
Publication of KR100867731B1 publication Critical patent/KR100867731B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • G06T3/047
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/06Curved planar reformation of 3D line structures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

A position estimating method of an omnidirectional camera is provided to estimate position information of a camera accurately with regard to an actual image so that the information can be used efficiently in 3D structure restoration and 3D synthesization of a virtual object. Location information parameter of a camera is obtained(S10). A project model of the omni-directional camera is estimated. A locus of a contour orthogonally projected on 2D image plane of the camera is calculated after a 3D straight line is mapped on a hemisphere of the camera. An angle error function is calculated by using a 3D vector and a normal vector. The 3D vector corresponds to a point on plural contours of two images. Predetermined points at two image viewing points are reverse-projected to make the 3D vector. The normal vector of an epipolar plane is formed by a viewing point of the image and the vector. An initial value of a position information variable number of the camera is calculated. The position information variable number has the angle error function value as a minimum value. The position of the omni-directional camera is determined(S20).

Description

전방향 카메라의 위치 추정 방법{METHOD FOR ESTIMATION OF OMNIDIRECTIONAL CAMERA MOTION}How to estimate the position of the omnidirectional camera {METHOD FOR ESTIMATION OF OMNIDIRECTIONAL CAMERA MOTION}

본 발명은 전방향 카메라의 위치 추정 방법에 관한 것으로, 더욱 상세하게는 오차함수의 최소화에 관련된 두 단계 알고리즘을 사용한 전방향 카메라의 위치 추정 방법에 관한 것이다.The present invention relates to a method for estimating the position of the omnidirectional camera, and more particularly, to a method for estimating the position of the omnidirectional camera using a two-stage algorithm related to minimizing the error function.

넓은 시야각을 갖는 전방향(omnidirectional) 카메라 시스템은 적은 수의 영상으로도 주변 장면에 대해 많은 정보를 취득할 수 있어 카메라 교정(calibration), 공간의 3차원 재구성(reconstruction) 등에 널리 이용된다. 영상 시퀀스로부터 카메라의 위치 추정, 3차원 재구성 기술 등은 컴퓨터 비전 분야에서 중요한 연구 주제이며 이를 위해 다중 시점(multi-view) 영상 내에 대응되는 점, 직선, 곡선 등의 특징 검출 및 정합(matching) 과정이 요구된다. The omnidirectional camera system having a wide viewing angle can acquire a lot of information about the surrounding scene even with a small number of images, and thus is widely used for camera calibration and three-dimensional reconstruction of space. Camera position estimation and 3D reconstruction techniques from image sequences are important research topics in computer vision field. For this, feature detection and matching processes such as points, lines, and curves corresponding to multi-view images are required. Is required.

그러나 카메라가 많이 이동하는 경우 두 영상 프레임 내에 중복되는 영역이 줄어들어 정확한 정합이 어렵게 된다. 180도 이상의 넓은 시야각을 가지는 전방향 카메라로부터 취득된 영상은 주변 환경에 대해 상대적으로 많은 정보를 취득할 수 있기 때문에 상기 카메라의 이동에 따른 영상간 정합을 비교적 쉽게 도출할 수 있 어 이에 대한 연구가 활발히 이루어지고 있다.However, if the camera moves a lot, the overlapping area in the two image frames is reduced, making accurate matching difficult. Since the images acquired from the omnidirectional camera having a wide viewing angle of 180 degrees or more can acquire a lot of information about the surrounding environment, the matching between the images according to the movement of the camera can be derived relatively easily. Actively done.

초기에는 전방향 카메라를 핀홀(pinhole) 카메라 모델로 변환하여 카메라의 사영관계를 추정하는 방법이 주로 제안되었다. 하지만 상기 모델을 이용하는 경우 공간상에 존재하는 직선은 전방향 영상에서 컨투어(contour)로 사영되며 이렇게 왜곡된(distortion) 컨투어를 원래의 직선으로 변환시켜 카메라의 사영 모델을 추정하는 방법을 사용하지만 전체의 시계 영역을 모두 표현하지 못한다. Initially, a method of estimating the projection relationship of a camera by converting an omnidirectional camera into a pinhole camera model has been mainly proposed. However, in the case of using the model, a straight line existing in space is projected as a contour in the omnidirectional image, and a method of estimating the projection model of the camera by converting the distorted contour into the original straight line is used. It does not represent all of the field of view.

다른 방법으로 Xiong은 US370280에서 네 개의 어안렌즈로부터 취득한 영상의 왜곡과 시야각을 자동교정하여 파노라마 영상을 구현하였다. 그러나 카메라의 초기 설정 정보가 필요하며 렌즈의 종류에 따라 부정확한 교정을 실행하는 경우가 있다. Alternatively, Xiong implemented panorama images by automatically correcting the distortion and field of view of the images obtained from four fisheye lenses in US370280. However, initial setup information for the camera is required, and incorrect calibration may be performed depending on the type of lens.

Sato[I. Sato, Y. Sato, and K. Ikeuchi, "Acquiring a radiance distribution to superimpose virtual objects onto a real scene," IEEE Trans . on Visualization and Computer Graphics, vol.5, no.1, pp.1-12. 1999.]등은 전방향 스테레오 알고리즘을 이용하여 3차원 공간 구성에 요구되는 사용자의 직접적인 입력값을 간소화하였다. 하지만 이 방법은 카메라의 위치와 내부 파라미터에 대한 사전 정보가 필요하다. Sato [I. Sato, Y. Sato, and K. Ikeuchi, "Acquiring a radiance distribution to superimpose virtual objects onto a real scene," IEEE Trans . on Visualization and Computer Graphics , vol. 5, no. 1, pp. 1-12. 1999.] simplifies the user's direct input required for 3D spatial construction using omnidirectional stereo algorithm. However, this method requires advance information about the camera's position and internal parameters.

그 외 전방향 카메라 모델에 관한 연구가 자동 교정과 연계되어 제안되기도 하지만 대부분의 연구는 전방향 카메라의 모델 추정보다는 자동 교정 방법을 주로 다루었다. Kannal[J. Kannala and S. S. Brandt, "A Generic Camera Model and Calibration Method for Conventional, Wide-Angle, and Fish-Eye Lenses," IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol. 28, No. 8, pp. 1335-1340, 2006.] 등은 교정 패턴을 이용하여 전방향 카메라 뿐만 아니라 일반 카메라도 정확하게 모델링할 수 있는 일반적인 방법을 제안하였지만 사전에 패턴을 제작하고 영상을 취득해야 하는 단점이 있다.Other studies on omnidirectional camera models have been proposed in conjunction with automatic calibration, but most of the studies focus on automatic calibration methods rather than model estimation of omnidirectional cameras. Kannal [J. Kannala and SS Brandt, "A Generic Camera Model and Calibration Method for Conventional, Wide-Angle, and Fish-Eye Lenses," IEEE Trans. on Pattern Analysis and Machine Intelligence , Vol. 28, No. 8, pp. 1335-1340, 2006.] et al. Proposed a general method for accurately modeling general cameras as well as omnidirectional cameras using correction patterns, but has a disadvantage in that a pattern must be produced in advance and an image can be acquired.

3차원 영상의 효과적인 정합을 위해 전방향 카메라에 적용할 수 있는 간단한 알고리즘을 포함하는 전방향 카메라의 위치 추정 방법을 제안하고자 한다.We propose a method for estimating the omni-directional camera including a simple algorithm that can be applied to the omni-directional camera for effective registration of three-dimensional images.

본 발명은 상기와 같은 종래 기술을 개선하기 위해 안출된 것으로서, 영상 간 대응되는 컨투어 성분을 이용한 전방향 카메라의 위치 추정 방법을 제공하는 것을 목적으로 한다.    The present invention has been made to improve the prior art as described above, and an object of the present invention is to provide a method for estimating the position of the omnidirectional camera using a contour component corresponding to an image.

본 발명의 또 다른 목적은 에피폴라 평면에 대한 각도 오차와 컨투어의 거리오차를 최소화하는 전방향 카메라의 위치 추정 방법을 제공하는 것이다.It is still another object of the present invention to provide a method for estimating an omnidirectional camera, which minimizes an angular error with respect to an epipolar plane and a distance error of a contour.

본 발명에 따르면, 전방향 카메라의 위치 정보 추정을 위해 최소화된 2단계 알고리즘이 제공된다.According to the present invention, a minimized two-stage algorithm is provided for estimating the position information of the omni-directional camera.

또한 본 발명에 따르면, 실제 영상을 대상으로 하여 카메라의 위치 정보를 정확히 추정할 수 있다.In addition, according to the present invention, it is possible to accurately estimate the position information of the camera with respect to the actual image.

또한 본 발명에 따르면, 3차원 구조의 복원과 가상물체의 3차원적 합성에 효과적으로 활용될 수 있다.In addition, according to the present invention, it can be effectively used for the restoration of three-dimensional structure and three-dimensional synthesis of virtual objects.

상기의 목적을 이루고 종래기술의 문제점을 해결하기 위하여, 본 발명은 전방향 카메라의 사영모델을 추정하여 상기 카메라의 영상면에 사영된 컨투어의 궤적 을 계산하며, 두 영상의 복수의 컨투어 상의 점을 대응점으로 하고 상기 대응점에 대한 각도 오차 함수를 계산하여 상기 카메라의 위치 정보 변수의 초기값을 구하는 제1단계 및, 상기 초기값을 이용하여 기준시점에 대한 제1참조시점의 카메라의 위치를 설정함으로써 3차원 직선을 형성하고, 상기 직선을 제2참조시점에 사영시킨 컨투어와 상기 카메라의 영상면에 사영된 컨투어와의 거리오차를 최소화하는 상기 카메라의 위치 정보 변수값으로부터 상기 카메라의 위치를 결정하는 제2단계를 제공한다.In order to achieve the above object and solve the problems of the prior art, the present invention estimates the projection model of the omnidirectional camera, calculates the trajectory of the projected contour on the image plane of the camera, and calculates a plurality of contour points on the two images. A first step of obtaining an initial value of the position information variable of the camera by calculating an angle error function for the corresponding point as a corresponding point, and setting the position of the camera of the first reference point with respect to the reference point using the initial value. Determining a position of the camera from a position information variable value of the camera which forms a three-dimensional straight line and minimizes a distance error between the contour projected at the second reference point and the contour projected on the image plane of the camera. Provide a second step.

이하에서는 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described an embodiment of the present invention;

도 1은 본 발명의 실시예에 따른 전방향 카메라의 위치 추정 방법을 도시한 플로우 차트이다. 1 is a flowchart illustrating a method for estimating a position of a omnidirectional camera according to an exemplary embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 전방향 카메라의 위치 추정 방법은 전방향 카메라의 위치 정보 변수를 구하는 단계(S10)와 전방향 카메라의 위치를 결정하는 단계(S20)를 포함한다.Referring to FIG. 1, the method of estimating the position of the omnidirectional camera according to an embodiment of the present invention includes obtaining a position information variable of the omnidirectional camera (S10) and determining a position of the omnidirectional camera (S20). .

도 2는 도 1의 전방향 카메라의 위치 정보 변수를 구하는 단계(S10)를 자세히 나타낸 플로우 차트이다.FIG. 2 is a detailed flowchart illustrating an operation S10 of obtaining the position information variable of the omnidirectional camera of FIG. 1.

도 2를 참조하면, 상기 카메라의 위치 정보 변수를 구하는 단계(S10)은, 상기 전방향 카메라의 사영모델을 추정하는 단계(S11), 3차원 직선이 상기 카메라의 반구 모델에 맵핑된 다음 상기 카메라의 2차원 영상면에 직교 사영된 컨투어의 궤적을 계산하는 단계(S12), 상기 두 영상의 복수의 상기 컨투어 상의 점을 대응점으로 하고 두 영상 시점에서 임의의 대응점에 대해 역사영한 3차원 벡터와 상기 영상 의 시점과 상기 벡터에 의해 형성되는 에피폴라 평면의 법선 벡터를 이용한 각도 오차 함수를 계산하는 단계(S13) 및, 상기 각도 오차 함수값을 최소로 하는 상기 카메라의 위치 정보 변수의 초기값을 계산하는 단계(S14)를 포함한다.Referring to FIG. 2, the step S10 of obtaining the positional information variable of the camera may include estimating the projection model of the omnidirectional camera (S11), and a three-dimensional straight line is mapped to the hemisphere model of the camera. Computing the trajectory of the orthogonal projected contour on the two-dimensional image plane of (S12), the three-dimensional vector and the inverse of the arbitrary points in the two image points as the corresponding point on the plurality of the contour of the two images Calculating an angular error function using a viewpoint of an image and a normal vector of an epipolar plane formed by the vector (S13), and calculating an initial value of a position information variable of the camera that minimizes the angular error function value Step S14 is included.

일반적인 원근(perspective) 사영 모델은 어안 렌즈로 취득되는 전방향 영상의 사영 관계를 표현할 수 없으므로, 전방향 영상의 특성에 따라 방사상으로 대칭된 사영 모델이 필요하다. 핀홀 카메라 모델은 다음의 수학식 1과 같은 원근 사영모델로 표현된다.Since the general perspective projection model cannot express the projection relationship of the omnidirectional image acquired by the fisheye lens, a radially symmetrical projection model is required according to the characteristics of the omnidirectional image. The pinhole camera model is represented by a perspective projection model shown in Equation 1 below.

Figure 112007062757211-pat00001
Figure 112007062757211-pat00001

여기서, r은 영상의 중심점(principal point)으로부터의 거리, θ는 카메라의 중심축(principal axis)과 입사광 사이의 각도, f는 초점거리(focal length)이다. Here, r is a distance from a principal point of the image, θ is an angle between the principal axis of the camera and the incident light, f is a focal length.

도 3은 반지름(rmax)인 전방향 영상에서 거리(r)만큼 떨어진 픽셀의 입사벡터(P)와 높이값(z)로 구성되는 직교(orthogonal) 사영 모델을 도시한다.FIG. 3 illustrates an orthogonal projection model composed of an incidence vector P and a height value z of a pixel separated by a distance r in an omnidirectional image having a radius rmax.

수학식 1의 원근 사영모델은 θ가 90˚일 때 r값이 무한대가 되어 전방향 카메라 모델로 사용할 수 없기 때문에 일반적으로 수학식 2 내지 5의 사영모델이 사용된다.Since the perspective projection model of Equation 1 cannot be used as an omnidirectional camera model when r is infinite when θ is 90 °, the projection models of Equations 2 to 5 are generally used.

Figure 112007062757211-pat00002
Figure 112007062757211-pat00002

Figure 112007062757211-pat00003
Figure 112007062757211-pat00003

Figure 112007062757211-pat00004
Figure 112007062757211-pat00004

Figure 112007062757211-pat00005
Figure 112007062757211-pat00005

전방향 카메라의 사영모델의 추정을 위해 상기 사영모델을 대상으로 교정패턴을 취득한 영상으로부터 9개의 변수로 표현된 함수를 구하는 방법을 이용한다. 방사상으로 대칭성을 가지는 일반적인 사영모델을 수학식 6과 같이 나타낼 수 있다.In order to estimate the projection model of the omni-directional camera, a method of obtaining a function represented by nine variables from the image obtained by obtaining a calibration pattern for the projection model is used. A general projection model having radial symmetry may be represented as in Equation 6.

Figure 112007062757211-pat00006
Figure 112007062757211-pat00006

CCD에 맺힌 영상이 디지털화되는 과정에서 전방향 카메라의 중심점과 종횡비(aspect ratio) 등을 포함한 내부 변수도 함께 추정할 수 있다. 이 경우 사영모 델을 위한 9개의 변수는 5개의 변수와 함께 카메라의 내부 변수 4개도 포함하게 된다.In the process of digitizing the image on the CCD, internal variables including the center point and the aspect ratio of the omnidirectional camera can also be estimated. In this case, the nine variables for the projective model would include the five variables as well as the camera's four internal variables.

인공 건축물, 실내 환경 등에 다양하게 존재하는 직선 성분들은 상기 전방향 카메라 모델에 의해 영상에 컨투어 형태로 사영된다. 따라서 추정된 상기 카메라의 사영모델과 컨투어상의 점, 예를 들어 양끝점 좌표를 이용하여 각 영상에 사영된 컨투어의 궤적을 계산할 수 있으며 이런 관계는 카메라의 이동 및 회전 변수 추정에 유용하게 적용될 수 있다.Various linear components existing in artificial buildings, indoor environments, etc. are projected in a contour form on the image by the omnidirectional camera model. Therefore, the trajectory of the projected contour on each image can be calculated by using the estimated projection model of the camera and the point on the contour, for example, both end point coordinates, and this relationship can be usefully applied for estimating the movement and rotation parameters of the camera. .

도 4는 3차원 공간상의 직선 성분(l)을 카메라의 2차원 영상면(IP;image plane)으로 사영한 컨투어(c)의 궤적을 보인다.4 shows the trajectory of the contour (c) projecting the linear component (1) in the three-dimensional space to the two-dimensional image plane (IP; IP) of the camera.

도 4를 참조하면, 영상면(IP)의 컨투어(c) 궤적은 3차원 공간 상의 직선(l)이 반구(S)에 맵핑된 다음 직교 사영되어 나타난다. 상기 영상면(IP)의 컨투어(c)의 2차원 좌표를 구하기 위해 반구 모델과 추정되는 사영모델에 교차하는 벡터를 이용한다.Referring to FIG. 4, the contour (c) trajectory of the image plane IP is represented by orthogonal projection after a straight line l on a three-dimensional space is mapped to the hemisphere S. In order to obtain the two-dimensional coordinates of the contour (c) of the image plane (IP), a vector intersecting the hemisphere model and the projected projection model is used.

도 5는 영상면(IP)에 사영된 컨투어(c)의 2차원 좌표를 구하는 원리를 나타낸 개념도이다.FIG. 5 is a conceptual diagram illustrating a principle of obtaining two-dimensional coordinates of the contour (c) projected on the image plane IP.

먼저 도 4에 도시된 3차원 직선(l)과 상기 카메라의 중심으로 구성되는 해석 평면(interpretation plane)(Π)을 정의하면, 상기 해석 평면(Π)의 법선 벡터(m)=(mx,my,mz)는 양 끝점의 방향벡터(p 1 )(p 2 )의 외적(cross product: p 1 Xp 2 )를 통해 계산된다. 영상면에서 컨투어(c)는 해석평면(Π)과 구면(S)상의 선분이 직교 사영된 성분이며, 구면(S) 상의 선분에 대한 3차원 벡터는 벡터(p 1 )을 법선벡터(m)을 기준으로 벡터(p 2 )까지 회전 변환하여 구할 수 있다. First, an interpretation plane (Π) consisting of the three-dimensional straight line l shown in FIG. 4 and the center of the camera is defined, and the normal vector ( m ) of the analysis plane (Π) = (m x , y m, z m) are external (cross product of the two end point direction vector (p 1) (p 2) of: is calculated from p 1 X p 2). Contour (c) is an orthogonal component of the line on the analysis plane (Π) and sphere (S), and the three-dimensional vector of the line segment on sphere (S) is the vector ( p 1 ) and the normal vector ( m ). It can be obtained by rotating transformation to vector ( p 2 ) based on.

어안렌즈를 이용한 전방향 카메라의 사영관게는 일반적으로 반구 형태로 모델링되지 않기 때문에 해석평면(Π)과 추정된 상기 카메라 사영모델이 교차하는 벡터(p curve )를 구하기 위해 먼저 최대 시야각일 때 상기 카메라 중심으로부터의 거리(rmax)를 반지금으로 하는 구와의 교차 벡터(p sphere )를 구한다. 그리고 상기 구와의 교차 벡터(p sphere )를 법선벡터(m)을 축으로 회전시키고, 이 회전된 벡터를 추정된 상기 카메라 사영모델에 투영하여 컨투어의 궤적(c)을 계산한다.Projection relationships of omnidirectional cameras with fisheye lenses are generally not modeled as hemispheres, so the cameras are first viewed at their maximum viewing angle in order to obtain a vector ( p curve ) between the analysis plane (Π) and the estimated camera projection model. Find the intersection vector ( p sphere ) with a sphere whose distance from the center (r max ) is half the current. Then, the intersection vector ( p sphere ) with the sphere is rotated about the normal vector ( m ), and the rotated vector is projected onto the estimated camera projection model to calculate the trajectory c of the contour.

도 5와 같이 삼각형의 비례식을 사용하여 구모델과 교차하는 벡터(p sphere )를 추정된 상기 카메라의 사영모델(미도시)에 투영하여 컨투어(c)의 궤적을 구할 수 있다. 추정된 상기 카메라의 사영모델로부터 입사각(θ)에 대한 벡터(p curve )의 영상면(IP) 사영된 거리(rcurve)를 구하고, 영상면(IP)에 사영된 컨투어(c)의 2차원 좌표를 수학식 7로 결정한다.As shown in FIG. 5, the trajectory of the contour (c) may be obtained by projecting a vector ( p sphere ) intersecting the old model onto a projected projection model (not shown) of the camera using the triangle proportional equation. From the estimated projective model of the camera, the image plane (IP) projected distance (r curve ) of the vector ( p curve ) with respect to the incident angle (θ) is obtained, and the two-dimensional contour (c) projected on the image plane (IP) The coordinate is determined by the equation (7).

Figure 112007062757211-pat00007
Figure 112007062757211-pat00007

상술한 방법으로 상기 전방향 카메라의 사영모델을 추정하고 상기 카메라의 영상면에 사영된 컨투어의 궤적을 구한 다음, 상기 카메라의 회전과 상대적인 위치 정보를 추정하기 위해 각 대응점에 대한 상기 에피폴라 평면과 역사영된 상기 3차원 벡터간의 각도오차함수값을 최소화 하는 과정을 통해 위치 정보 변수의 초기값을 추정할 수 있다.By estimating the projection model of the omni-directional camera and obtaining the trajectory of the projected contour on the image plane of the camera, the epipolar plane for each corresponding point is estimated to estimate the rotation and relative position information of the camera. The initial value of the location information variable can be estimated by minimizing the angle error function between the three-dimensional vectors.

먼저 컨투어 상의 대응점에 관한 각도 오차 함수를 계산하는 단계(S13)를 살펴본다.First, a step (S13) of calculating an angular error function regarding a corresponding point on a contour will be described.

임의의 두 영상의 컨투어 양 끝점들을 대응점으로 하여 상기 카메라의 위치 정보, 즉 이동 및 회전을 대략적으로 추정하는 방법이 제안된다. 여러 장의 전방향 영상에서 초기 영상의 시점을 월드 좌표계의 원점에 해당하는 기준 시점(base view)로 설정한다. 이후 프레임(k=1,..., n-1)의 전방향 영상들은 원점으로부터 스케일 요소(sk)와 단위 방향벡터(tk)가 고려된 상대적 위치(Ck=skXtk)와 회전행렬(Rk)에 의해 변환된 참조시점(reference view)에서 취득된 영상으로 간주한다. 여기서 기준 시점의 위치(C0)와 회전행렬(R0)는 각각(0,0,0)와 I이다. A method of roughly estimating the position information, that is, the movement and the rotation of the camera, is proposed using the two ends of the contour of two arbitrary images as corresponding points. In several omnidirectional images, a start point of the initial image is set as a base view corresponding to the origin of the world coordinate system. Subsequent omnidirectional images of the frames (k = 1, ..., n-1) have relative positions (C k = s k Xt k ), considering the scale element (s k ) and the unit direction vector (t k ) from the origin. It is regarded as an image acquired from a reference view converted by and a rotation matrix Rk. Here, the position C 0 and the rotation matrix R 0 of the reference viewpoint are (0,0,0) and I, respectively.

도 6은 기준 시점과 임의의 참조시점의 두 영상의 기하 관계를 나타낸 개념도이다. 두 영상 간에 대응되는 m개의 컨투어 양 끝점을 2m개의 대응점으로 설정한 다음, 각 지점에서의 각도 오차 함수(Eangualr)를 계산할 수 있다.6 is a conceptual diagram illustrating a geometric relationship between two images of a reference view and an arbitrary reference view. After setting m end points corresponding to two images to 2m corresponding points, an angle error function E angualr at each point may be calculated.

도 6을 참조하면, 과 는 두 영상 중 기준 시점과 참조 시점에서 i번째 대응점에 대해 역사영된 3차원 벡터, n i0 는 과 기준 시점의 위치벡터(C 1)의 단위방향벡터(t 0)로 계산된 기준 시점에 대한 에피폴라 평면 ()의 법선벡터, n i 1 와 제1참 조시점의 위치벡터(C 1 )의 단위 방향벡터(t 1)로 계산된 참조 시점에 대한 에피폴라 평면()의 법선벡터이다. Referring to FIG. 6, and are three-dimensional vectors inverted with respect to the i- th corresponding point at the reference viewpoint and the reference viewpoint among the two images, and n i0 is the unit direction vector t 0 of the position vector C 1 of the and reference viewpoint. The normal vector of the epipolar plane () with respect to the reference time point calculated by n i 1 is The normal vector of the epipolar plane () with respect to the reference view point computed as the unit direction vector ( t 1 ) of the position vector ( C 1 ) of the first reference point.

여기서, 상기 카메라를 삼각대에 설치하여 영상을 취득하기 대문에 상기 카메라는 XZ평면만을 이동하며 Y축에 대해서는 회전만이 고려된다. 상기 대응점들에 대한 각도 오차 함수를 수학식 8과 같이 구할 수 있다.Here, since the camera is installed on a tripod to acquire an image, the camera moves only the XZ plane and only rotation about the Y axis is considered. The angle error function for the corresponding points can be obtained as shown in Equation 8.

Figure 112007062757211-pat00008
Figure 112007062757211-pat00008

여기서, m은 컨투어의 개수, Θ와 Φ는 각각 참조시점의 회전행렬(R1)과 t1의 y축에 대한 회전각이다..Here, m is the number of contours, Θ and Φ are the rotation angles of the rotation matrix R1 at the reference point and the y-axis of t1, respectively.

수학식 9와 같이 상기 각도 오차 함수값(Eangualr)이 최소일 때 Θ와 Φ를 수학식 10의 R1과 t1의 초기 회전각(Θinit, Φinit)으로 결정한다.As shown in Equation 9, when the angle error function value E angualr is minimum, θ and Φ are determined as initial rotation angles θ init and Φ init of R1 and t1 of Equation 10.

Figure 112007062757211-pat00009
Figure 112007062757211-pat00009

Figure 112007062757211-pat00010
Figure 112007062757211-pat00010

여기서, R1과 t1은 초기 회전 행렬(Rinit)이 I, 초기 이동벡터(tinit)가 (0,1,0), θmax가 π, [wx]는 회전축 w벡터의 스큐 대칭 행렬이며, e는 행렬의 지수 연산자, w의 단위 벡터는 (0,1,0), w의 크기인 ∥w∥는 y축을 기준으로 회전각이다. Here, R 1 and t 1 are the initial rotation matrix (R init ) is I, the initial motion vector (t init ) is (0,1,0), θ max is π, and [w x ] is skew symmetry of the rotation axis w vector Where e is the exponent operator of the matrix, the unit vector of w is (0, 1, 0), and the size of w ∥w∥ is the rotation angle about the y axis.

초기 회전 행렬(Rinit), 이동벡터(tinit), 최대 시야각(θmax)을 각각 I, (1,0,0), π로 설정하면 도 7과 같이 모든 영역에서 각도 오차를 계산하여 최소값을 가지는 위치에서의 각도(Θ,Φ)를 각각 R1과 t1의 회전각으로 초기 설정을 한다. 상기 검색 방법을 하기 표 1로 정리하였으며, 하기 표1 의 회전각 검색 의사(pseudo) 코드는 루프 n일 때 계산 횟수는 1+4n이고 검색영역은 매 단계마다 θmax/2n-1로 줄어든다.If the initial rotation matrix (R init ), the motion vector (t init ), and the maximum viewing angle (θ max ) are set to I, (1,0,0), and π, respectively, the angle error is calculated in all regions as shown in FIG. Initially set the angle (Θ, Φ) at the position with the rotation angle of R 1 and t 1 respectively. The search method is summarized in Table 1 below, and the rotation angle search pseudo code shown in Table 1 is 1 + 4n when the loop is n, and the search area is reduced to θ max / 2 n-1 at every step. .

n=1 Em=Eangular(0,0) Loop Search range R=θmax/2n-1 Ek=Eangular(±R, ±R) Em=min{Em,Ek} n=n+1 loop endn = 1 Em = E angular (0,0) Loop Search range R = θ max / 2 n-1 Ek = Eangular (± R, ± R) Em = min {Em, Ek} n = n + 1 loop end 초기 검색 위치에서 각도 오차 Em계산 검색범위 최외각 4곳의 각도 오차 Ek(k=1,2,3,4)계산 검색 위치 변경Calculate the angle error Em at the initial search position Calculate the angle error Ek (k = 1,2,3,4) of the 4 outermost positions

상술한 바와 같이 상기 전방향 카메라의 위치 정보 변수의 초기값, 즉 이동벡터와 회전 행렬이 구해지면 도 1의 상기 카메라의 위치를 결정하는 단계(S20)로 넘어간다.As described above, when the initial value of the position information variable of the omnidirectional camera, that is, the motion vector and the rotation matrix is obtained, the process proceeds to step S20 of determining the position of the camera of FIG. 1.

도 8은 도 1의 본 발명의 실시예에 따른 전방향 카메라의 위치 추정 방법 중 카메라의 위치를 결정하는 단계(S20)을 좀 더 자세히 나타낸 플로우 차트이다.FIG. 8 is a flowchart illustrating a step (S20) of determining the position of a camera in the method of estimating the position of the omnidirectional camera according to the embodiment of FIG. 1 in more detail.

도 8을 참조하면, 상기 카메라의 위치를 결정하는 단계(S20)은, 상기 카메라 변수 중 상기 제1참조시점의 이동단위벡터에 임의의 스케일을 곱하여 상기 제1참조시점의 상기 카메라의 위치(C1)를 설정하는 단계(S21), 상기 기준시점과 상기 제1참조시점의 영상에 대응되는 컨투어로부터 3차원의 직선 성분(pw)을 결정하는 단계(S22), 상기 3차원 직선 성분(pw)으로부터 상기 제2참조시점의 카메라 행렬(P2)을 계산하는 단계(S23) 및 상기 카메라 행렬(P2)로부터 계산된 사영된 컨투어(ci(t))와 상기 제2참조시점의 실제 컨투어(ci(s))사이의 거리 오차(D)가 최소일 때의 상기 제1 및 제2참조시점의 위치 및 회전 정보를 포함한 상기 카메라 위치 정보 변수를 구하여 상기 카메라의 위치를 결정하는 단계(S24)를 포함한다.Referring to FIG. 8, in the determining of the position of the camera (S20), the position C of the camera at the first reference time may be multiplied by a predetermined scale by a movement unit vector of the first reference time among the camera variables. 1 ) setting (S21), determining a three-dimensional linear component (p w ) from the contour corresponding to the image of the reference time point and the first reference view (S22), the three-dimensional linear component (p calculating a camera matrix P 2 of the second reference time point from w ) and the projected contour ci (t) calculated from the camera matrix P 2 and an actual value of the second reference time point. Determining the position of the camera by obtaining the camera position information variable including the position and rotation information of the first and second reference viewpoints when the distance error D between the contours ci (s) is minimum ( S24).

도 1 내지 도 7에서 설명한 상기 카메라의 회전과 이동에 대한 단위방향벡터로부터 더욱 정확한 회전과 위치 정보를 추정하는 2차 추정방법이 제안된다.A second estimation method for estimating more accurate rotation and position information from unit direction vectors for rotation and movement of the camera described with reference to FIGS. 1 to 7 is proposed.

도 9는 본 발명의 실시예에 따른 전방향 카메라의 위치 추정 방법 중 2차 추정방법을 이용한 상기 카메라의 위치를 결정하는 단계를 보이는 개념도이다.9 is a conceptual diagram illustrating a step of determining the position of the camera using the second estimation method of the position estimation method of the omni-directional camera according to the embodiment of the present invention.

도 9를 참조하면, 먼저 3차원 공간 상에 기준 시점과 제1 및 제2참조시점의 세 장의 영상이 나타난다. 초기 단계에서 추정된 이동단위벡터(t1)에 임의의 스케일(s1)을 곱해서 제1참조시점의 위치(C1)을 정하면 두 영상에서 대응되는 컨투어로 별로 3차원 직선 성분(L)을 구할 수 있다. 좀 더 자세히 설명하면, 제1참조시점의 위치(C1)이 설정되면, 두 평면(Π0, Π1)이 접하는 교선의 월드 좌표계 상의 방향벡터 p w (=p w1 -p w0 )가 결정되며 제2참조시점의 3X4 카메라 행렬(P2)에 의해 수학식 11과 같이 지역 좌표계로 변환하여 카메라 행렬(P2)를 표현한다.Referring to FIG. 9, three images of a reference view and first and second reference views appear first in a three-dimensional space. If the position C1 of the first reference point is determined by multiplying the movement unit vector (t 1 ) estimated in the initial stage by an arbitrary scale (s1), three-dimensional linear components (L) can be obtained for respective contours in the two images. have. In more detail, when the position C1 of the first reference point is set, the direction vector p w (= p w1 - p w0 ) on the world coordinate system of the intersection where the two planes Π 0 and Π 1 are in contact is determined. The camera matrix P 2 is expressed by converting the 3 × 4 camera matrix P 2 of the second reference point into a local coordinate system as shown in Equation 11 below.

Figure 112007062757211-pat00011
Figure 112007062757211-pat00011

제2참조시점에 대응되는 컨투어로부터 (Π2)의 법선벡터(n 2 )를 구할 수 있으며 수학식 11을 이용하여 수학식 12를 유도할 수 있다.The normal vector n 2 of (Π 2 ) can be obtained from the contour corresponding to the second reference time point, and equation (12) can be derived using equation (11).

Figure 112007062757211-pat00012
Figure 112007062757211-pat00012

수학식 12를 m개의 대응 컨투어에 대해 일반화하여 전개하면 수학식 13과 같으며 m이 12보다 크거나 같으면 식을 전개하여 SVD(singular value decomposition) 방법으로 제2참조시점에서의 카메라 행렬(P2)을 구할 수 있다.When deployed the equation (12) to generalize for the m corresponding contour camera matrix at the second reference point, the method was m is greater than or equal to deploy the expression than 12 to SVD (singular value decomposition) equal to Equation 13 (P 2 ) Can be obtained.

Figure 112007062757211-pat00013
Figure 112007062757211-pat00013

추정된 상기 제2참조시점의 상기 카메라 행렬(P2)로부터 사영된 컨투어의 궤적을 계산하고 실제 영상에 존재하는 컨투어를 수학식 7로부터 계산한다. 전방향 영상에 존재하는 실제 컨투어(ci(s))와 추정된 컨투어(ci(t))간의 거리 오차(D)는 수학식 14와 같이 나타낼 수 있다. 수학식 14에서 P는 회전각(Θ,Φ)에 의해 계산된 상기 제2참조시점에서의 카메라 행렬이며, i는 대응 컨투어의 인덱스로 총 m가 존재하며, t(s)는 단조 감소하지 않는 함수(monotonic non-decreasing function)로서 t(0)=0과 t(1)=1 값을 가진다.The trajectory of the projected contour is calculated from the estimated camera matrix P 2 at the second reference time point, and the contour present in the actual image is calculated from Equation 7. The distance error D between the actual contour ci (s) and the estimated contour ci (t) existing in the omnidirectional image may be expressed by Equation 14. In Equation 14, P is a camera matrix at the second reference point calculated by the rotation angles Θ and Φ, i is a total m as an index of the corresponding contour, and t (s) does not monotonically decrease. It is a monotonic non-decreasing function, with t (0) = 0 and t (1) = 1.

Figure 112007062757211-pat00014
Figure 112007062757211-pat00014

Figure 112007062757211-pat00015
Figure 112007062757211-pat00015

상기 제2참조시점의 실제 컨투어(ci(s))의 영상면에서의 2차원 좌표는, 상기 카메라의 중심으로 입사하는 광선이 상기 카메라의 반구 모델과 만나는 점의 벡 터(p sphere )가 상기 사영모델과 교차하는 벡터를 ci (s)라 할 때 삼각형 비례식을 이용하여 수학식 15를 이용하여 구할 수 있다. The two-dimensional coordinates in the image plane of the actual contour (ci (s)) of the second reference point is a vector ( p sphere ) of the point where the ray incident to the center of the camera meets the hemisphere model of the camera. When the vector intersecting the projective model is ci (s) , it can be obtained by using Equation 15 using a triangular proportional expression.

Figure 112007062757211-pat00016
Figure 112007062757211-pat00016

여기서, ci (s)가 영상면에 직교사영된 좌표 (xcurve, ycurve), p sphere 가 영상면에 직교사영된 좌표(x, y)이다. Here, ci (s) is the coordinates (x curve , y curve ) orthogonal to the image plane, and p sphere is the coordinates (x, y) orthogonal to the image plane.

계산된 거리 오차(D)는 추정된 전방향 카메라의 회전과 위치 정보의 정확도를 검증할 수 있는 척도로 사용된다. 초기 추정된 회전행렬(R1)과 이동단위벡터(t 1 )의 회전각인 (Θinitinit )을 중심으로 최종 검색 영역의 두 배 영역을 미리 정의한 샘플링 주리고 검색하여 거리 오차(D)가 가장 적을 때의 제1참조시점의 회전 및 위치 정보(Θ12 )와 제2참조시점의 카메라 행렬(P2)을 각각 최종 결과로 결정한다.The calculated distance error D is used as a measure to verify the accuracy of the estimated omnidirectional camera rotation and position information. Rotation angle (θ init , Φ init ) of initial estimated rotation matrix (R 1 ) and moving unit vector ( t 1 ) In the center, the double area of the final search area is pre-defined sampling and searched, and the rotation and position information (Θ 1 , Φ 2 ) of the first reference point when the distance error (D) is the smallest and the second reference point Each of the camera matrices P 2 is determined as the final result.

아래에서는 상술한 본 발명의 실시예에 따른 전방향 카메라의 위치 추정 방법을 실험을 통해 검증한 결과를 설명한다. Hereinafter, a result of verifying through a test the method of estimating the position of the omni-directional camera according to the embodiment of the present invention described above.

실제 영상을 대상으로 영상 내 컨투어의 양 끝점을 이용한 컨투어의 궤적 계산방법 및 추정된 카메라 모델의 정확도를 검증한다. 니콘 쿨픽스(Coolpix) 995 디지털 카메라에 시야각이 183°인 어안컨버터 FC-E8을 장착하여 사전에 준비된 교정 패턴을 1600×1200 해상도로 촬영하였다. 그리고 9개의 변수로 구성된 전방향 카메라 모델을 추정했으며, 교정 패턴은 검은 바탕에 반경 60mm의 흰 원들로 구성된 2×3m 2크기의 평판을 이용했다.  We verify the accuracy of the estimated camera model and the calculation of the contour trajectory using both end points of the contour in the image. A Nikon Coolpix 995 digital camera was fitted with a fisheye converter FC-E8 with a viewing angle of 183 ° to shoot a pre-prepared calibration pattern at 1600 × 1200 resolution. We estimated an omni-directional camera model consisting of nine variables, and the calibration pattern used a 2 × 3 m 2 flat plate composed of white circles with a radius of 60 mm on a black background.

도 10은 사영된 컨투어를 구성하는 양 끝점 좌표와 추정된 카메라 모델로 계산된 컨투어 궤적을 나타낸다. Fig. 10 shows the contour trajectories calculated with both end point coordinates and the estimated camera model constituting the projected contour.

도 10을 참조하면, 입력으로 사용된 상기 컨투어의 끝점은 붉은 원으로 표시하고, 제안된 방법에 의해 추정된 18개의 컨투어 궤적은 파란 컨투어로 나타낸다. 추정된 컨투어의 궤적이 실제 영상의 컨투어와 정확히 일치함을 확인할 수 있으며, 실제 컨투어와 계산된 결과가 서로 일치하는 정도를 정량적으로 표현하기 위해 각각 다른 장소에서 취득한 두 개의 대상 영상에 대한 사영모델에 따른 평균 컨투어 거리 오차를 표 2에 나타낸다.Referring to FIG. 10, the endpoint of the contour used as an input is represented by a red circle, and the 18 contour trajectories estimated by the proposed method are represented by a blue contour. It can be seen that the trajectory of the estimated contour exactly matches the contour of the real image, and the projection model of the two target images acquired from different places in order to quantitatively express the degree of agreement between the actual contour and the calculated result can be confirmed. The average contour distance error according to the above is shown in Table 2.

사영모델Projective Model AA BB CC 실험 1Experiment 1 4.204.20 0.100.10 0.050.05 실험 2Experiment 2 6.706.70 0.150.15 0.070.07

실험에 이용한 사영모델 중에서 A는 등거리 사영모델이며, B는 에피폴라 기하를 이용하는 전방향 모델 추정 방법, C는 본 발명의 상세한 설명에서 제시한 모델로서 9개의 변수를 사용한 방법이다. Among the projection models used in the experiment, A is an equidistant projection model, B is an omnidirectional model estimating method using epipolar geometry, and C is a method using nine variables as a model presented in the detailed description of the present invention.

표 2에서 보이는 바와 같이 제안된 컨투어 추정 방법인 C방법에 의해 추정된 카메라 모델을 적용하여 가장 정확한 결과가 얻어짐을 확인할 수 있다. 표 2의 실험에서 영상에 실제로 존재하는 컨투어의 궤적을 제안된 방법을 이용해 양 끝점의 좌표값으로부터 정확하게 계산할 수 있으며, 이는 다음 단계인 사영된 컨투어의 정합 실험에 입력으로 사용된다. As shown in Table 2, it can be confirmed that the most accurate result is obtained by applying the camera model estimated by the method C, which is the proposed contour estimation method. In the experiments of Table 2, the contours of the contours actually present in the image can be accurately calculated from the coordinate values of both endpoints using the proposed method, which is used as an input to the matching experiment of the projected contour.

제안된 알고리즘의 정확도를 검증하기 위해 POV-Ray 렌더링 소프트웨어를 이용해 전방향 카메라를 임의로 회전 및 이동시켜 얻어진 세 장의 전방향 영상(768×768)을 대상으로 실험한다. 도 11은 총 20 개의 대응 컨투어를 사용한 입력 영상을 기준시점과 제1 및 제2참조시점에 대해 나타내고 있으며, 실험 결과는 표 3으로 표시한다. In order to verify the accuracy of the proposed algorithm, we experiment with three omnidirectional images (768 × 768) obtained by randomly rotating and moving the omnidirectional camera using POV-Ray rendering software. FIG. 11 illustrates input images using a total of 20 corresponding contours with respect to a reference time point and first and second reference time points, and the experimental results are shown in Table 3. FIG.

오차 각도 함수의 최소화를 이용한 본 발명의 실시예에 따른 방법의 제1단계의 방법을 적용한 다음, 컨투어의 양 끝점과 추정된 R 1t 1의 회전각에 의해 계산된 에피폴라 곡선을 중첩하여 도 11 (c)에 나타낸다. 여기에서 컨투어의 양 끝점을 나타내는 붉은 점들이 에피폴라 곡선 상에 가깝게 존재함을 알 수 있으며, 총 루프 횟수는 9회이다. 1차 초기값 추정단계에서는 두 영상간의 회전과 이동에 대한 단위 방향벡터만을 추정하여 2차 추정단계의 초기값으로 설정된다. 초기에 추정된 R 1t 1을 초기값으로 하여 ±0.70°×2 영역을 100등분하여 세번째 영상간의 컨투어 정합을 최소화하는 카메라 행렬을 최종 파라미터로 결정한다. 영상에 실제 존재하는 컨투어와 최종 추정된 카메라 행렬에 의해 사영된 컨투어를 중첩하여 도 12 (c)에 보였으며, 여기에서 두 컨투어 간 거리 차이가 거의 없이 겹쳐있음을 확인할 수 있다. Applying the method of the first step of the method according to the embodiment of the present invention using the minimization of the error angle function, and then superimposing the epipolar curve calculated by the end points of the contour and the rotation angles of the estimated R 1 and t 1 It is shown in FIG. 11 (c). Here, it can be seen that the red dots representing both ends of the contour are close to the epipolar curve, and the total number of loops is 9 times. In the first initial value estimating step, only a unit direction vector for rotation and movement between two images is estimated and set as an initial value of the second estimating step. The final parameter is a camera matrix that minimizes the contour matching between the third images by dividing the area of ± 0.70 ° × 2 by 100 with initial values of R 1 and t 1 as initial values. The contour actually present in the image and the projected contour by the final estimated camera matrix are superimposed and shown in FIG. 12 (c), where it can be seen that there is almost no difference in distance between the two contours.

R1(˚)R 1 (˚) C1C1 R2(˚)R 2 (˚) 입력input -10.00-10.00 (60.00,0.00,0.00)(60.00,0.00,0.00) -15.00-15.00 1차 추정1st estimate -9.84-9.84 단위벡터(1.00,0,0.02)Unit vector (1.00,0,0.02) -- 2차 추정2nd estimate -10.13-10.13 (60.00,0.00,-0.06)(60.00,0.00, -0.06) -15.01-15.01 C2C2 검색 영역Search area 오차error 입력input (80.00,0.00,20.00)(80.00,0.00,20.00) -- -- 1차 추정1st estimate -- ±0.70˚± 0.70˚ 각도오차(E):0.01Angle error (E): 0.01 2차 추정2nd estimate (78.79,0.95,19.80)(78.79,0.95,19.80) ±0.01˚± 0.01˚ 거리오차(D,픽셀):0.78Distance error (D, pixel): 0.78

도 13에서는 본 발명의 실시예에 따른 방법을 실제 영상에 적용하기 위해 니콘 쿨픽스995 디지털 카메라에 어안컨버터FC-E8을 장착하여 취득한 3장의 전방향 영상(1600×1200)을 보인다. FIG. 13 shows three omnidirectional images (1600 × 1200) acquired by attaching a fisheye converter FC-E8 to a Nikon Coolpix 995 digital camera in order to apply the method according to an exemplary embodiment of the present invention.

도시된 바와 같이, 20개의 대응 컨투어를 사용하였으며 상기 카메라는 회전시키지 않고 달리(dolly) 트랙에 설치하여 Y축으로 이동시켰으며, 기준 시점으로부터의 제1 및 제2참조 시점의 거리 비는 1:2로 조절하였다. As shown, 20 corresponding contours were used and the camera was mounted on a dolly track without rotation and moved to the Y axis, and the distance ratio of the first and second reference viewpoints from the reference viewpoint was 1: 2 was adjusted.

도 14는 도 13의 영상에 대응점의 에피폴라 곡선을 중첩하여 나타낸 도면이다. 1차 초기값 추정단계에서 총 루프 횟수는 9회이다. 상기 컨투어의 양 끝점을 나타내는 붉은 점들이 에피폴라 곡선 상에 다소 벗어나 있지만 비교적 가깝게 존재함을 도면에서 확인할 수 있다. FIG. 14 is a diagram illustrating an epipolar curve of a corresponding point superimposed on the image of FIG. 13. In the first initial value estimation step, the total number of loops is nine. It can be seen from the figure that the red dots representing both ends of the contour are relatively close but slightly off the epipolar curve.

추정된 R 1t 1을 초기값으로 합성영상에 대한 실험과 마찬가지로 ±0.70°×2 영역을 100 등분하여 컨투어 정합하였으며, 영상에 실제 존재하는 컨투어와 최종 추정된 카메라 변수와 실제 영상에 사영된 컨투어를 표 4와 도 14에 각각 나타내었다.The contour matching was performed by dividing the area of ± 0.70 ° × 2 into 100 equal parts as in the experiment on the composite image with the estimated R 1 and t 1 as initial values. Contours are shown in Table 4 and FIG. 14, respectively.

R1(˚)R 1 (˚) R2(˚)R 2 (˚) C1:C2 거리비C 1 : C 2 Distance Ratio 검색 영역Search area 오차error 입력input 0.000.00 0.000.00 1:21: 2 -- -- 1차 추정1st estimate 1.401.40 -- -- ±0.70˚± 0.70˚ 각도오차(E)Angle error (E) 2차 추정2nd estimate 0.000.00 0.400.40 1:1.951: 1.95 ±0.01˚± 0.01˚ 거리오차(D,픽셀):0.91Distance error (D, pixel): 0.91

두 컨투어 간 거리 오차가 합성영상에 비해 상대적으로 많았으며, 이는 카메라의 수평 유지, 카메라의 정확한 달리 설정 등을 포함한 실제 영상 촬영과정 및 카메라의 사영모델 추정과정 등에서 발생한다. 하지만 실험결과로부터 최종적으로 1 픽셀 이하의 아주 작은 컨투어 정합 오차를 보였으며, 도 14 (c)에서 두 컨투어가 거의 겹쳐있음을 확인하였다. The distance error between the two contours was relatively higher than that of the synthesized image, which occurs during the actual image shooting process including the camera's horizontal maintenance, the camera's exact different setting, and the projection model estimation process. However, from the experimental results, a very small contour matching error of 1 pixel or less was finally obtained, and it was confirmed that the two contours were almost overlapped with each other in FIG.

즉 본 발명의 실시예에 따른 전방향 카메라의 위치 추정 방법으로부터 이동 및 회전된 카메라의 위치를 정확히 추정할 수 있음을 알 수 있다. That is, it can be seen that the position of the moved and rotated camera can be accurately estimated from the position estimation method of the omnidirectional camera according to the embodiment of the present invention.

상술한 본 발명의 전방향 카메라의 교정방법은 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한 컴퓨터 프로그램으로 실행될 수 있고, 이를 저장하는 컴퓨터 판독 가능 기록 매체로 구현할 수 있다.The above-described calibration method of the omnidirectional camera of the present invention can be executed by a computer program including a high-level language code that can be executed by a computer using an interpreter, as well as machine code made by a compiler, and a computer storing the same. It can be implemented by a readable recording medium.

상기 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of the recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic-optical such as floppy disks. Media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.

본 발명은 실제 카메라의 사영관계를 이용하기 때문에 3차원 구조의 복원과 가상물체의 3차원적 합성에 효과적으로 활용될 수 있어 이를 이용하는 컴퓨터 애니메이션, 영화의 시각효과를 포함한 첨단 디지털 콘텐츠 제작 및 관련 서비스 기술에 널리 이용될 수 있다.The present invention can be effectively used for the restoration of three-dimensional structure and three-dimensional synthesis of virtual objects, because it uses the projection relationship of real cameras. It can be widely used in.

상기한 설명에서 많은 사항이 구체적으로 기재되어 있으나, 그들은 발명의 범위를 한정하는 것이라기보다, 바람직한 실시예의 예시로서 해석되어야 한다. While many details are set forth in the foregoing description, they should be construed as illustrative of preferred embodiments, rather than to limit the scope of the invention.

예를 들어 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 기술적 사상에 의해 적합한 전방향 사영모델뿐만 아니라 인라이어 집합을 선택할 수 있는 더 강력한 알고리즘을 더 포함할 수 있을 것이다. 이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 상기 기재로부터 다양한 수정 및 변형이 가능하다는 점은 자명하다. 따라서, 본 발명 사상은 아래에 기재된 특허 청구 범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.For example, one of ordinary skill in the art to which the present invention pertains may further include a more powerful algorithm for selecting an inlier set as well as a suitable omnidirectional projection model according to the technical idea of the present invention. As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited to the above-described embodiments, which can be variously modified and modified by those skilled in the art to which the present invention pertains. It is obvious that modifications are possible. Accordingly, the spirit of the present invention should be understood only by the claims set forth below, and all equivalent or equivalent modifications thereof will belong to the scope of the present invention.

도 1은 본 발명의 실시예에 따른 전방향 카메라의 위치 추정방법을 설명한 플로우 차트,1 is a flowchart illustrating a method for estimating a position of a omnidirectional camera according to an embodiment of the present invention;

도 2는 도 1의 카메라의 위치 정보 변수 초기값을 구하는 단계(S10)을 좀더 자세히 설명한 플로우 차트,FIG. 2 is a flow chart illustrating in more detail a step S10 of obtaining an initial value of a position information variable of a camera of FIG. 1;

도 3은 본 발명의 실시예에 따른 전방향 카메라의 위치 추정방법에서 사용되는 전방향 카메라의 직교 사영모델을 보이는 도면,3 is a view showing an orthographic projection model of the omnidirectional camera used in the method of estimating the omnidirectional camera according to the embodiment of the present invention;

도 4는 본 발명의 실시예에 따른 전방향 카메라의 위치 추정방법에서 사영모델에 투영되는 컨투어를 보이는 개념도,4 is a conceptual view showing a contour projected on a projective model in the method of estimating the position of the omnidirectional camera according to the embodiment of the present invention;

도 5는 본 발명의 실시예에 따른 전방향 카메라의 위치 추정방법에서 2차원 영상면에 투영되는 컨투어의 궤적을 계산하는 방법을 나타내는 개념도,5 is a conceptual diagram illustrating a method of calculating a trajectory of a contour projected on a two-dimensional image plane in a method of estimating a position of an omnidirectional camera according to an embodiment of the present invention;

도 6은 본 발명의 실시예에 따른 전방향 카메라의 위치 추정방법에서 기준시점과 참조시점으로부터 i번째 대응점의 역사영된 벡터를 구하는 방법과 각 성분의 기하관계를 보이는 도면,6 is a view showing a geometrical relationship between each component and a method of obtaining a zeroed vector of an i-th corresponding point from a reference point and a reference point in a method of estimating a position of an omnidirectional camera according to an embodiment of the present invention;

도 7은 루프 n=3일 때 최소 각도 오차를 가지는 회전각을 검색하는 방법을 보이는 그래프,7 is a graph illustrating a method of searching for a rotation angle having a minimum angle error when loop n = 3;

도 8은 도 1의 카메라의 위치를 결정하는 단계(S20)를 좀더 자세히 설명하는플로우 차트,8 is a flow chart illustrating in more detail the step (S20) of determining the position of the camera of FIG.

도 9는 본 발명의 실시예에 따른 전방향 카메라의 위치 추정방법에서 카메라의 위치를 결정하기 위해 제2카메라 행렬을 구하기 위한 3장의 전방향 영상의 기하 관계를 보이는 도면,9 is a view showing a geometric relationship of three omnidirectional images for obtaining a second camera matrix to determine the position of the camera in the method of estimating the position of the omnidirectional camera according to an embodiment of the present invention;

도 10은 본 발명의 실시예에 따른 전방향 카메라의 위치 추정방법의 사영모델에 따라 계산된 컨투어를 보이는 도면,10 is a view showing a contour calculated according to a projection model of the method for estimating the position of the omnidirectional camera according to the embodiment of the present invention;

도 11은 등거리 사영모델에 있어 (a)기준시점의 전방향 입력영상, (b)제1참조시점의 전방향 입력영상, (c)제2참조시점의 전방향 입력영상을 보이는 도면,11 is a view showing (a) an omnidirectional input image of a reference point, (b) an omnidirectional input image of a first reference point, (c) an omnidirectional input image of a second reference point in an equidistant projection model;

도 12는 (a)제1참조시점의 컨투어의 양 끝점과 추정된 에피폴라 곡선, (b)제2참조시점의 컨투어의 양 끝점과 추정된 에피폴라 곡선, (c)는 실제 및 추정된 컨투어를 보이는 도면.12 shows (a) both endpoints of the contour of the first reference point and the estimated epipolar curve, (b) both endpoints of the contour of the second reference point and the estimated epipolar curve, and (c) the actual and estimated contours. Drawing.

도 13은 (a)기준 시점의 실제 전방향 입력 영상, (b)는 제1참조시점의 실제 전방향 입력 영상, (c)는 제2참조시점의 실제 전방향 입력 영상,13 is (a) an actual omnidirectional input image of a reference time point, (b) an actual omnidirectional input image of a first reference time point, (c) an actual omnidirectional input image of a second reference time point,

도 14는 (a)제1참조시점의 컨투어의 양 끝점과 추정된 에피폴라 곡선, (b)제2참조시점의 컨투어의 양 끝점과 추정된 에피폴라 곡선, (c)실제 및 추정된 컨투어를 보이는 도면.14 shows (a) both endpoints of the contour of the first reference point and the estimated epipolar curve, (b) both endpoints of the contour of the second reference point and the estimated epipolar curve, and (c) the actual and estimated contours. Visible drawings.

Claims (12)

전방향 카메라의 사영모델을 추정하여 상기 카메라의 영상면에 사영된 컨투어의 궤적을 계산하며, 두 영상의 복수의 컨투어 상의 점을 대응점으로 하고 상기 대응점에 대한 각도 오차 함수를 계산하여 상기 카메라의 위치 정보 변수의 초기값을 구하는 제1단계; 및Estimating the projection model of the omni-directional camera to calculate the trajectory of the contour projected on the image plane of the camera, using the points on the plurality of contours of the two images as the corresponding points, and calculating the angle error function for the corresponding points A first step of obtaining an initial value of the information variable; And 상기 초기값을 이용하여 기준시점에 대한 제1참조시점의 카메라의 위치를 설정함으로써 3차원 직선을 형성하고, 상기 직선을 제2참조시점에 사영시킨 컨투어와 상기 카메라의 영상면에 사영된 컨투어와의 거리오차를 최소화하는 상기 카메라의 위치 정보 변수로부터 상기 카메라의 위치를 결정하는 제2단계;By forming the three-dimensional straight line by setting the position of the camera of the first reference point with respect to the reference point using the initial value, the contour projected to the second reference point and the contour projected on the image plane of the camera and Determining a location of the camera from a location information variable of the camera to minimize a distance error of the camera; 를 포함하는 것을 특징으로 하는 전방향 카메라의 위치 추정 방법.Position estimation method of the omni-directional camera, characterized in that it comprises a. 제1항에 있어서, 상기 제1단계는,The method of claim 1, wherein the first step, 상기 전방향 카메라의 사영모델을 추정하는 단계;Estimating the projection model of the omnidirectional camera; 3차원 직선이 상기 카메라의 반구 모델에 맵핑된 다음 상기 카메라의 2차원 영상면에 직교 사영된 컨투어의 궤적을 계산하는 단계;Calculating a trajectory of a contour projected orthogonally to a two-dimensional image plane of the camera after a three-dimensional straight line is mapped to the hemisphere model of the camera; 상기 두 영상의 복수의 상기 컨투어 상의 점을 대응점으로 하고 두 영상 시점에서 임의의 대응점에 대해 역사영한 3차원 벡터와 상기 영상의 시점과 상기 벡터에 의해 형성되는 에피폴라 평면의 법선 벡터를 이용한 각도 오차 함수를 계산하는 단계; 및Angle error using a three-dimensional vector in which two points on the contour of the two images are corresponding points and inverted for any corresponding point at two image points, and a normal vector of the epipolar plane formed by the vector and the view point of the image. Calculating a function; And 상기 각도 오차 함수값을 최소로 하는 상기 카메라의 위치 정보 변수의 초기값을 계산하는 단계;Calculating an initial value of a positional information variable of the camera that minimizes the angle error function value; 를 포함하는 것을 특징으로 하는 전방향 카메라의 위치 추정 방법.Position estimation method of the omni-directional camera, characterized in that it comprises a. 제2항에 있어서,The method of claim 2, 상기 카메라의 사영모델은 방사상 대칭 사영 모델인 것을 특징으로 하는 전방향 카메라의 위치 추정 방법.The projection model of the camera is a method of estimating the position of the omni-directional camera, characterized in that the radially symmetrical projection model. 제3항에 있어서,The method of claim 3, 상기 카메라의 사영모델은 다음 수학식 16으로 나타나는 사영 모델인 것을 특징으로 하는 전방향 카메라의 위치 추정 방법.The projection model of the camera is a projection method of the omni-directional camera, characterized in that the projection model represented by the following equation (16).
Figure 112008051670809-pat00017
Figure 112008051670809-pat00017
여기서, r은 영상의 중심점으로부터의 거리, θ는 카메라의 중심축과 입사광 사이의 각도Where r is the distance from the center of the image and θ is the angle between the camera's central axis and the incident light
제2항에 있어서, The method of claim 2, 상기 영상면에 사영된 상기 컨투어의 궤적의 2차원 좌표는, 상기 카메라의 중심으로 입사하는 광선이 반구 모델과 만나는 점의 벡터(psphere )가 상기 사영모델과 교차하는 벡터(pcurve )라 할 때 삼각형 비례식을 이용한 다음 수학식 17을 만족하는 것을 특징으로 하는 전방향 카메라의 위치 추정 방법.The two-dimensional coordinates of the trajectory of the contour projected on the image plane may be a vector ( p curve ) where a vector ( p sphere ) of a point where a ray incident to the center of the camera meets a hemisphere model and intersects the projected model. And satisfying Equation 17 using a triangular proportional expression.
Figure 112008051670809-pat00018
Figure 112008051670809-pat00018
여기서, pcurve 가 영상면에 직교사영된 2차원 좌표는 (xcurve, ycurve), psphere 가 영상면에 직교사영된 좌표는 (x, y)Here, the two-dimensional coordinates of p curve orthogonal to the image plane are (x curve , y curve ), and the coordinates of p sphere orthogonal to the image plane are (x, y)
제2항에 있어서,The method of claim 2, 상기 카메라가 xz평면 상에서 이동하고 y축에 대해서는 회전할 때 상기 각도 오차 함수(Eangualr)는 다음 수학식 18을 만족하는 것을 특징으로 하는 전방향 카메라의 위치 추정 방법.And the angle error function (E angualr ) satisfies Equation 18 when the camera moves on the xz plane and rotates about the y-axis.
Figure 112008051670809-pat00019
Figure 112008051670809-pat00019
여기서, 과
Figure 112008051670809-pat00020
는 두 영상 중 기준 시점과 참조 시점에서 i번째 대응점에 대해 역사영된 3차원 벡터, n i0 는 과 기준 시점의 위치벡터(C 1)의 단위방향벡터(t 0)로 계산된 기준 시점에 대한 에피폴라 평면 ()의 법선벡터, n i 1 와 제1참조시점의 위치벡터(C 1)의 단위 방향벡터(t 1)로 계산된 참조 시점에 대한 에피폴라 평면()의 법선벡터, m은 컨투어의 개수, Θ와 Φ는 각각 참조시점의 회전행렬(R1)과 t1 의 y축에 대한 회전각.
Where
Figure 112008051670809-pat00020
Is a three-dimensional vector inverted for the i- th correspondence point from the reference and reference viewpoints, and n i0 is the reference viewpoint computed as the unit direction vector ( t 0 ) of the position vector ( C 1 ) of and the reference viewpoint. Normal of epipolar plane (), n i 1 is And the normal vector of the epipolar plane () with respect to the reference point computed as the unit direction vector ( t 1 ) of the position vector ( C 1) of the first reference point, m is the number of contours, Θ and Φ are respectively Rotation angle about the y-axis of the rotation matrix (R1) and t 1 .
제6항에 있어서,The method of claim 6, 상기 각도 오차 함수값(Eangualr)이 최소일 때 Θ와 Φ를 다음 수학식 19를 만족하는R1과 t1의 초기 회전각(Θinit, Φinit)으로 결정하는 것을 특징으로 하는 전방향 카메라의 위치 추정 방법.When the angle error function value (E angualr ) is the minimum position θ and Φ as the initial rotation angle (Θ init , Φ init ) of R1 and t1 satisfying the following equation (19) Estimation method.
Figure 112008051670809-pat00021
Figure 112008051670809-pat00021
여기서, R1과 t1은 초기 회전 행렬(Rinit)이 I, 초기 이동벡터(tinit )가 (0,1,0), θmax가 π, [wx]는 회전축 w벡터의 스큐 대칭 행렬이며, e는 행렬의 지수 연산자, w의 단위 벡터는 (0,1,0), w의 크기인 ∥w∥는 Y축을 기준으로 회전각Here, R 1 and t 1 are the initial rotation matrix (R init ) is I, the initial motion vector ( t init ) is (0,1,0), θ max is π, and [w x ] is skew symmetry of the rotation axis w vector Where e is the exponential operator of the matrix, the unit vector of w is (0,1,0), and the size of w ∥w∥ is the rotation angle about the Y axis.
제7항에 있어서,The method of claim 7, wherein 상기 각도 오차 함수값(Eangualr)는 루프(n)일 때 계산 회수가 1+4n이며 검색 영역(R)은 다음 수학식 20을 만족하는 것을 특징으로 하는 전방향 카메라의 위치 추정 방법.The angle error function value (E angualr ) is the number of calculations when the loop (n) is 1 + 4n and the search region (R) satisfy the following equation (20).
Figure 112008051670809-pat00022
Figure 112008051670809-pat00022
제1항에 있어서,The method of claim 1, 상기 각도 오차 함수를 최소화하는 상기 카메라 위치 정보 변수는 이동 벡터와 회전 행렬을 포함하는 것을 특징으로 하는 전방향 카메라의 위치 추정 방법.And the camera position information variable for minimizing the angle error function comprises a motion vector and a rotation matrix. 제1항에 있어서, 상기 제2단계는The method of claim 1, wherein the second step 상기 카메라 변수 중 상기 제1참조시점의 이동단위벡터에 임의의 스케일을 곱하여 상기 제1참조시점의 상기 카메라의 위치(C1)를 설정하는 단계;Setting a position C 1 of the camera at the first reference time by multiplying a movement unit vector of the first reference time among the camera variables by an arbitrary scale; 상기 기준시점과 상기 제1참조시점의 영상에 대응되는 컨투어로부터 3차원의직선 성분(pw )을 결정하는 단계;Determining a three-dimensional linear component ( p w ) from a contour corresponding to the image of the reference time point and the first reference time point; 상기 3차원 직선 성분(pw )으로부터 다음 수학식 21을 이용하여 구해진 상기 제2참조시점의 카메라 행렬(P2)을 계산하는 단계; 및Calculating a camera matrix P 2 of the second reference time point obtained from Equation 21 from the three-dimensional linear component p w ; And
Figure 112008051670809-pat00023
Figure 112008051670809-pat00023
Figure 112008051670809-pat00024
Figure 112008051670809-pat00024
상기 카메라 행렬(P2)로부터 계산된 사영된 컨투어(ci(t))와 상기 제2참조시점의 실제 컨투어(ci(s))사이의 거리 오차(D)가 최소일 때의 다음 수학식 22를 이용하여 상기 제1 및 제2참조시점의 위치 및 회전 정보를 포함한 상기 카메라 위치 정보 변수를 구하여 상기 카메라의 위치를 결정하는 단계;Equation 22 when the distance error D between the projected contour ci (t) calculated from the camera matrix P 2 and the actual contour ci (s) of the second reference point is minimum Determining the position of the camera by obtaining the camera position information variable including the position and rotation information of the first and second reference viewpoints using;
Figure 112008051670809-pat00025
Figure 112008051670809-pat00025
Figure 112008051670809-pat00026
Figure 112008051670809-pat00026
를 포함하는 것을 특징으로 하는 전방향 카메라의 위치 추정 방법.Position estimation method of the omni-directional camera, characterized in that it comprises a.
제10항에 있어서, The method of claim 10, 상기 제2참조시점의 실제 컨투어(ci(s))의 영상면에서의 2차원 좌표는, 상기 카메라의 중심으로 입사하는 광선이 상기 카메라의 반구 모델과 만나는 점의 벡터(psphere )가 상기 사영모델과 교차하는 벡터를 ci(s)라 할 때 삼각형 비례식을 이용한 다음 수학식 23을 만족하는 것을 특징으로 하는 전방향 카메라의 위치 추정 방법.The two-dimensional coordinates in the image plane of the actual contour (ci (s)) of the second reference point may be a vector of a point ( p sphere ) at which the ray incident to the center of the camera meets the hemisphere model of the camera. The method of estimating the position of the omni-directional camera, characterized by satisfying the following equation (23) using a triangular proportional expression when the vector intersecting the model is ci (s) .
Figure 112008051670809-pat00027
Figure 112008051670809-pat00027
여기서, , ci(s)가 영상면에 직교사영된 좌표 (xcurve, ycurve), psphere 가 영상면에 직교사영된 좌표(x, y)Where, ci (s) is orthogonal to the image plane (x curve , y curve ), and p sphere is orthogonal to the image plane (x, y)
제1항 내지 제12항의 항 중 어느 한 항의 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the method of any one of claims 1 to 12.
KR1020070086763A 2007-08-28 2007-08-28 Method for estimation of omnidirectional camera motion KR100867731B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070086763A KR100867731B1 (en) 2007-08-28 2007-08-28 Method for estimation of omnidirectional camera motion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070086763A KR100867731B1 (en) 2007-08-28 2007-08-28 Method for estimation of omnidirectional camera motion

Publications (1)

Publication Number Publication Date
KR100867731B1 true KR100867731B1 (en) 2008-11-10

Family

ID=40283891

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070086763A KR100867731B1 (en) 2007-08-28 2007-08-28 Method for estimation of omnidirectional camera motion

Country Status (1)

Country Link
KR (1) KR100867731B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9118846B2 (en) 2012-03-30 2015-08-25 Samsung Electronics Co., Ltd. Apparatus for generating an image with defocused background and method thereof
CN116433476A (en) * 2023-06-09 2023-07-14 有方(合肥)医疗科技有限公司 CT image processing method and device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008005006A (en) * 2006-06-20 2008-01-10 Toshiba Corp Information processing apparatus and moving picture reproducing method
JP2008004012A (en) * 2006-06-26 2008-01-10 Canon Inc Computer device with method of automatically stopping device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008005006A (en) * 2006-06-20 2008-01-10 Toshiba Corp Information processing apparatus and moving picture reproducing method
JP2008004012A (en) * 2006-06-26 2008-01-10 Canon Inc Computer device with method of automatically stopping device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9118846B2 (en) 2012-03-30 2015-08-25 Samsung Electronics Co., Ltd. Apparatus for generating an image with defocused background and method thereof
CN116433476A (en) * 2023-06-09 2023-07-14 有方(合肥)医疗科技有限公司 CT image processing method and device
CN116433476B (en) * 2023-06-09 2023-09-08 有方(合肥)医疗科技有限公司 CT image processing method and device

Similar Documents

Publication Publication Date Title
JP7291244B2 (en) Projector Keystone Correction Method, Apparatus, System and Readable Storage Medium
WO2018076154A1 (en) Spatial positioning calibration of fisheye camera-based panoramic video generating method
JP6201476B2 (en) Free viewpoint image capturing apparatus and method
US9883163B2 (en) Method and system for determining camera parameters from a long range gradient based on alignment differences in non-point image landmarks
US8447099B2 (en) Forming 3D models using two images
WO2019049421A1 (en) Calibration device, calibration system, and calibration method
US20200334842A1 (en) Methods, devices and computer program products for global bundle adjustment of 3d images
US11568516B2 (en) Depth-based image stitching for handling parallax
US20100054579A1 (en) Three-dimensional surface generation method
US20120177284A1 (en) Forming 3d models using multiple images
US20090153669A1 (en) Method and system for calibrating camera with rectification homography of imaged parallelogram
JP2016075637A (en) Information processing apparatus and method for the same
WO2018235163A1 (en) Calibration device, calibration chart, chart pattern generation device, and calibration method
JP2007192832A (en) Calibrating method of fish eye camera
US10783607B2 (en) Method of acquiring optimized spherical image using multiple cameras
CN112215880B (en) Image depth estimation method and device, electronic equipment and storage medium
JP2012185772A (en) Method and program for enhancing accuracy of composited picture quality of free viewpoint picture using non-fixed zoom camera
CN108898550B (en) Image splicing method based on space triangular patch fitting
KR100867731B1 (en) Method for estimation of omnidirectional camera motion
JP2009186287A (en) Plane parameter estimating device, plane parameter estimating method, and plane parameter estimating program
CN116363226A (en) Real-time multi-camera multi-projector 3D imaging processing method and device
Orghidan et al. Projector-camera calibration for 3D reconstruction using vanishing points
Alouache et al. An adapted block-matching method for optical flow estimation in catadioptric images
KR102107465B1 (en) System and method for generating epipolar images by using direction cosine
JP2006145419A (en) Image processing method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121011

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20131031

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20151028

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee