KR101483549B1 - Method for Camera Location Estimation with Particle Generation and Filtering and Moving System using the same - Google Patents

Method for Camera Location Estimation with Particle Generation and Filtering and Moving System using the same Download PDF

Info

Publication number
KR101483549B1
KR101483549B1 KR20130148932A KR20130148932A KR101483549B1 KR 101483549 B1 KR101483549 B1 KR 101483549B1 KR 20130148932 A KR20130148932 A KR 20130148932A KR 20130148932 A KR20130148932 A KR 20130148932A KR 101483549 B1 KR101483549 B1 KR 101483549B1
Authority
KR
South Korea
Prior art keywords
camera
estimating
reliability
position estimation
image
Prior art date
Application number
KR20130148932A
Other languages
Korean (ko)
Inventor
김정호
최병호
황영배
배주한
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR20130148932A priority Critical patent/KR101483549B1/en
Priority to PCT/KR2013/012102 priority patent/WO2015083875A1/en
Application granted granted Critical
Publication of KR101483549B1 publication Critical patent/KR101483549B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

Provided are a method of estimating a camera position through particle generation and selection, and a moving system. The method of estimating a camera position according to an embodiment of the present invention estimates a position by adaptively using a global localization scheme and a consecutive localization scheme based on reliability. Accordingly, the accuracy of a current position can be guaranteed without significantly reducing an estimation speed, and when the reliability of the consecutive localization drops, the global localization is performed again, so an error accumulation problem generated from the consecutive localization can be solved.

Description

입자 생성 및 선별을 통한 카메라 위치 추정 방법 및 이동 시스템{Method for Camera Location Estimation with Particle Generation and Filtering and Moving System using the same}TECHNICAL FIELD The present invention relates to a camera position estimation method and a mobile system using particle generation and sorting,

본 발명은 카메라 위치 추정에 관한 것으로, 더욱 상세하게는 카메라 또는 카메라가 장착된 로봇이나 차량 등 이동 시스템의 위치를 계산하기 위한 방법에 관한 것이다.
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to camera position estimation and, more particularly, to a method for calculating a position of a mobile system, such as a camera or a robot equipped with a camera or a vehicle.

카메라 위치 추정을 위한 확률적 필터링 기법은 모션 모델로부터 현재 카메라 자세를 예측하고, 데이터로부터 예측된 위치를 새롭게 갱신하는 입자 필터(Particle Filter)에 기반한 기법이 대표적이다.The probabilistic filtering technique for camera position estimation is based on a particle filter that predicts the current camera position from the motion model and newly updates the predicted position from the data.

입자 필터의 경우, 입자들을 생성하는 방식이 카메라 위치 추정의 성능을 좌우하는데, 입자 수를 많게 하면 정확성은 향상되는 반면 처리 속도가 느려지기 때문에, 하나의 입자만을 선별하고 있다.In the case of the particle filter, the method of generating particles determines the performance of the camera position estimation. However, since only a single particle is selected because the number of particles increases, the accuracy improves while the processing speed decreases.

이 같은 방식의 입자 필터에 의해, 처리 속도가 증가하는 하였지만, 하나의 입자만 선별하기 때문에, 오차가 누적되면 그 정확도가 매우 떨어지게 되는 문제가 있다.
Although the processing speed is increased by the particle filter of this type, since only one particle is selected, there is a problem that the accuracy becomes very low when the errors are accumulated.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 처리 속도의 심각하게 감소시키지 않으면서도 현재 위치의 정확도를 보장할 수 있는 입자 생성과 선별을 통한 카메라 위치 추정 방법 및 이를 적용한 이동 시스템을 제공함에 있다.
SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and apparatus for estimating a camera position through particle generation and selection that can guarantee the accuracy of a current position without seriously reducing the processing speed, And a mobile system to which the present invention is applied.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 카메라 위치 추정 방법은, 전역 위치 추정 기법으로 카메라의 위치를 추정하는 제1 추정단계; 상기 제1 추정단계에서 추정된 위치로부터, 순차적 위치 추정 기법으로 카메라의 위치를 추정하는 제2 추정단계; 상기 제2 추정단계에서 추정된 위치에 대한 신뢰도를 산출하는 단계; 및 상기 산출단계에서 신뢰도가 기준 이상이면, 상기 제2 추정단계부터 재수행하는 단계;를 포함한다.According to an aspect of the present invention, there is provided a camera position estimation method including: a first estimation step of estimating a position of a camera using a global position estimation technique; A second estimating step of estimating a position of the camera from a position estimated in the first estimating step using a sequential position estimating technique; Calculating reliability for a position estimated in the second estimating step; And a step of re-executing from the second estimating step if the reliability in the calculating step is equal to or greater than a reference value.

그리고, 본 발명의 일 실시예에 따른 카메라 위치 추정 방법은, 상기 산출단계에서 신뢰도가 기준 미만이면, 상기 제1 추정단계부터 재수행하는 단계;를 더 포함할 수 있다.The camera position estimating method according to an embodiment of the present invention may further include a step of re-executing the first estimation step if the reliability in the calculating step is less than a reference value.

또한, 상기 제1 추정단계는, 이전 영상과 현재 영상 간에 특징점 매칭으로 찾은 대응점들을 이용하여, 상기 카메라의 위치를 추정할 수 있다.The first estimating step may estimate the position of the camera using corresponding points found by matching the feature point between the previous image and the current image.

그리고, 상기 제2 추정단계는, 상기 카메라의 움직임 입자들을 생성하는 단계; 및 상기 움직임 입자들 중 정해진 개수의 움직임 입자들을 선별하는 단계;를 포함할 수 있다.The second estimating step may include: generating motion particles of the camera; And selecting a predetermined number of motion particles among the motion particles.

또한, 상기 선별단계는, 상기 움직임 입자들의 가중치들을 계산하는 단계; 및 상기 가중치들을 참조하여, 정해진 개수의 움직임 입자들을 선별하는 단계;를 포함할 수 있다.The selecting may further include: calculating weights of the motion particles; And selecting a predetermined number of motion particles with reference to the weights.

그리고, 상기 가중치는, 현재 영상에서의 관측치 및 대응되는 이전 영상에서의 관측치 간 차의 절대값이 기준 미만인 개수일 수 있다.The weight may be a number whose absolute value of the difference between the observed value in the current image and the observed value in the corresponding previous image is less than the reference value.

또한, 상기 산출단계는, 상기 가중치들의 합을 상기 신뢰도로 산출할 수 있다.Further, the calculating step may calculate the sum of the weights by the reliability.

한편, 본 발명의 다른 실시예에 따른, 이동 시스템은, 촬영을 통해 영상을 생성하는 카메라; 및 상기 영상을 이용하여, 전역 위치 추정 기법으로 상기 카메라의 위치를 추정하고, 추정된 위치로부터 순차적 위치 추정 기법으로 상기 카메라의 위치를 추정하며, 추정된 위치에 대한 신뢰도가 기준 이상이면 상기 순차적 위치 추정 기법으로 상기 카메라의 위치를 다시 추정하는 프로세서;를 포함한다.
According to another aspect of the present invention, there is provided a mobile system including: a camera for generating an image through photography; And estimating a position of the camera using a global position estimation technique using the image, estimating a position of the camera using a sequential position estimation technique from the estimated position, and if the reliability of the estimated position is greater than a reference, And a processor for re-estimating the position of the camera with an estimation technique.

이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 신뢰도를 기반으로 전역 위치 추정 기법과 순차적 위치 추정 기법을 적응적으로 이용하여 위치 추정 속도를 심각하게 감소시키지 않으면서도 현재 위치의 정확도를 보장할 수 있게 된다.As described above, according to the embodiments of the present invention, the global position estimation technique and the sequential position estimation technique are adaptively used based on the reliability to guarantee the accuracy of the current position without seriously reducing the position estimation speed .

특히, 순차적 위치 추정의 신뢰도가 떨어지는 경우, 전역 위치 추정을 재수행하므로, 순차적 위치 추정 과정에서 발생할 수 있는 오차 누적 문제를 해결할 수 있게 된다.In particular, when the reliability of the sequential position estimation is low, the global position estimation is performed again, so that the error accumulation problem that may occur in the sequential position estimation process can be solved.

아울러, 급격한 움직임 변화 또는 가려짐이 발생한 경우에도, 신뢰도를 바탕으로 정확한 위치 추정이 가능해진다.
In addition, even when a sudden change in motion or occlusion occurs, accurate position estimation can be performed based on reliability.

도 1은 본 발명의 일 실시예에 따른 카메라 위치 추정 방법의 설명에 제공되는 흐름도,
도 2는 RANSAC 알고리즘에 의한 카메라 움직임 입자 생성 결과를 예시한 도면,
도 3은, 도 1에 도시된 방법에 따른 카메라 위치 추정 결과가 예시된 도면, 그리고,
도 4는 본 발명의 다른 실시예에 따른 로봇 시스템의 블럭도이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a flow chart for explaining a camera position estimation method according to an embodiment of the present invention;
2 is a diagram illustrating a result of camera motion particle generation by the RANSAC algorithm,
FIG. 3 is a diagram illustrating a result of camera position estimation according to the method shown in FIG. 1,
4 is a block diagram of a robot system according to another embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 카메라 위치 추정 방법의 설명에 제공되는 흐름도이다. 본 실시예에 따른 카메라 위치 추정 방법은, 영상으로부터 카메라의 위치를 추정함에 있어 오차가 누적되는 것을 방지하기 위해, 전역 위치 추정 기법과 순차적 위치 추적 기법을 선택적으로 수행한다.FIG. 1 is a flowchart illustrating a camera position estimation method according to an embodiment of the present invention. The camera position estimation method according to the present embodiment selectively performs a global position estimation technique and a sequential position tracking technique in order to prevent accumulation of errors in estimating a camera position from an image.

본 실시예에 따른 카메라 위치 추정 방법에 의해, 카메라 위치 추정의 정확도가 향상되는데, 이하에서 상세히 설명한다.The camera position estimation method according to the present embodiment improves the accuracy of camera position estimation, which will be described in detail below.

도 1에 도시된 바와 같이, 먼저 전역 위치 추정 기법으로 카메라의 위치를 추정한다(S110). S110단계에서의 전역 위치 추정 기법은, 이전 영상과 현재 영상 간에 특징점 매칭으로 찾은 대응점들을 이용하여 카메라의 움직임을 추정하는 기법이다.As shown in FIG. 1, first, a position of a camera is estimated using a global position estimation technique (S110). The global position estimation technique in step S110 is a technique for estimating the camera motion using corresponding points found by matching the feature point between the previous image and the current image.

S110단계에서의 전역 위치 추정 기법은, 특징점 매칭 이외에도 컬러 매칭 기반의 등 다른 종류의 전역 위치 추정 기법을 활용할 수 있다.The global position estimation technique in step S110 may utilize other types of global position estimation techniques such as color matching based other than feature point matching.

이후, S110단계에서 추정된 위치로부터, 영상 기반의 순차적 위치 추정 기법으로 카메라의 위치를 추정한다(S120 내지 S140).Thereafter, the position of the camera is estimated using the image-based sequential position estimation technique from the position estimated in step S110 (S120 to S140).

순차적 위치 추정을 위해, 먼저 추정 위치로부터 카메라 움직임 입자들을 생성한다(S120). 카메라 움직임 입자에는 카메라 회전량(Rotation)과 이동량(Translation)이 포함된다.For sequential position estimation, camera motion particles are first generated from the estimated position (S120). Camera motion particles include camera rotation (Rotation) and translation (Translation).

S120단계에서의 카메라 움직임 입자 생성은, RANSAC(RANdom SAmple Consensus) 알고리즘에 의한 샘플 획득 방식을 적용하여 수행가능하다.The camera motion particle generation in step S120 can be performed by applying a sample acquisition method using the RANSAC algorithm (Random Absence Consensus).

도 2의 좌측에는 이전 영상과 현재 영상을 예시하였고, 도 2의 중앙에는 카메라의 3차원 이동에 의한 입자들의 분포를 예시하였으며, 도 2의 우측에는 카메라의 3차원 회전에 의한 입자들의 분포를 예시하였다.2, the distribution of particles by the three-dimensional movement of the camera is illustrated at the center of FIG. 2, and the distribution of particles by the three-dimensional rotation of the camera is illustrated at the right of FIG. Respectively.

다음, S120단계에서 생성된 카메라 움직임 입자들에 대해 가중치를 계산한다(S130). 카메라 움직임 입자에 대한 가중치는, 다음의 수학식 1을 통해 계산가능하다.Next, a weight is calculated for the camera motion particles generated in step S120 (S130). The weight for the camera motion particle can be calculated by the following equation (1).

Figure 112013110460303-pat00001
Figure 112013110460303-pat00001

여기서

Figure 112013110460303-pat00002
는 현재 영상에서의 관측치, ml
Figure 112013110460303-pat00003
에 해당하는 이전 영상에서의 3차원 좌표,
Figure 112013110460303-pat00004
는 i번째 카메라 움직임 입자, σl은 영상에서의 모호성 정도를 나타낸다.here
Figure 112013110460303-pat00002
Is the observed value in the current image, and m l
Figure 112013110460303-pat00003
Dimensional coordinates in the previous image corresponding to the three-
Figure 112013110460303-pat00004
Is the i-th camera motion particle, and σ l is the degree of ambiguity in the image.

수학식 1을 통해, 가중치는 현재 영상에서의 관측치와 그에 대응되는 이전 영상에서의 관측치 간 차의 절대값이 기준 미만인 개수로 볼 수 있다.Through Equation (1), the weight can be viewed as a number whose absolute value of the difference between the observation value in the current image and the observation value in the previous previous image is less than the reference value.

S130단계에서 모든 카메라 움직임 입자들에 대해 가중치가 계산되면, 계산된 가중치를 기초로 S120단계에서 생성된 카메라 움직임 입자들 중 일부만을 선별한다(S140).In step S140, when all of the camera motion particles are weighted, only some of the camera motion particles generated in step S120 are selected on the basis of the calculated weight values in step S140.

즉, S140단계는, 본 실시예에 따른 카메라 위치 추정 방법에서 입자 필터로서 기능 하는 것으로 볼 수 있다. 유의할 점은 S140단계에서 선별되는 카메라 움직임 입자들의 개수는 1개가 아닌 복수이며, N개로 고정되어 있다는 점이다.That is, the step S140 may be regarded as functioning as a particle filter in the camera position estimation method according to the present embodiment. It should be noted that the number of camera motion particles selected in step S140 is not one but plural, and N is fixed.

다음, S140단계에서 선별된 N개의 카메라 움직임 입자들에 대한 신뢰도를 산출한다(S150). S150단계에서의 신뢰도(C)는, 아래의 수학식 2에 나타난 바와 같이, 선별된 N개의 카메라 움직임 입자들의 합으로 산출된다.Next, the reliability of the N camera motion particles selected in step S140 is calculated (S150). The reliability C in step S150 is calculated as the sum of the N camera motion particles selected as shown in the following equation (2).

Figure 112013110460303-pat00005
Figure 112013110460303-pat00005

이는, 주변 가능성(Marginal Likelihood)을 이용한 입자 필터에 대한 신뢰도를 평가하는 것으로 볼 수 있다.This can be seen as evaluating the reliability of the particle filter using marginal likelihood.

S150단계에서 산출된 신뢰도(C)가 임계치(Th) 이상인 경우(S160-Y), 현재 영상의 다음 영상에 대해, 순차적 위치 추정을 계속한다(S120 내지 S140).If the reliability C calculated in step S150 is equal to or greater than the threshold value Th (S160-Y), sequential position estimation is continued for the next image of the current image (S120 to S140).

S150단계에서 산출된 신뢰도(C)가 임계치(Th) 이상인 경우는, 신뢰도가 높은 경우이기 때문이다. 임계치(Th)는 원하는 값으로 설정가능함은 물론, 필요와 상황에 따라 적응적으로 변경되도록 설정하는 것도 가능하다.If the reliability C calculated in step S150 is equal to or greater than the threshold value Th, the reliability is high. The threshold value Th can be set to a desired value, and it is also possible to set the threshold value Th to adaptively change according to needs and circumstances.

순차적 위치 추정이 계속되어, S130단계에서 선별된 카메라 움직임 입자들로부터 카메라 움직임 입자들을 다시 생성하고(S120), 생성된 카메라 움직임 입자들에 대해 가중치를 다시 계산하여(S130), 계산된 가중치를 기초로 S120단계에서 다시 생성된 카메라 움직임 입자들 중 일부만을 다시 선별한다(S140).Sequential position estimation is continued, camera motion particles are again generated from the camera motion particles selected in step S130 (S120), the weight is again calculated for the generated camera motion particles (S130) In step S140, only a part of the camera motion particles generated again in step S120 is selected again.

한편, S150단계에서 산출된 신뢰도(C)가 임계치(Th) 미만인 경우(S160-N), 현재 영상의 다음 영상에 대해 S110단계부터 재수행한다. 즉, 카메라의 위치를 전역 위치 추정으로 다시 추정한 후에, 순차적 위치 추정을 수행한다. 이는, 위치 추정을 초기화하고 새롭게 다시 수행하는 것으로 볼 수 있다.On the other hand, if the reliability C calculated in step S150 is less than the threshold Th (S160-N), the next image of the current image is retried from step S110. That is, after the position of the camera is estimated again by the global position estimation, the sequential position estimation is performed. This can be seen as initiating and re-executing the position estimate.

S150단계에서 산출된 신뢰도(C)가 임계치(Th) 미만인 경우는, 순차적 위치 추정 결과에 대한 신뢰도가 낮은 경우로, 오차가 누적될 수 있어 이를 방지하기 위함이다.If the reliability C calculated in step S150 is less than the threshold value Th, the reliability can be accumulated when the reliability of the sequential position estimation result is low.

도 3에는, 도 1에 도시된 방법에 따른 카메라 위치 추정 결과가 예시되어 있다. 도 3에서, 빨간선은 카메라의 실제 이동 경로이고, 파란선은 카메라 위치 추정 경로이다. 한편, 도 3에 도시된 검은점들은 신뢰도가 낮아, 전역 위치 추정부터 다시 시작된 위치들이다.In Fig. 3, a camera position estimation result according to the method shown in Fig. 1 is illustrated. In Fig. 3, the red line is the actual movement path of the camera, and the blue line is the camera position estimation path. On the other hand, the black dots shown in FIG. 3 have low reliability and are positions that are restarted from the global position estimation.

도 4는 본 발명의 다른 실시예에 따른 로봇 시스템의 블럭도이다. 도 4에 도시된 바와 같이, 본 실시예에 따른 로봇 시스템(200)은, 카메라(210), 통신부(220), 프로세서(230), 구동부(240) 및 저장부(250)를 포함한다.4 is a block diagram of a robot system according to another embodiment of the present invention. 4, the robot system 200 according to the present embodiment includes a camera 210, a communication unit 220, a processor 230, a driving unit 240, and a storage unit 250.

카메라(210)는 촬영을 통해 영상을 생성하는 수단으로, 6 자유도의 카메라로 구현할 수 있지만, 그 종류와 위치에 대한 제한은 없다. 구동부(240)는 로봇 시스템(200)의 이동과 기타 다른 기능을 수행하는 수단이다.The camera 210 is a means for generating an image through photographing, and can be implemented by a camera having six degrees of freedom. However, there is no limitation on the type and position of the camera. The driving unit 240 is a means for performing movement and other functions of the robot system 200.

프로세서(230)는 카메라(210)에 의해 생성된 영상을 기반으로, 도 1에 도시된 위치 추정 알고리즘을 실행하여 카메라 위치(210)의 위치, 즉 로봇 시스템(200)의 위치를 추정한다.The processor 230 executes the position estimation algorithm shown in FIG. 1 based on the image generated by the camera 210 to estimate the position of the camera position 210, i.e., the position of the robot system 200.

통신부(220)는 외부와 무선 통신을 위한 수단으로, 카메라(210)를 통해 촬영된 영상과 프로세서(230)에 의해 추정된 위치 정보는 물론 기타 다른 정보를 외부로 전송할 수 있다.The communication unit 220 is a means for wirelessly communicating with the outside, and can transmit an image photographed through the camera 210 and position information estimated by the processor 230, as well as other information to the outside.

저장부(250)는 카메라(210)에 의해 생성된 영상과, 프로세서(230)에 의해 추정된 위치 정보 등이 저장되고, 도 2에 도시된 위치 추정 알고리즘이 프로그램으로 저장된 저장매체이다.The storage unit 250 stores an image generated by the camera 210, position information estimated by the processor 230, and the like, and is a storage medium in which the position estimation algorithm shown in FIG. 2 is stored as a program.

도 4에서 제시한 로봇 시스템(200)은, 도 1에서 제시한 위치 추정 방법이 적용가능한 일 예에 불과하다. 도 1에 도시된 위치 추정 방법은, 도 4에서 제시한 로봇 시스템(200) 외에 다른 이동가능한 시스템(예를 들면, 차량)에 적용될 수 있음은 물론이다.The robot system 200 shown in FIG. 4 is merely an example in which the position estimation method shown in FIG. 1 is applicable. It goes without saying that the position estimation method shown in FIG. 1 can be applied to other movable systems (for example, a vehicle) in addition to the robot system 200 shown in FIG.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.

200 : 로봇 시스템 210 : 카메라
220 : 통신부 230 : 프로세서
240 : 구동부 250 : 저장부
200: robot system 210: camera
220: communication unit 230:
240: Driving unit 250:

Claims (8)

전역 위치 추정 기법으로 카메라의 위치를 추정하는 제1 추정단계;
상기 제1 추정단계에서 추정된 위치로부터, 순차적 위치 추정 기법으로 카메라의 위치를 추정하는 제2 추정단계;
상기 제2 추정단계에서 추정된 위치에 대한 신뢰도를 산출하는 단계; 및
상기 산출단계에서 신뢰도가 기준 이상이면, 상기 제2 추정단계부터 재수행하는 단계;를 포함하는 것을 특징으로 하는 카메라 위치 추정 방법.
A first estimation step of estimating a position of a camera using a global position estimation technique;
A second estimating step of estimating a position of the camera from a position estimated in the first estimating step using a sequential position estimating technique;
Calculating reliability for a position estimated in the second estimating step; And
And if the reliability is not less than a reference value in the calculating step, re-executing the camera position estimation from the second estimating step.
제 1항에 있어서,
상기 산출단계에서 신뢰도가 기준 미만이면, 상기 제1 추정단계부터 재수행하는 단계;를 더 포함하는 것을 특징으로 하는 카메라 위치 추정 방법.
The method according to claim 1,
And if the reliability is less than a criterion in the calculating step, re-executing the camera position estimation from the first estimating step.
제 1항에 있어서,
상기 제1 추정단계는,
이전 영상과 현재 영상 간에 특징점 매칭으로 찾은 대응점들을 이용하여, 상기 카메라의 위치를 추정하는 것을 특징으로 하는 카메라 위치 추정 방법.
The method according to claim 1,
Wherein the first estimating step comprises:
Wherein the position of the camera is estimated using corresponding points found by the feature point matching between the previous image and the current image.
제 1항에 있어서,
상기 제2 추정단계는,
상기 카메라의 움직임 입자들을 생성하는 단계; 및
상기 움직임 입자들 중 정해진 개수의 움직임 입자들을 선별하는 단계;를 포함하는 것을 특징으로 하는 카메라 위치 추정 방법.
The method according to claim 1,
Wherein the second estimating step comprises:
Generating motion particles of the camera; And
And selecting a predetermined number of motion particles among the motion particles.
제 4항에 있어서,
상기 선별단계는,
상기 움직임 입자들의 가중치들을 계산하는 단계; 및
상기 가중치들을 참조하여, 정해진 개수의 움직임 입자들을 선별하는 단계;를 포함하는 것을 특징으로 하는 카메라 위치 추정 방법.
5. The method of claim 4,
In the selecting step,
Calculating weights of the motion particles; And
And selecting a predetermined number of motion particles with reference to the weight values.
제 5항에 있어서,
상기 가중치는,
현재 영상에서의 관측치 및 대응되는 이전 영상에서의 관측치 간 차의 절대값이 기준 미만인 개수인 것을 특징으로 하는 카메라 위치 추정 방법.
6. The method of claim 5,
The weighting value,
Wherein the absolute value of the difference between the observed value in the current image and the observed value in the corresponding previous image is less than a reference value.
제 5항에 있어서,
상기 산출단계는,
상기 가중치들의 합을 상기 신뢰도로 산출하는 것을 특징으로 하는 카메라 위치 추정 방법.
6. The method of claim 5,
Wherein,
And calculating the sum of the weights by the reliability.
촬영을 통해 영상을 생성하는 카메라; 및
상기 영상을 이용하여, 전역 위치 추정 기법으로 상기 카메라의 위치를 추정하고, 추정된 위치로부터 순차적 위치 추정 기법으로 상기 카메라의 위치를 추정하며, 추정된 위치에 대한 신뢰도가 기준 이상이면 상기 순차적 위치 추정 기법으로 상기 카메라의 위치를 다시 추정하는 프로세서;를 포함하는 것을 특징으로 하는 이동 시스템.
A camera for generating an image through shooting; And
Estimating a position of the camera using a global position estimation technique using the image, estimating a position of the camera with a sequential position estimation technique from the estimated position, and if the reliability of the estimated position is greater than a reference, And estimating a position of the camera using the motion vector.
KR20130148932A 2013-12-03 2013-12-03 Method for Camera Location Estimation with Particle Generation and Filtering and Moving System using the same KR101483549B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR20130148932A KR101483549B1 (en) 2013-12-03 2013-12-03 Method for Camera Location Estimation with Particle Generation and Filtering and Moving System using the same
PCT/KR2013/012102 WO2015083875A1 (en) 2013-12-03 2013-12-24 Method and mobile system for estimating camera location through generation and selection of particle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130148932A KR101483549B1 (en) 2013-12-03 2013-12-03 Method for Camera Location Estimation with Particle Generation and Filtering and Moving System using the same

Publications (1)

Publication Number Publication Date
KR101483549B1 true KR101483549B1 (en) 2015-01-16

Family

ID=52590700

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130148932A KR101483549B1 (en) 2013-12-03 2013-12-03 Method for Camera Location Estimation with Particle Generation and Filtering and Moving System using the same

Country Status (2)

Country Link
KR (1) KR101483549B1 (en)
WO (1) WO2015083875A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019026761A1 (en) * 2017-08-03 2020-07-27 日本電産シンポ株式会社 Mobile and computer programs
CN109323697B (en) * 2018-11-13 2022-02-15 大连理工大学 Method for rapidly converging particles during starting of indoor robot at any point

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040167670A1 (en) 2002-12-17 2004-08-26 Goncalves Luis Filipe Domingues Systems and methods for computing a relative pose for global localization in a visual simultaneous localization and mapping system
KR20080024407A (en) * 2006-09-13 2008-03-18 삼성전자주식회사 Pose estimation apparatus used in a mobile robot and method thereof
KR20080028185A (en) * 2006-09-26 2008-03-31 삼성전자주식회사 Localization method for robot by omni-directional image
KR20100069965A (en) * 2008-12-17 2010-06-25 삼성전자주식회사 Apparatus and method for recognizing a situation of mobile robot

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012093799A2 (en) * 2011-01-04 2012-07-12 Chon Young-Ill Total broadband health/safety management system using it communication equipment and ubiquitous network-independent special site and method thereof
KR20120104711A (en) * 2011-03-14 2012-09-24 주식회사 아이티엑스시큐리티 Stereo camera apparatus capable of tracking object at detecting zone, surveillance system and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040167670A1 (en) 2002-12-17 2004-08-26 Goncalves Luis Filipe Domingues Systems and methods for computing a relative pose for global localization in a visual simultaneous localization and mapping system
KR20080024407A (en) * 2006-09-13 2008-03-18 삼성전자주식회사 Pose estimation apparatus used in a mobile robot and method thereof
KR20080028185A (en) * 2006-09-26 2008-03-31 삼성전자주식회사 Localization method for robot by omni-directional image
KR20100069965A (en) * 2008-12-17 2010-06-25 삼성전자주식회사 Apparatus and method for recognizing a situation of mobile robot

Also Published As

Publication number Publication date
WO2015083875A1 (en) 2015-06-11

Similar Documents

Publication Publication Date Title
CN109727288B (en) System and method for monocular simultaneous localization and mapping
US9798929B2 (en) Real-time pose estimation system using inertial and feature measurements
US9454851B2 (en) Efficient approach to estimate disparity map
JP7151488B2 (en) Moving object detection device, moving object detection method and program
CN109300159A (en) Method for detecting position, device, equipment, storage medium and vehicle
KR101776620B1 (en) Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
JP2018522348A (en) Method and system for estimating the three-dimensional posture of a sensor
JP3843119B2 (en) Moving body motion calculation method and apparatus, and navigation system
CN106651901B (en) Object tracking method and device
JP5012615B2 (en) Information processing apparatus, image processing method, and computer program
KR20190030474A (en) Method and apparatus of calculating depth map based on reliability
JP2007249309A (en) Obstacle tracking system and method
US20140294246A1 (en) Movement distance estimating device and movement distance estimating method
CN106780567B (en) Immune particle filter extension target tracking method fusing color histogram and gradient histogram
JP6061770B2 (en) Camera posture estimation apparatus and program thereof
KR101483549B1 (en) Method for Camera Location Estimation with Particle Generation and Filtering and Moving System using the same
White et al. An iterative pose estimation algorithm based on epipolar geometry with application to multi-target tracking
Singh et al. Fusing semantics and motion state detection for robust visual SLAM
KR101806453B1 (en) Moving object detecting apparatus for unmanned aerial vehicle collision avoidance and method thereof
CN111583338B (en) Positioning method and device for unmanned equipment, medium and unmanned equipment
Zhu et al. PairCon-SLAM: Distributed, online, and real-time RGBD-SLAM in large scenarios
JP2014238409A (en) Distance calculation device and distance calculation method
WO2023072269A1 (en) Object tracking
KR20170082331A (en) Method and apparatus for predicting eye position
KR20170037804A (en) Robust visual odometry system and method to irregular illumination changes

Legal Events

Date Code Title Description
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171207

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190107

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200102

Year of fee payment: 6