KR101483549B1 - Method for Camera Location Estimation with Particle Generation and Filtering and Moving System using the same - Google Patents
Method for Camera Location Estimation with Particle Generation and Filtering and Moving System using the same Download PDFInfo
- Publication number
- KR101483549B1 KR101483549B1 KR20130148932A KR20130148932A KR101483549B1 KR 101483549 B1 KR101483549 B1 KR 101483549B1 KR 20130148932 A KR20130148932 A KR 20130148932A KR 20130148932 A KR20130148932 A KR 20130148932A KR 101483549 B1 KR101483549 B1 KR 101483549B1
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- estimating
- reliability
- position estimation
- image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Abstract
Description
본 발명은 카메라 위치 추정에 관한 것으로, 더욱 상세하게는 카메라 또는 카메라가 장착된 로봇이나 차량 등 이동 시스템의 위치를 계산하기 위한 방법에 관한 것이다.
BACKGROUND OF THE
카메라 위치 추정을 위한 확률적 필터링 기법은 모션 모델로부터 현재 카메라 자세를 예측하고, 데이터로부터 예측된 위치를 새롭게 갱신하는 입자 필터(Particle Filter)에 기반한 기법이 대표적이다.The probabilistic filtering technique for camera position estimation is based on a particle filter that predicts the current camera position from the motion model and newly updates the predicted position from the data.
입자 필터의 경우, 입자들을 생성하는 방식이 카메라 위치 추정의 성능을 좌우하는데, 입자 수를 많게 하면 정확성은 향상되는 반면 처리 속도가 느려지기 때문에, 하나의 입자만을 선별하고 있다.In the case of the particle filter, the method of generating particles determines the performance of the camera position estimation. However, since only a single particle is selected because the number of particles increases, the accuracy improves while the processing speed decreases.
이 같은 방식의 입자 필터에 의해, 처리 속도가 증가하는 하였지만, 하나의 입자만 선별하기 때문에, 오차가 누적되면 그 정확도가 매우 떨어지게 되는 문제가 있다.
Although the processing speed is increased by the particle filter of this type, since only one particle is selected, there is a problem that the accuracy becomes very low when the errors are accumulated.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 처리 속도의 심각하게 감소시키지 않으면서도 현재 위치의 정확도를 보장할 수 있는 입자 생성과 선별을 통한 카메라 위치 추정 방법 및 이를 적용한 이동 시스템을 제공함에 있다.
SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and apparatus for estimating a camera position through particle generation and selection that can guarantee the accuracy of a current position without seriously reducing the processing speed, And a mobile system to which the present invention is applied.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 카메라 위치 추정 방법은, 전역 위치 추정 기법으로 카메라의 위치를 추정하는 제1 추정단계; 상기 제1 추정단계에서 추정된 위치로부터, 순차적 위치 추정 기법으로 카메라의 위치를 추정하는 제2 추정단계; 상기 제2 추정단계에서 추정된 위치에 대한 신뢰도를 산출하는 단계; 및 상기 산출단계에서 신뢰도가 기준 이상이면, 상기 제2 추정단계부터 재수행하는 단계;를 포함한다.According to an aspect of the present invention, there is provided a camera position estimation method including: a first estimation step of estimating a position of a camera using a global position estimation technique; A second estimating step of estimating a position of the camera from a position estimated in the first estimating step using a sequential position estimating technique; Calculating reliability for a position estimated in the second estimating step; And a step of re-executing from the second estimating step if the reliability in the calculating step is equal to or greater than a reference value.
그리고, 본 발명의 일 실시예에 따른 카메라 위치 추정 방법은, 상기 산출단계에서 신뢰도가 기준 미만이면, 상기 제1 추정단계부터 재수행하는 단계;를 더 포함할 수 있다.The camera position estimating method according to an embodiment of the present invention may further include a step of re-executing the first estimation step if the reliability in the calculating step is less than a reference value.
또한, 상기 제1 추정단계는, 이전 영상과 현재 영상 간에 특징점 매칭으로 찾은 대응점들을 이용하여, 상기 카메라의 위치를 추정할 수 있다.The first estimating step may estimate the position of the camera using corresponding points found by matching the feature point between the previous image and the current image.
그리고, 상기 제2 추정단계는, 상기 카메라의 움직임 입자들을 생성하는 단계; 및 상기 움직임 입자들 중 정해진 개수의 움직임 입자들을 선별하는 단계;를 포함할 수 있다.The second estimating step may include: generating motion particles of the camera; And selecting a predetermined number of motion particles among the motion particles.
또한, 상기 선별단계는, 상기 움직임 입자들의 가중치들을 계산하는 단계; 및 상기 가중치들을 참조하여, 정해진 개수의 움직임 입자들을 선별하는 단계;를 포함할 수 있다.The selecting may further include: calculating weights of the motion particles; And selecting a predetermined number of motion particles with reference to the weights.
그리고, 상기 가중치는, 현재 영상에서의 관측치 및 대응되는 이전 영상에서의 관측치 간 차의 절대값이 기준 미만인 개수일 수 있다.The weight may be a number whose absolute value of the difference between the observed value in the current image and the observed value in the corresponding previous image is less than the reference value.
또한, 상기 산출단계는, 상기 가중치들의 합을 상기 신뢰도로 산출할 수 있다.Further, the calculating step may calculate the sum of the weights by the reliability.
한편, 본 발명의 다른 실시예에 따른, 이동 시스템은, 촬영을 통해 영상을 생성하는 카메라; 및 상기 영상을 이용하여, 전역 위치 추정 기법으로 상기 카메라의 위치를 추정하고, 추정된 위치로부터 순차적 위치 추정 기법으로 상기 카메라의 위치를 추정하며, 추정된 위치에 대한 신뢰도가 기준 이상이면 상기 순차적 위치 추정 기법으로 상기 카메라의 위치를 다시 추정하는 프로세서;를 포함한다.
According to another aspect of the present invention, there is provided a mobile system including: a camera for generating an image through photography; And estimating a position of the camera using a global position estimation technique using the image, estimating a position of the camera using a sequential position estimation technique from the estimated position, and if the reliability of the estimated position is greater than a reference, And a processor for re-estimating the position of the camera with an estimation technique.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 신뢰도를 기반으로 전역 위치 추정 기법과 순차적 위치 추정 기법을 적응적으로 이용하여 위치 추정 속도를 심각하게 감소시키지 않으면서도 현재 위치의 정확도를 보장할 수 있게 된다.As described above, according to the embodiments of the present invention, the global position estimation technique and the sequential position estimation technique are adaptively used based on the reliability to guarantee the accuracy of the current position without seriously reducing the position estimation speed .
특히, 순차적 위치 추정의 신뢰도가 떨어지는 경우, 전역 위치 추정을 재수행하므로, 순차적 위치 추정 과정에서 발생할 수 있는 오차 누적 문제를 해결할 수 있게 된다.In particular, when the reliability of the sequential position estimation is low, the global position estimation is performed again, so that the error accumulation problem that may occur in the sequential position estimation process can be solved.
아울러, 급격한 움직임 변화 또는 가려짐이 발생한 경우에도, 신뢰도를 바탕으로 정확한 위치 추정이 가능해진다.
In addition, even when a sudden change in motion or occlusion occurs, accurate position estimation can be performed based on reliability.
도 1은 본 발명의 일 실시예에 따른 카메라 위치 추정 방법의 설명에 제공되는 흐름도,
도 2는 RANSAC 알고리즘에 의한 카메라 움직임 입자 생성 결과를 예시한 도면,
도 3은, 도 1에 도시된 방법에 따른 카메라 위치 추정 결과가 예시된 도면, 그리고,
도 4는 본 발명의 다른 실시예에 따른 로봇 시스템의 블럭도이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a flow chart for explaining a camera position estimation method according to an embodiment of the present invention;
2 is a diagram illustrating a result of camera motion particle generation by the RANSAC algorithm,
FIG. 3 is a diagram illustrating a result of camera position estimation according to the method shown in FIG. 1,
4 is a block diagram of a robot system according to another embodiment of the present invention.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.
도 1은 본 발명의 일 실시예에 따른 카메라 위치 추정 방법의 설명에 제공되는 흐름도이다. 본 실시예에 따른 카메라 위치 추정 방법은, 영상으로부터 카메라의 위치를 추정함에 있어 오차가 누적되는 것을 방지하기 위해, 전역 위치 추정 기법과 순차적 위치 추적 기법을 선택적으로 수행한다.FIG. 1 is a flowchart illustrating a camera position estimation method according to an embodiment of the present invention. The camera position estimation method according to the present embodiment selectively performs a global position estimation technique and a sequential position tracking technique in order to prevent accumulation of errors in estimating a camera position from an image.
본 실시예에 따른 카메라 위치 추정 방법에 의해, 카메라 위치 추정의 정확도가 향상되는데, 이하에서 상세히 설명한다.The camera position estimation method according to the present embodiment improves the accuracy of camera position estimation, which will be described in detail below.
도 1에 도시된 바와 같이, 먼저 전역 위치 추정 기법으로 카메라의 위치를 추정한다(S110). S110단계에서의 전역 위치 추정 기법은, 이전 영상과 현재 영상 간에 특징점 매칭으로 찾은 대응점들을 이용하여 카메라의 움직임을 추정하는 기법이다.As shown in FIG. 1, first, a position of a camera is estimated using a global position estimation technique (S110). The global position estimation technique in step S110 is a technique for estimating the camera motion using corresponding points found by matching the feature point between the previous image and the current image.
S110단계에서의 전역 위치 추정 기법은, 특징점 매칭 이외에도 컬러 매칭 기반의 등 다른 종류의 전역 위치 추정 기법을 활용할 수 있다.The global position estimation technique in step S110 may utilize other types of global position estimation techniques such as color matching based other than feature point matching.
이후, S110단계에서 추정된 위치로부터, 영상 기반의 순차적 위치 추정 기법으로 카메라의 위치를 추정한다(S120 내지 S140).Thereafter, the position of the camera is estimated using the image-based sequential position estimation technique from the position estimated in step S110 (S120 to S140).
순차적 위치 추정을 위해, 먼저 추정 위치로부터 카메라 움직임 입자들을 생성한다(S120). 카메라 움직임 입자에는 카메라 회전량(Rotation)과 이동량(Translation)이 포함된다.For sequential position estimation, camera motion particles are first generated from the estimated position (S120). Camera motion particles include camera rotation (Rotation) and translation (Translation).
S120단계에서의 카메라 움직임 입자 생성은, RANSAC(RANdom SAmple Consensus) 알고리즘에 의한 샘플 획득 방식을 적용하여 수행가능하다.The camera motion particle generation in step S120 can be performed by applying a sample acquisition method using the RANSAC algorithm (Random Absence Consensus).
도 2의 좌측에는 이전 영상과 현재 영상을 예시하였고, 도 2의 중앙에는 카메라의 3차원 이동에 의한 입자들의 분포를 예시하였으며, 도 2의 우측에는 카메라의 3차원 회전에 의한 입자들의 분포를 예시하였다.2, the distribution of particles by the three-dimensional movement of the camera is illustrated at the center of FIG. 2, and the distribution of particles by the three-dimensional rotation of the camera is illustrated at the right of FIG. Respectively.
다음, S120단계에서 생성된 카메라 움직임 입자들에 대해 가중치를 계산한다(S130). 카메라 움직임 입자에 대한 가중치는, 다음의 수학식 1을 통해 계산가능하다.Next, a weight is calculated for the camera motion particles generated in step S120 (S130). The weight for the camera motion particle can be calculated by the following equation (1).
여기서 는 현재 영상에서의 관측치, ml는 에 해당하는 이전 영상에서의 3차원 좌표, 는 i번째 카메라 움직임 입자, σl은 영상에서의 모호성 정도를 나타낸다.here Is the observed value in the current image, and m l Dimensional coordinates in the previous image corresponding to the three- Is the i-th camera motion particle, and σ l is the degree of ambiguity in the image.
수학식 1을 통해, 가중치는 현재 영상에서의 관측치와 그에 대응되는 이전 영상에서의 관측치 간 차의 절대값이 기준 미만인 개수로 볼 수 있다.Through Equation (1), the weight can be viewed as a number whose absolute value of the difference between the observation value in the current image and the observation value in the previous previous image is less than the reference value.
S130단계에서 모든 카메라 움직임 입자들에 대해 가중치가 계산되면, 계산된 가중치를 기초로 S120단계에서 생성된 카메라 움직임 입자들 중 일부만을 선별한다(S140).In step S140, when all of the camera motion particles are weighted, only some of the camera motion particles generated in step S120 are selected on the basis of the calculated weight values in step S140.
즉, S140단계는, 본 실시예에 따른 카메라 위치 추정 방법에서 입자 필터로서 기능 하는 것으로 볼 수 있다. 유의할 점은 S140단계에서 선별되는 카메라 움직임 입자들의 개수는 1개가 아닌 복수이며, N개로 고정되어 있다는 점이다.That is, the step S140 may be regarded as functioning as a particle filter in the camera position estimation method according to the present embodiment. It should be noted that the number of camera motion particles selected in step S140 is not one but plural, and N is fixed.
다음, S140단계에서 선별된 N개의 카메라 움직임 입자들에 대한 신뢰도를 산출한다(S150). S150단계에서의 신뢰도(C)는, 아래의 수학식 2에 나타난 바와 같이, 선별된 N개의 카메라 움직임 입자들의 합으로 산출된다.Next, the reliability of the N camera motion particles selected in step S140 is calculated (S150). The reliability C in step S150 is calculated as the sum of the N camera motion particles selected as shown in the following equation (2).
이는, 주변 가능성(Marginal Likelihood)을 이용한 입자 필터에 대한 신뢰도를 평가하는 것으로 볼 수 있다.This can be seen as evaluating the reliability of the particle filter using marginal likelihood.
S150단계에서 산출된 신뢰도(C)가 임계치(Th) 이상인 경우(S160-Y), 현재 영상의 다음 영상에 대해, 순차적 위치 추정을 계속한다(S120 내지 S140).If the reliability C calculated in step S150 is equal to or greater than the threshold value Th (S160-Y), sequential position estimation is continued for the next image of the current image (S120 to S140).
S150단계에서 산출된 신뢰도(C)가 임계치(Th) 이상인 경우는, 신뢰도가 높은 경우이기 때문이다. 임계치(Th)는 원하는 값으로 설정가능함은 물론, 필요와 상황에 따라 적응적으로 변경되도록 설정하는 것도 가능하다.If the reliability C calculated in step S150 is equal to or greater than the threshold value Th, the reliability is high. The threshold value Th can be set to a desired value, and it is also possible to set the threshold value Th to adaptively change according to needs and circumstances.
순차적 위치 추정이 계속되어, S130단계에서 선별된 카메라 움직임 입자들로부터 카메라 움직임 입자들을 다시 생성하고(S120), 생성된 카메라 움직임 입자들에 대해 가중치를 다시 계산하여(S130), 계산된 가중치를 기초로 S120단계에서 다시 생성된 카메라 움직임 입자들 중 일부만을 다시 선별한다(S140).Sequential position estimation is continued, camera motion particles are again generated from the camera motion particles selected in step S130 (S120), the weight is again calculated for the generated camera motion particles (S130) In step S140, only a part of the camera motion particles generated again in step S120 is selected again.
한편, S150단계에서 산출된 신뢰도(C)가 임계치(Th) 미만인 경우(S160-N), 현재 영상의 다음 영상에 대해 S110단계부터 재수행한다. 즉, 카메라의 위치를 전역 위치 추정으로 다시 추정한 후에, 순차적 위치 추정을 수행한다. 이는, 위치 추정을 초기화하고 새롭게 다시 수행하는 것으로 볼 수 있다.On the other hand, if the reliability C calculated in step S150 is less than the threshold Th (S160-N), the next image of the current image is retried from step S110. That is, after the position of the camera is estimated again by the global position estimation, the sequential position estimation is performed. This can be seen as initiating and re-executing the position estimate.
S150단계에서 산출된 신뢰도(C)가 임계치(Th) 미만인 경우는, 순차적 위치 추정 결과에 대한 신뢰도가 낮은 경우로, 오차가 누적될 수 있어 이를 방지하기 위함이다.If the reliability C calculated in step S150 is less than the threshold value Th, the reliability can be accumulated when the reliability of the sequential position estimation result is low.
도 3에는, 도 1에 도시된 방법에 따른 카메라 위치 추정 결과가 예시되어 있다. 도 3에서, 빨간선은 카메라의 실제 이동 경로이고, 파란선은 카메라 위치 추정 경로이다. 한편, 도 3에 도시된 검은점들은 신뢰도가 낮아, 전역 위치 추정부터 다시 시작된 위치들이다.In Fig. 3, a camera position estimation result according to the method shown in Fig. 1 is illustrated. In Fig. 3, the red line is the actual movement path of the camera, and the blue line is the camera position estimation path. On the other hand, the black dots shown in FIG. 3 have low reliability and are positions that are restarted from the global position estimation.
도 4는 본 발명의 다른 실시예에 따른 로봇 시스템의 블럭도이다. 도 4에 도시된 바와 같이, 본 실시예에 따른 로봇 시스템(200)은, 카메라(210), 통신부(220), 프로세서(230), 구동부(240) 및 저장부(250)를 포함한다.4 is a block diagram of a robot system according to another embodiment of the present invention. 4, the
카메라(210)는 촬영을 통해 영상을 생성하는 수단으로, 6 자유도의 카메라로 구현할 수 있지만, 그 종류와 위치에 대한 제한은 없다. 구동부(240)는 로봇 시스템(200)의 이동과 기타 다른 기능을 수행하는 수단이다.The
프로세서(230)는 카메라(210)에 의해 생성된 영상을 기반으로, 도 1에 도시된 위치 추정 알고리즘을 실행하여 카메라 위치(210)의 위치, 즉 로봇 시스템(200)의 위치를 추정한다.The
통신부(220)는 외부와 무선 통신을 위한 수단으로, 카메라(210)를 통해 촬영된 영상과 프로세서(230)에 의해 추정된 위치 정보는 물론 기타 다른 정보를 외부로 전송할 수 있다.The
저장부(250)는 카메라(210)에 의해 생성된 영상과, 프로세서(230)에 의해 추정된 위치 정보 등이 저장되고, 도 2에 도시된 위치 추정 알고리즘이 프로그램으로 저장된 저장매체이다.The
도 4에서 제시한 로봇 시스템(200)은, 도 1에서 제시한 위치 추정 방법이 적용가능한 일 예에 불과하다. 도 1에 도시된 위치 추정 방법은, 도 4에서 제시한 로봇 시스템(200) 외에 다른 이동가능한 시스템(예를 들면, 차량)에 적용될 수 있음은 물론이다.The
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.
200 : 로봇 시스템 210 : 카메라
220 : 통신부 230 : 프로세서
240 : 구동부 250 : 저장부200: robot system 210: camera
220: communication unit 230:
240: Driving unit 250:
Claims (8)
상기 제1 추정단계에서 추정된 위치로부터, 순차적 위치 추정 기법으로 카메라의 위치를 추정하는 제2 추정단계;
상기 제2 추정단계에서 추정된 위치에 대한 신뢰도를 산출하는 단계; 및
상기 산출단계에서 신뢰도가 기준 이상이면, 상기 제2 추정단계부터 재수행하는 단계;를 포함하는 것을 특징으로 하는 카메라 위치 추정 방법.
A first estimation step of estimating a position of a camera using a global position estimation technique;
A second estimating step of estimating a position of the camera from a position estimated in the first estimating step using a sequential position estimating technique;
Calculating reliability for a position estimated in the second estimating step; And
And if the reliability is not less than a reference value in the calculating step, re-executing the camera position estimation from the second estimating step.
상기 산출단계에서 신뢰도가 기준 미만이면, 상기 제1 추정단계부터 재수행하는 단계;를 더 포함하는 것을 특징으로 하는 카메라 위치 추정 방법.
The method according to claim 1,
And if the reliability is less than a criterion in the calculating step, re-executing the camera position estimation from the first estimating step.
상기 제1 추정단계는,
이전 영상과 현재 영상 간에 특징점 매칭으로 찾은 대응점들을 이용하여, 상기 카메라의 위치를 추정하는 것을 특징으로 하는 카메라 위치 추정 방법.
The method according to claim 1,
Wherein the first estimating step comprises:
Wherein the position of the camera is estimated using corresponding points found by the feature point matching between the previous image and the current image.
상기 제2 추정단계는,
상기 카메라의 움직임 입자들을 생성하는 단계; 및
상기 움직임 입자들 중 정해진 개수의 움직임 입자들을 선별하는 단계;를 포함하는 것을 특징으로 하는 카메라 위치 추정 방법.
The method according to claim 1,
Wherein the second estimating step comprises:
Generating motion particles of the camera; And
And selecting a predetermined number of motion particles among the motion particles.
상기 선별단계는,
상기 움직임 입자들의 가중치들을 계산하는 단계; 및
상기 가중치들을 참조하여, 정해진 개수의 움직임 입자들을 선별하는 단계;를 포함하는 것을 특징으로 하는 카메라 위치 추정 방법.
5. The method of claim 4,
In the selecting step,
Calculating weights of the motion particles; And
And selecting a predetermined number of motion particles with reference to the weight values.
상기 가중치는,
현재 영상에서의 관측치 및 대응되는 이전 영상에서의 관측치 간 차의 절대값이 기준 미만인 개수인 것을 특징으로 하는 카메라 위치 추정 방법.
6. The method of claim 5,
The weighting value,
Wherein the absolute value of the difference between the observed value in the current image and the observed value in the corresponding previous image is less than a reference value.
상기 산출단계는,
상기 가중치들의 합을 상기 신뢰도로 산출하는 것을 특징으로 하는 카메라 위치 추정 방법.
6. The method of claim 5,
Wherein,
And calculating the sum of the weights by the reliability.
상기 영상을 이용하여, 전역 위치 추정 기법으로 상기 카메라의 위치를 추정하고, 추정된 위치로부터 순차적 위치 추정 기법으로 상기 카메라의 위치를 추정하며, 추정된 위치에 대한 신뢰도가 기준 이상이면 상기 순차적 위치 추정 기법으로 상기 카메라의 위치를 다시 추정하는 프로세서;를 포함하는 것을 특징으로 하는 이동 시스템.
A camera for generating an image through shooting; And
Estimating a position of the camera using a global position estimation technique using the image, estimating a position of the camera with a sequential position estimation technique from the estimated position, and if the reliability of the estimated position is greater than a reference, And estimating a position of the camera using the motion vector.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130148932A KR101483549B1 (en) | 2013-12-03 | 2013-12-03 | Method for Camera Location Estimation with Particle Generation and Filtering and Moving System using the same |
PCT/KR2013/012102 WO2015083875A1 (en) | 2013-12-03 | 2013-12-24 | Method and mobile system for estimating camera location through generation and selection of particle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130148932A KR101483549B1 (en) | 2013-12-03 | 2013-12-03 | Method for Camera Location Estimation with Particle Generation and Filtering and Moving System using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101483549B1 true KR101483549B1 (en) | 2015-01-16 |
Family
ID=52590700
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR20130148932A KR101483549B1 (en) | 2013-12-03 | 2013-12-03 | Method for Camera Location Estimation with Particle Generation and Filtering and Moving System using the same |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101483549B1 (en) |
WO (1) | WO2015083875A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2019026761A1 (en) * | 2017-08-03 | 2020-07-27 | 日本電産シンポ株式会社 | Mobile and computer programs |
CN109323697B (en) * | 2018-11-13 | 2022-02-15 | 大连理工大学 | Method for rapidly converging particles during starting of indoor robot at any point |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040167670A1 (en) | 2002-12-17 | 2004-08-26 | Goncalves Luis Filipe Domingues | Systems and methods for computing a relative pose for global localization in a visual simultaneous localization and mapping system |
KR20080024407A (en) * | 2006-09-13 | 2008-03-18 | 삼성전자주식회사 | Pose estimation apparatus used in a mobile robot and method thereof |
KR20080028185A (en) * | 2006-09-26 | 2008-03-31 | 삼성전자주식회사 | Localization method for robot by omni-directional image |
KR20100069965A (en) * | 2008-12-17 | 2010-06-25 | 삼성전자주식회사 | Apparatus and method for recognizing a situation of mobile robot |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012093799A2 (en) * | 2011-01-04 | 2012-07-12 | Chon Young-Ill | Total broadband health/safety management system using it communication equipment and ubiquitous network-independent special site and method thereof |
KR20120104711A (en) * | 2011-03-14 | 2012-09-24 | 주식회사 아이티엑스시큐리티 | Stereo camera apparatus capable of tracking object at detecting zone, surveillance system and method thereof |
-
2013
- 2013-12-03 KR KR20130148932A patent/KR101483549B1/en active IP Right Grant
- 2013-12-24 WO PCT/KR2013/012102 patent/WO2015083875A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040167670A1 (en) | 2002-12-17 | 2004-08-26 | Goncalves Luis Filipe Domingues | Systems and methods for computing a relative pose for global localization in a visual simultaneous localization and mapping system |
KR20080024407A (en) * | 2006-09-13 | 2008-03-18 | 삼성전자주식회사 | Pose estimation apparatus used in a mobile robot and method thereof |
KR20080028185A (en) * | 2006-09-26 | 2008-03-31 | 삼성전자주식회사 | Localization method for robot by omni-directional image |
KR20100069965A (en) * | 2008-12-17 | 2010-06-25 | 삼성전자주식회사 | Apparatus and method for recognizing a situation of mobile robot |
Also Published As
Publication number | Publication date |
---|---|
WO2015083875A1 (en) | 2015-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109727288B (en) | System and method for monocular simultaneous localization and mapping | |
US9798929B2 (en) | Real-time pose estimation system using inertial and feature measurements | |
US9454851B2 (en) | Efficient approach to estimate disparity map | |
JP7151488B2 (en) | Moving object detection device, moving object detection method and program | |
CN109300159A (en) | Method for detecting position, device, equipment, storage medium and vehicle | |
KR101776620B1 (en) | Apparatus for recognizing location mobile robot using search based correlative matching and method thereof | |
JP2018522348A (en) | Method and system for estimating the three-dimensional posture of a sensor | |
JP3843119B2 (en) | Moving body motion calculation method and apparatus, and navigation system | |
CN106651901B (en) | Object tracking method and device | |
JP5012615B2 (en) | Information processing apparatus, image processing method, and computer program | |
KR20190030474A (en) | Method and apparatus of calculating depth map based on reliability | |
JP2007249309A (en) | Obstacle tracking system and method | |
US20140294246A1 (en) | Movement distance estimating device and movement distance estimating method | |
CN106780567B (en) | Immune particle filter extension target tracking method fusing color histogram and gradient histogram | |
JP6061770B2 (en) | Camera posture estimation apparatus and program thereof | |
KR101483549B1 (en) | Method for Camera Location Estimation with Particle Generation and Filtering and Moving System using the same | |
White et al. | An iterative pose estimation algorithm based on epipolar geometry with application to multi-target tracking | |
Singh et al. | Fusing semantics and motion state detection for robust visual SLAM | |
KR101806453B1 (en) | Moving object detecting apparatus for unmanned aerial vehicle collision avoidance and method thereof | |
CN111583338B (en) | Positioning method and device for unmanned equipment, medium and unmanned equipment | |
Zhu et al. | PairCon-SLAM: Distributed, online, and real-time RGBD-SLAM in large scenarios | |
JP2014238409A (en) | Distance calculation device and distance calculation method | |
WO2023072269A1 (en) | Object tracking | |
KR20170082331A (en) | Method and apparatus for predicting eye position | |
KR20170037804A (en) | Robust visual odometry system and method to irregular illumination changes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20171207 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20190107 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20200102 Year of fee payment: 6 |