WO2015083875A1 - Method and mobile system for estimating camera location through generation and selection of particle - Google Patents

Method and mobile system for estimating camera location through generation and selection of particle Download PDF

Info

Publication number
WO2015083875A1
WO2015083875A1 PCT/KR2013/012102 KR2013012102W WO2015083875A1 WO 2015083875 A1 WO2015083875 A1 WO 2015083875A1 KR 2013012102 W KR2013012102 W KR 2013012102W WO 2015083875 A1 WO2015083875 A1 WO 2015083875A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
estimating
reliability
position estimation
estimated
Prior art date
Application number
PCT/KR2013/012102
Other languages
French (fr)
Korean (ko)
Inventor
김정호
최병호
황영배
배주한
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Publication of WO2015083875A1 publication Critical patent/WO2015083875A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

A method and a mobile system for estimating a camera location through the generation and selection of a particle are provided. The camera location estimation method according to an embodiment of the present invention estimates a location by adaptively using a global location estimation technique and a sequential location estimation technique on the basis of reliability. Therefore, the accuracy of a current location can be guaranteed without significantly reducing the estimation speed. The global location estimation is performed again when the reliability of the sequential location estimation is reduced, and thus an error accumulation problem, which may occur in the process of the sequential location estimation, can be solved.

Description

입자 생성 및 선별을 통한 카메라 위치 추정 방법 및 이동 시스템Camera Position Estimation Method and Moving System by Particle Generation and Screening
본 발명은 카메라 위치 추정에 관한 것으로, 더욱 상세하게는 카메라 또는 카메라가 장착된 로봇이나 차량 등 이동 시스템의 위치를 계산하기 위한 방법에 관한 것이다.The present invention relates to camera position estimation, and more particularly, to a method for calculating the position of a mobile system such as a camera or a robot or a vehicle equipped with a camera.
카메라 위치 추정을 위한 확률적 필터링 기법은 모션 모델로부터 현재 카메라 자세를 예측하고, 데이터로부터 예측된 위치를 새롭게 갱신하는 입자 필터(Particle Filter)에 기반한 기법이 대표적이다.The probabilistic filtering technique for camera position estimation is based on a particle filter that predicts a current camera pose from a motion model and newly updates a predicted position from data.
입자 필터의 경우, 입자들을 생성하는 방식이 카메라 위치 추정의 성능을 좌우하는데, 입자 수를 많게 하면 정확성은 향상되는 반면 처리 속도가 느려지기 때문에, 하나의 입자만을 선별하고 있다.In the case of particle filters, the way in which particles are generated dictates the performance of the camera's position estimation. A large number of particles selects only one particle because the accuracy is improved while the processing speed is slowed down.
이 같은 방식의 입자 필터에 의해, 처리 속도가 증가하는 하였지만, 하나의 입자만 선별하기 때문에, 오차가 누적되면 그 정확도가 매우 떨어지게 되는 문제가 있다.Although the treatment speed increases with this type of particle filter, since only one particle is sorted, there is a problem that the accuracy is very low when an error is accumulated.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 처리 속도의 심각하게 감소시키지 않으면서도 현재 위치의 정확도를 보장할 수 있는 입자 생성과 선별을 통한 카메라 위치 추정 방법 및 이를 적용한 이동 시스템을 제공함에 있다.The present invention has been made to solve the above problems, and an object of the present invention is to provide a method for estimating camera position through particle generation and screening that can ensure the accuracy of the current position without seriously reducing the processing speed and It is to provide a mobile system applying this.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 카메라 위치 추정 방법은, 전역 위치 추정 기법으로 카메라의 위치를 추정하는 제1 추정단계; 상기 제1 추정단계에서 추정된 위치로부터, 순차적 위치 추정 기법으로 카메라의 위치를 추정하는 제2 추정단계; 상기 제2 추정단계에서 추정된 위치에 대한 신뢰도를 산출하는 단계; 및 상기 산출단계에서 신뢰도가 기준 이상이면, 상기 제2 추정단계부터 재수행하는 단계;를 포함한다.A camera position estimation method according to an embodiment of the present invention for achieving the above object, the first estimation step of estimating the position of the camera by a global position estimation technique; A second estimating step of estimating the position of the camera from the position estimated in the first estimating step by a sequential position estimating technique; Calculating a reliability of the position estimated in the second estimating step; And re-performing from the second estimating step if the reliability is greater than or equal to the reference in the calculating step.
그리고, 본 발명의 일 실시예에 따른 카메라 위치 추정 방법은, 상기 산출단계에서 신뢰도가 기준 미만이면, 상기 제1 추정단계부터 재수행하는 단계;를 더 포함할 수 있다.In addition, the camera position estimation method according to an embodiment of the present invention, if the reliability is less than the reference in the calculation step, the step of performing again from the first estimation step; may further include.
또한, 상기 제1 추정단계는, 이전 영상과 현재 영상 간에 특징점 매칭으로 찾은 대응점들을 이용하여, 상기 카메라의 위치를 추정할 수 있다.In addition, the first estimating step may estimate the position of the camera by using corresponding points found by feature point matching between the previous image and the current image.
그리고, 상기 제2 추정단계는, 상기 카메라의 움직임 입자들을 생성하는 단계; 및 상기 움직임 입자들 중 정해진 개수의 움직임 입자들을 선별하는 단계;를 포함할 수 있다.The second estimating step may further include generating motion particles of the camera; And selecting a predetermined number of moving particles among the moving particles.
또한, 상기 선별단계는, 상기 움직임 입자들의 가중치들을 계산하는 단계; 및 상기 가중치들을 참조하여, 정해진 개수의 움직임 입자들을 선별하는 단계;를 포함할 수 있다.In addition, the selecting step may include calculating weights of the moving particles; And selecting the predetermined number of moving particles with reference to the weights.
그리고, 상기 가중치는, 현재 영상에서의 관측치 및 대응되는 이전 영상에서의 관측치 간 차의 절대값이 기준 미만인 개수일 수 있다.The weight may be a number in which the absolute value of the difference between the observation in the current image and the corresponding observation in the previous image is less than the reference.
또한, 상기 산출단계는, 상기 가중치들의 합을 상기 신뢰도로 산출할 수 있다.In the calculating step, the sum of the weights may be calculated as the reliability.
한편, 본 발명의 다른 실시예에 따른, 이동 시스템은, 촬영을 통해 영상을 생성하는 카메라; 및 상기 영상을 이용하여, 전역 위치 추정 기법으로 상기 카메라의 위치를 추정하고, 추정된 위치로부터 순차적 위치 추정 기법으로 상기 카메라의 위치를 추정하며, 추정된 위치에 대한 신뢰도가 기준 이상이면 상기 순차적 위치 추정 기법으로 상기 카메라의 위치를 다시 추정하는 프로세서;를 포함한다.On the other hand, according to another embodiment of the present invention, a mobile system, a camera for generating an image by shooting; And estimating the position of the camera using a global position estimation technique, estimating the position of the camera using a sequential position estimation technique from the estimated position, and if the reliability of the estimated position is higher than a reference, the sequential position. And a processor that estimates the position of the camera again using an estimation technique.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 신뢰도를 기반으로 전역 위치 추정 기법과 순차적 위치 추정 기법을 적응적으로 이용하여 위치 추정 속도를 심각하게 감소시키지 않으면서도 현재 위치의 정확도를 보장할 수 있게 된다.As described above, according to embodiments of the present invention, the global position estimation technique and the sequential position estimation technique are adaptively used based on the reliability to ensure the accuracy of the current position without seriously reducing the position estimation speed. It becomes possible.
특히, 순차적 위치 추정의 신뢰도가 떨어지는 경우, 전역 위치 추정을 재수행하므로, 순차적 위치 추정 과정에서 발생할 수 있는 오차 누적 문제를 해결할 수 있게 된다.In particular, when the reliability of the sequential position estimation is low, the global position estimation is performed again, thereby solving the error accumulation problem that may occur in the sequential position estimation process.
아울러, 급격한 움직임 변화 또는 가려짐이 발생한 경우에도, 신뢰도를 바탕으로 정확한 위치 추정이 가능해진다.In addition, even when a sudden change in motion or obstruction occurs, accurate position estimation is possible based on the reliability.
도 1은 본 발명의 일 실시예에 따른 카메라 위치 추정 방법의 설명에 제공되는 흐름도,1 is a flowchart provided for explaining a camera position estimation method according to an embodiment of the present invention;
도 2는 RANSAC 알고리즘에 의한 카메라 움직임 입자 생성 결과를 예시한 도면,2 is a diagram illustrating a camera motion particle generation result by the RANSAC algorithm,
도 3은, 도 1에 도시된 방법에 따른 카메라 위치 추정 결과가 예시된 도면, 그리고,3 is a view illustrating a camera position estimation result according to the method illustrated in FIG. 1, and
도 4는 본 발명의 다른 실시예에 따른 로봇 시스템의 블럭도이다.4 is a block diagram of a robot system according to another embodiment of the present invention.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, with reference to the drawings will be described the present invention in more detail.
도 1은 본 발명의 일 실시예에 따른 카메라 위치 추정 방법의 설명에 제공되는 흐름도이다. 본 실시예에 따른 카메라 위치 추정 방법은, 영상으로부터 카메라의 위치를 추정함에 있어 오차가 누적되는 것을 방지하기 위해, 전역 위치 추정 기법과 순차적 위치 추적 기법을 선택적으로 수행한다.1 is a flowchart provided for explaining a camera position estimation method according to an embodiment of the present invention. The camera position estimation method according to the present embodiment selectively performs a global position estimation technique and a sequential position tracking technique in order to prevent errors from accumulating in estimating the position of the camera from an image.
본 실시예에 따른 카메라 위치 추정 방법에 의해, 카메라 위치 추정의 정확도가 향상되는데, 이하에서 상세히 설명한다.By the camera position estimation method according to the present embodiment, the accuracy of the camera position estimation is improved, which will be described in detail below.
도 1에 도시된 바와 같이, 먼저 전역 위치 추정 기법으로 카메라의 위치를 추정한다(S110). S110단계에서의 전역 위치 추정 기법은, 이전 영상과 현재 영상 간에 특징점 매칭으로 찾은 대응점들을 이용하여 카메라의 움직임을 추정하는 기법이다.As shown in FIG. 1, first, a position of a camera is estimated by using a global position estimation technique (S110). The global position estimation technique in step S110 is a technique of estimating the movement of the camera using the corresponding points found by the feature point matching between the previous image and the current image.
S110단계에서의 전역 위치 추정 기법은, 특징점 매칭 이외에도 컬러 매칭 기반의 등 다른 종류의 전역 위치 추정 기법을 활용할 수 있다.The global position estimation technique in step S110 may utilize other types of global position estimation techniques, such as based on color matching, in addition to feature point matching.
이후, S110단계에서 추정된 위치로부터, 영상 기반의 순차적 위치 추정 기법으로 카메라의 위치를 추정한다(S120 내지 S140).Then, the position of the camera is estimated from the position estimated in step S110 by the image-based sequential position estimation technique (S120 to S140).
순차적 위치 추정을 위해, 먼저 추정 위치로부터 카메라 움직임 입자들을 생성한다(S120). 카메라 움직임 입자에는 카메라 회전량(Rotation)과 이동량(Translation)이 포함된다.For sequential position estimation, first, camera motion particles are generated from the estimated position (S120). Camera movement particles include camera rotation and translation.
S120단계에서의 카메라 움직임 입자 생성은, RANSAC(RANdom SAmple Consensus) 알고리즘에 의한 샘플 획득 방식을 적용하여 수행가능하다.The camera motion particle generation in step S120 may be performed by applying a sample acquisition method by a random SAmple consensus (RANSAC) algorithm.
도 2의 좌측에는 이전 영상과 현재 영상을 예시하였고, 도 2의 중앙에는 카메라의 3차원 이동에 의한 입자들의 분포를 예시하였으며, 도 2의 우측에는 카메라의 3차원 회전에 의한 입자들의 분포를 예시하였다.The left side of FIG. 2 illustrates the previous image and the current image, the center of FIG. 2 illustrates the distribution of particles by three-dimensional movement of the camera, and the right side of FIG. 2 illustrates the distribution of particles by three-dimensional rotation of the camera. It was.
다음, S120단계에서 생성된 카메라 움직임 입자들에 대해 가중치를 계산한다(S130). 카메라 움직임 입자에 대한 가중치는, 다음의 수학식 1을 통해 계산가능하다.Next, a weight is calculated for the camera motion particles generated in step S120 (S130). The weight for the camera moving particle can be calculated by the following equation (1).
수학식 1
Figure PCTKR2013012102-appb-M000001
Equation 1
Figure PCTKR2013012102-appb-M000001
여기서
Figure PCTKR2013012102-appb-I000001
는 현재 영상에서의 관측치, ml
Figure PCTKR2013012102-appb-I000002
에 해당하는 이전 영상에서의 3차원 좌표,
Figure PCTKR2013012102-appb-I000003
는 i번째 카메라 움직임 입자, σl은 영상에서의 모호성 정도를 나타낸다.
here
Figure PCTKR2013012102-appb-I000001
Is the observation in the current image, m l is the
Figure PCTKR2013012102-appb-I000002
Three-dimensional coordinates from the previous image corresponding to
Figure PCTKR2013012102-appb-I000003
Is the i-th camera motion particle, σ l is the degree of ambiguity in the image.
수학식 1을 통해, 가중치는 현재 영상에서의 관측치와 그에 대응되는 이전 영상에서의 관측치 간 차의 절대값이 기준 미만인 개수로 볼 수 있다.Through Equation 1, the weight may be regarded as a number in which the absolute value of the difference between the observation in the current image and the observation in the previous image corresponding thereto is less than the reference.
S130단계에서 모든 카메라 움직임 입자들에 대해 가중치가 계산되면, 계산된 가중치를 기초로 S120단계에서 생성된 카메라 움직임 입자들 중 일부만을 선별한다(S140).When the weights are calculated for all camera motion particles in step S130, only some of the camera motion particles generated in step S120 are selected based on the calculated weights (S140).
즉, S140단계는, 본 실시예에 따른 카메라 위치 추정 방법에서 입자 필터로서 기능 하는 것으로 볼 수 있다. 유의할 점은 S140단계에서 선별되는 카메라 움직임 입자들의 개수는 1개가 아닌 복수이며, N개로 고정되어 있다는 점이다.That is, step S140 can be seen to function as a particle filter in the camera position estimation method according to the present embodiment. It should be noted that the number of camera motion particles selected in step S140 is not one but a plurality, and fixed to N.
다음, S140단계에서 선별된 N개의 카메라 움직임 입자들에 대한 신뢰도를 산출한다(S150). S150단계에서의 신뢰도(C)는, 아래의 수학식 2에 나타난 바와 같이, 선별된 N개의 카메라 움직임 입자들의 합으로 산출된다.Next, the reliability of the N camera motion particles selected in step S140 is calculated (S150). Reliability C in step S150 is calculated as the sum of the selected N camera motion particles, as shown in Equation 2 below.
수학식 2
Figure PCTKR2013012102-appb-M000002
Equation 2
Figure PCTKR2013012102-appb-M000002
이는, 주변 가능성(Marginal Likelihood)을 이용한 입자 필터에 대한 신뢰도를 평가하는 것으로 볼 수 있다.This can be seen as evaluating the reliability of the particle filter using marginal likelihood.
S150단계에서 산출된 신뢰도(C)가 임계치(Th) 이상인 경우(S160-Y), 현재 영상의 다음 영상에 대해, 순차적 위치 추정을 계속한다(S120 내지 S140).When the reliability C calculated in step S150 is equal to or greater than the threshold Th (S160-Y), sequential position estimation is continued for the next image of the current image (S120 to S140).
S150단계에서 산출된 신뢰도(C)가 임계치(Th) 이상인 경우는, 신뢰도가 높은 경우이기 때문이다. 임계치(Th)는 원하는 값으로 설정가능함은 물론, 필요와 상황에 따라 적응적으로 변경되도록 설정하는 것도 가능하다.This is because the reliability (C) calculated in step S150 is higher than or equal to the threshold value (Th). The threshold Th may be set to a desired value, or may be set to be adaptively changed according to needs and circumstances.
순차적 위치 추정이 계속되어, S130단계에서 선별된 카메라 움직임 입자들로부터 카메라 움직임 입자들을 다시 생성하고(S120), 생성된 카메라 움직임 입자들에 대해 가중치를 다시 계산하여(S130), 계산된 가중치를 기초로 S120단계에서 다시 생성된 카메라 움직임 입자들 중 일부만을 다시 선별한다(S140).Sequential position estimation is continued, and the camera motion particles are regenerated from the camera motion particles selected in step S130 (S120), the weights are recalculated for the generated camera motion particles (S130), and based on the calculated weights. In step S120, only some of the camera motion particles generated again are selected again (S140).
한편, S150단계에서 산출된 신뢰도(C)가 임계치(Th) 미만인 경우(S160-N), 현재 영상의 다음 영상에 대해 S110단계부터 재수행한다. 즉, 카메라의 위치를 전역 위치 추정으로 다시 추정한 후에, 순차적 위치 추정을 수행한다. 이는, 위치 추정을 초기화하고 새롭게 다시 수행하는 것으로 볼 수 있다.On the other hand, when the reliability (C) calculated in the step S150 is less than the threshold (Th) (S160-N), the next image of the current image is performed again from step S110. That is, after estimating the position of the camera again by global position estimation, sequential position estimation is performed. This can be seen as initializing the position estimate and performing a new one again.
S150단계에서 산출된 신뢰도(C)가 임계치(Th) 미만인 경우는, 순차적 위치 추정 결과에 대한 신뢰도가 낮은 경우로, 오차가 누적될 수 있어 이를 방지하기 위함이다.When the reliability (C) calculated in step S150 is less than the threshold (Th), the reliability of the sequential position estimation result is low, and the error may accumulate to prevent this.
도 3에는, 도 1에 도시된 방법에 따른 카메라 위치 추정 결과가 예시되어 있다. 도 3에서, 빨간선은 카메라의 실제 이동 경로이고, 파란선은 카메라 위치 추정 경로이다. 한편, 도 3에 도시된 검은점들은 신뢰도가 낮아, 전역 위치 추정부터 다시 시작된 위치들이다.3 illustrates a camera position estimation result according to the method illustrated in FIG. 1. In FIG. 3, the red line is the actual moving path of the camera, and the blue line is the camera position estimation path. Meanwhile, the dark spots shown in FIG. 3 have low reliability, and thus are positions that are restarted from the global position estimation.
도 4는 본 발명의 다른 실시예에 따른 로봇 시스템의 블럭도이다. 도 4에 도시된 바와 같이, 본 실시예에 따른 로봇 시스템(200)은, 카메라(210), 통신부(220), 프로세서(230), 구동부(240) 및 저장부(250)를 포함한다.4 is a block diagram of a robot system according to another embodiment of the present invention. As shown in FIG. 4, the robot system 200 according to the present exemplary embodiment includes a camera 210, a communication unit 220, a processor 230, a driver 240, and a storage unit 250.
카메라(210)는 촬영을 통해 영상을 생성하는 수단으로, 6 자유도의 카메라로 구현할 수 있지만, 그 종류와 위치에 대한 제한은 없다. 구동부(240)는 로봇 시스템(200)의 이동과 기타 다른 기능을 수행하는 수단이다.The camera 210 is a means for generating an image through photographing, but may be implemented as a camera having six degrees of freedom, but there is no limitation on the type and location thereof. The driver 240 is a means for performing the movement of the robot system 200 and other functions.
프로세서(230)는 카메라(210)에 의해 생성된 영상을 기반으로, 도 1에 도시된 위치 추정 알고리즘을 실행하여 카메라 위치(210)의 위치, 즉 로봇 시스템(200)의 위치를 추정한다.The processor 230 estimates the position of the camera position 210, that is, the position of the robot system 200, by executing the position estimation algorithm illustrated in FIG. 1 based on the image generated by the camera 210.
통신부(220)는 외부와 무선 통신을 위한 수단으로, 카메라(210)를 통해 촬영된 영상과 프로세서(230)에 의해 추정된 위치 정보는 물론 기타 다른 정보를 외부로 전송할 수 있다.The communicator 220 is a means for wirelessly communicating with the outside, and may transmit an image captured by the camera 210 and location information estimated by the processor 230 as well as other information to the outside.
저장부(250)는 카메라(210)에 의해 생성된 영상과, 프로세서(230)에 의해 추정된 위치 정보 등이 저장되고, 도 2에 도시된 위치 추정 알고리즘이 프로그램으로 저장된 저장매체이다.The storage unit 250 stores an image generated by the camera 210, position information estimated by the processor 230, and the like, and a position estimation algorithm illustrated in FIG. 2 is stored as a program.
도 4에서 제시한 로봇 시스템(200)은, 도 1에서 제시한 위치 추정 방법이 적용가능한 일 예에 불과하다. 도 1에 도시된 위치 추정 방법은, 도 4에서 제시한 로봇 시스템(200) 외에 다른 이동가능한 시스템(예를 들면, 차량)에 적용될 수 있음은 물론이다.The robot system 200 shown in FIG. 4 is just an example to which the position estimation method shown in FIG. 1 is applicable. The position estimation method shown in FIG. 1 may be applied to other movable systems (eg, vehicles) in addition to the robot system 200 shown in FIG. 4.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although the preferred embodiment of the present invention has been shown and described above, the present invention is not limited to the specific embodiments described above, but the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present invention.

Claims (8)

  1. 전역 위치 추정 기법으로 카메라의 위치를 추정하는 제1 추정단계;A first estimating step of estimating the position of the camera by a global position estimation technique;
    상기 제1 추정단계에서 추정된 위치로부터, 순차적 위치 추정 기법으로 카메라의 위치를 추정하는 제2 추정단계;A second estimating step of estimating the position of the camera from the position estimated in the first estimating step by a sequential position estimating technique;
    상기 제2 추정단계에서 추정된 위치에 대한 신뢰도를 산출하는 단계; 및Calculating a reliability of the position estimated in the second estimating step; And
    상기 산출단계에서 신뢰도가 기준 이상이면, 상기 제2 추정단계부터 재수행하는 단계;를 포함하는 것을 특징으로 하는 카메라 위치 추정 방법.And re-performing from the second estimating step if the reliability is equal to or greater than a reference value in the calculating step.
  2. 제 1항에 있어서,The method of claim 1,
    상기 산출단계에서 신뢰도가 기준 미만이면, 상기 제1 추정단계부터 재수행하는 단계;를 더 포함하는 것을 특징으로 하는 카메라 위치 추정 방법.And if the reliability is less than the reference in the calculating step, performing the process from the first estimation step again.
  3. 제 1항에 있어서,The method of claim 1,
    상기 제1 추정단계는,The first estimating step,
    이전 영상과 현재 영상 간에 특징점 매칭으로 찾은 대응점들을 이용하여, 상기 카메라의 위치를 추정하는 것을 특징으로 하는 카메라 위치 추정 방법.And estimating the position of the camera using the corresponding points found by matching the feature point between the previous image and the current image.
  4. 제 1항에 있어서,The method of claim 1,
    상기 제2 추정단계는,The second estimating step,
    상기 카메라의 움직임 입자들을 생성하는 단계; 및Generating moving particles of the camera; And
    상기 움직임 입자들 중 정해진 개수의 움직임 입자들을 선별하는 단계;를 포함하는 것을 특징으로 하는 카메라 위치 추정 방법.And selecting a predetermined number of moving particles from among the moving particles.
  5. 제 4항에 있어서,The method of claim 4, wherein
    상기 선별단계는,The screening step,
    상기 움직임 입자들의 가중치들을 계산하는 단계; 및Calculating weights of the moving particles; And
    상기 가중치들을 참조하여, 정해진 개수의 움직임 입자들을 선별하는 단계;를 포함하는 것을 특징으로 하는 카메라 위치 추정 방법.And selecting a predetermined number of moving particles with reference to the weights.
  6. 제 5항에 있어서,The method of claim 5,
    상기 가중치는,The weight is,
    현재 영상에서의 관측치 및 대응되는 이전 영상에서의 관측치 간 차의 절대값이 기준 미만인 개수인 것을 특징으로 하는 카메라 위치 추정 방법.And the absolute value of the difference between the observations in the current image and the corresponding observations in the previous image is less than a reference.
  7. 제 5항에 있어서,The method of claim 5,
    상기 산출단계는,The calculating step,
    상기 가중치들의 합을 상기 신뢰도로 산출하는 것을 특징으로 하는 카메라 위치 추정 방법.And calculating the sum of the weights as the reliability.
  8. 촬영을 통해 영상을 생성하는 카메라; 및A camera for generating an image through shooting; And
    상기 영상을 이용하여, 전역 위치 추정 기법으로 상기 카메라의 위치를 추정하고, 추정된 위치로부터 순차적 위치 추정 기법으로 상기 카메라의 위치를 추정하며, 추정된 위치에 대한 신뢰도가 기준 이상이면 상기 순차적 위치 추정 기법으로 상기 카메라의 위치를 다시 추정하는 프로세서;를 포함하는 것을 특징으로 하는 이동 시스템.Using the image, the position of the camera is estimated by a global position estimation technique, the position of the camera is estimated by the sequential position estimation technique from the estimated position, and the sequential position estimation when the reliability of the estimated position is higher than a reference. A processor for estimating the position of the camera again with a technique.
PCT/KR2013/012102 2013-12-03 2013-12-24 Method and mobile system for estimating camera location through generation and selection of particle WO2015083875A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20130148932A KR101483549B1 (en) 2013-12-03 2013-12-03 Method for Camera Location Estimation with Particle Generation and Filtering and Moving System using the same
KR10-2013-0148932 2013-12-03

Publications (1)

Publication Number Publication Date
WO2015083875A1 true WO2015083875A1 (en) 2015-06-11

Family

ID=52590700

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/012102 WO2015083875A1 (en) 2013-12-03 2013-12-24 Method and mobile system for estimating camera location through generation and selection of particle

Country Status (2)

Country Link
KR (1) KR101483549B1 (en)
WO (1) WO2015083875A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109323697A (en) * 2018-11-13 2019-02-12 大连理工大学 A method of particle fast convergence when starting for Indoor Robot arbitrary point
CN110998472A (en) * 2017-08-03 2020-04-10 日本电产新宝株式会社 Mobile object and computer program
CN112767476A (en) * 2020-12-08 2021-05-07 中国科学院深圳先进技术研究院 Rapid positioning system, method and application
CN112767476B (en) * 2020-12-08 2024-04-26 中国科学院深圳先进技术研究院 Rapid positioning system, method and application

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040167670A1 (en) * 2002-12-17 2004-08-26 Goncalves Luis Filipe Domingues Systems and methods for computing a relative pose for global localization in a visual simultaneous localization and mapping system
US20080065267A1 (en) * 2006-09-13 2008-03-13 Samsung Electronics Co., Ltd. Method, medium, and system estimating pose of mobile robots
US20100152945A1 (en) * 2008-12-17 2010-06-17 Samsung Electronics Co., Ltd. Apparatus and method of localization of mobile robot
WO2012093799A2 (en) * 2011-01-04 2012-07-12 Chon Young-Ill Total broadband health/safety management system using it communication equipment and ubiquitous network-independent special site and method thereof
WO2012124852A1 (en) * 2011-03-14 2012-09-20 (주)아이티엑스시큐리티 Stereo camera device capable of tracking path of object in monitored area, and monitoring system and method using same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100966875B1 (en) * 2006-09-26 2010-06-29 삼성전자주식회사 Localization method for robot by omni-directional image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040167670A1 (en) * 2002-12-17 2004-08-26 Goncalves Luis Filipe Domingues Systems and methods for computing a relative pose for global localization in a visual simultaneous localization and mapping system
US20080065267A1 (en) * 2006-09-13 2008-03-13 Samsung Electronics Co., Ltd. Method, medium, and system estimating pose of mobile robots
US20100152945A1 (en) * 2008-12-17 2010-06-17 Samsung Electronics Co., Ltd. Apparatus and method of localization of mobile robot
WO2012093799A2 (en) * 2011-01-04 2012-07-12 Chon Young-Ill Total broadband health/safety management system using it communication equipment and ubiquitous network-independent special site and method thereof
WO2012124852A1 (en) * 2011-03-14 2012-09-20 (주)아이티엑스시큐리티 Stereo camera device capable of tracking path of object in monitored area, and monitoring system and method using same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110998472A (en) * 2017-08-03 2020-04-10 日本电产新宝株式会社 Mobile object and computer program
CN109323697A (en) * 2018-11-13 2019-02-12 大连理工大学 A method of particle fast convergence when starting for Indoor Robot arbitrary point
CN109323697B (en) * 2018-11-13 2022-02-15 大连理工大学 Method for rapidly converging particles during starting of indoor robot at any point
CN112767476A (en) * 2020-12-08 2021-05-07 中国科学院深圳先进技术研究院 Rapid positioning system, method and application
CN112767476B (en) * 2020-12-08 2024-04-26 中国科学院深圳先进技术研究院 Rapid positioning system, method and application

Also Published As

Publication number Publication date
KR101483549B1 (en) 2015-01-16

Similar Documents

Publication Publication Date Title
CN109727288B (en) System and method for monocular simultaneous localization and mapping
CN107747941B (en) Binocular vision positioning method, device and system
CN107341814B (en) Four-rotor unmanned aerial vehicle monocular vision range measurement method based on sparse direct method
WO2017077925A1 (en) Method and system for estimating three-dimensional pose of sensor
WO2010005251A9 (en) Multiple object tracking method, device and storage medium
CN104778690A (en) Multi-target positioning method based on camera network
WO2022059955A1 (en) Posture determination system based on radar point clouds
CN110243390B (en) Pose determination method and device and odometer
WO2017099510A1 (en) Method for segmenting static scene on basis of image statistical information and method therefor
WO2011062430A2 (en) Adaptive object tracking method, system, and computer readable recording medium
CN113012224B (en) Positioning initialization method and related device, equipment and storage medium
WO2015083875A1 (en) Method and mobile system for estimating camera location through generation and selection of particle
CN115619826A (en) Dynamic SLAM method based on reprojection error and depth estimation
CN111273701A (en) Visual control system and control method for holder
WO2020014864A1 (en) Pose determination method and device, and computer readable storage medium
CN111815679B (en) Binocular camera-based trajectory prediction method during loss of spatial target feature points
CN112955712A (en) Target tracking method, device and storage medium
CN106683113A (en) Characteristic point tracking method and device
WO2011162309A1 (en) Object region extractor device, method, and program
CN112802112B (en) Visual positioning method, device, server and storage medium
WO2018131729A1 (en) Method and system for detection of moving object in image using single camera
CN114740854A (en) Robot obstacle avoidance control method and device
CN110705334A (en) Target tracking method, device, equipment and medium
WO2021095961A1 (en) Apparatus for controlling ptz camera and method therefor
CN113936042A (en) Target tracking method and device and computer readable storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13898583

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13898583

Country of ref document: EP

Kind code of ref document: A1