KR20180071962A - Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking - Google Patents

Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking Download PDF

Info

Publication number
KR20180071962A
KR20180071962A KR1020170173113A KR20170173113A KR20180071962A KR 20180071962 A KR20180071962 A KR 20180071962A KR 1020170173113 A KR1020170173113 A KR 1020170173113A KR 20170173113 A KR20170173113 A KR 20170173113A KR 20180071962 A KR20180071962 A KR 20180071962A
Authority
KR
South Korea
Prior art keywords
frame
dvs
camera
pose
transform
Prior art date
Application number
KR1020170173113A
Other languages
Korean (ko)
Other versions
KR102568695B1 (en
Inventor
쩡핑 지
릴롱 쉬
이빙 미쉘 왕
류현석
일리아 오브시안니코브
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20180071962A publication Critical patent/KR20180071962A/en
Application granted granted Critical
Publication of KR102568695B1 publication Critical patent/KR102568695B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

A dynamic vision sensor (DVS) pose estimation system comprises a sensor fusion-based DVS, a conversion estimator, an inertia measurement unit (IMU), and a camera pose estimator. The DVS detects DVS events and forms frames based on the number of DVS events. The conversion estimator estimates 3D conversion of a DVS camera based on an estimated depth and performs matching of confidence level values in a camera projection model to make at least one of the DVS events, detected during the first frame, correspond to a DVS event detected during the second frame. The IMU detects inertia movements of the DVS with respect to world coordinates between the first frame and second frame. The camera pose estimator combines information from a change of pose of the camera projection model between the first frame and second frame based on the estimated change and detected inertia movements of the DVS.

Description

다이나믹 비전 센서 트래킹을 위한 멀티스케일 웨이티드 매칭 및 센서 융합{MULTISCALE WEIGHTED MATCHING AND SENSOR FUSION FOR DYNAMIC VISION SENSOR TRACKING}[0001] MULTISCALE WEIGHTED MATCHING AND SENSOR FUSION FOR DYNAMIC VISION SENSOR TRACKING [0002]

본 발명은 다이나믹 비젼 센서(DVS)에 관한 것으로, 좀 더 상세하게는 DVS의 포즈를 추정하기 위한 장치 및 방법에 관한 것이다.The present invention relates to a dynamic vision sensor (DVS), and more particularly, to an apparatus and method for estimating a pose of a DVS.

DVS의 출력은 카메라가 감지하는 휘도의 이벤트에 기반하여 변한다. 일반적으로, DVS의 출력은, 각각의 이벤트가 특정한 상태, 즉 이미지 센서 어레이 및 휘도의 양 또는 음의 변화를 나타내는 이진 상태 내의 이벤트 위치와 관련된, 이벤트 스트림이다. 일정한 수의 DVS 이벤트들이 하나 이상의 이벤트들을 포함하는 픽셀 위치들이 0이 아니게 설정되고 다른 픽셀 위치들이 모두 0으로 설정되는 이미지를 형성하도록 샘플링된다. 각각의 0이 아닌 픽셀의 값은 상이한 기술들에 의해 결정될 수 있다. 예를 들어, 각각의 0이 아닌 픽셀은, 타임스탬프, 픽셀 코디네이트들, 및 최신 이벤트 상태 변화(즉, 휘도의 양의 변화는 +1, 휘도의 음의 변화는 -1)를 포함할 수 있는 벡터

Figure pat00001
에 의해 나타날 수 있다. 또는, 0이 아닌 픽셀은 그 위치에서 나타나는 이벤트들의 수 또는 최신 이벤트의 도달 시간에 의해 나타날 수 있다.The output of the DVS changes based on the event of the brightness sensed by the camera. In general, the output of the DVS is an event stream, with each event associated with a particular state, i. E., An event location within a binary state that represents a change in the amount or < / RTI > A certain number of DVS events are sampled to form an image in which pixel locations containing one or more events are set to non-zero and other pixel locations are all set to zero. The value of each non-zero pixel may be determined by different techniques. For example, each non-zero pixel may contain a time stamp, pixel coordinates, and the most recent event state change (i. E., A change in the amount of brightness is +1, a change in brightness is -1) vector
Figure pat00001
Lt; / RTI > Alternatively, a non-zero pixel may be indicated by the number of events appearing at that location or the arrival time of the latest event.

종래의 DVS는 시간이 통합되지 않은 비동기식 센서이므로, DVS 프레임들은 특정한 샘플링 시간 또는 프레임 통합 시간에 기초하여 형성되어야만 하고, 따라서 일시적으로 인접하는 프레임들 사이의 변화들은 추정 카메라 움직임과 비교될 수 있다. DVS 카메라 움직임 또는 트래킹과 관련된 큰 어려움들은: (1) 각각의 DVS 프레임 내의 특징들은 희박하고 크게 변형될 수 있으므로, 특징 기반 이미지 매칭은 어려울 수 있고, (가능하다고 하더라도) 움직임 추정 정확도를 취약하게 할 수 있고, 또한, (2) 주요 특징들의 추출 부족으로 인해, DVS의 움직임을 통해 대응하는 랜드마크들을 사용할 수 없다는 것이다. 따라서, 카메라의 움직임 또는 포즈의 현재 추정을 대조 검토하기 어렵고, 센서 움직임 추정 편차를 감소시키기 위해 랜드마크들을 참조하기 어려울 수 있다.Since the conventional DVS is an asynchronous sensor with no time integration, DVS frames have to be formed based on a specific sampling time or frame integration time, so that changes between temporally adjacent frames can be compared with the estimated camera motion. The major difficulties associated with DVS camera motion or tracking are: (1) features within each DVS frame may be sparse and highly deformable, so that feature-based image matching may be difficult and may impair motion estimation accuracy And (2) due to the lack of extraction of key features, the corresponding landmarks can not be used through the movement of the DVS. Thus, it is difficult to contrast the current estimates of camera motion or pose, and it may be difficult to refer to landmarks to reduce sensor motion estimation variance.

본 발명의 실시 예는 센서 융합에 기초하여 DVS, 3D 변환 추정기, 관성 측정부 및 카메라 포즈 추정기를 제공할 수 있다.An embodiment of the present invention can provide a DVS, a 3D conversion estimator, an inertial measurement unit, and a camera pose estimator based on sensor fusion.

DVS는 DVS 이벤트 들을 검출하고, 축적된 이벤트들의 수에 기초하여 프레임들을 형성할 수 있다. 변환 추정기는 추정된 깊이 및 카메라 모델 내의 신뢰 수준 값들의 매칭에 기초하여 3D 변환을 추정하여, 제 1 프레임 동안 검출된 복수의 DVS 이벤트 중 적어도 하나는 제 1 프레임 다음에 오는 제 2 프레임 동안 검출된 DVS 이벤트에 대응하도록 할 수 있다. 관성 측정부는 제 1 및 제 2 프레임들 사이에서 세계 좌표들에 대한 DVS의 관성 움직임들을 검출할 수 있다. 카메라 포즈 추정기는 추정된 변환 및 검출된 관성 움직임들에 기초하여 제 1 프레임 및 제 2 프레임 사이에서 DVS 카메라의 포즈의 변화로부터의 정보를 결합할 수 있다. 일 실시 예에서, 카메라 포즈 추정기는 추정된 변환에 기초한 제 1 프레임 및 제 2 프레임 사이에서 변환 모델의 포즈에서의 추정된 변화를 정정하기 위한 검출된 DVS의 관성 움직임들을 사용할 수 있다. 일 실시 예에서, 변환 추정기는 깊이를 추정하고, 복수의 프레임 통합 시간에 대해 제 1 및 제 2 프레임들에 대한 카메라 프로젝션 모델을 매칭 시킬 수 있고, 또한 변환 추정기는 제 2 프레임 통합 시간에 대응하는 제 1 프레임 및 제 2 프레임 사이에서 카메라 포즈에서의 변화의 추정에 기초하여 제 1 프레임 통합 시간에 대응하는 제 1 프레임 및 제 2 프레임 사이에서 카메라 포즈에서의 변화의 제 1 추정을 정정할 수 있다. 일 실시 예에서, 변환 추정기는The DVS can detect DVS events and form frames based on the number of accumulated events. The transform estimator estimates the 3D transform based on the matching of the estimated depth and the confidence level values in the camera model so that at least one of the plurality of DVS events detected during the first frame is detected during the second frame following the first frame It is possible to correspond to the DVS event. The inertial measurement unit may detect inertial movements of the DVS for world coordinates between the first and second frames. The camera pose estimator may combine information from a change in the pose of the DVS camera between the first frame and the second frame based on the estimated transform and detected inertial movements. In one embodiment, the camera pose estimator may use inertial motions of the detected DVS to correct for an estimated change in the pose of the transformation model between the first frame and the second frame based on the estimated transformation. In one embodiment, the transform estimator may estimate the depth, match the camera projection model for the first and second frames for a plurality of frame integration times, and the transform estimator may also estimate The first estimate of the change in the camera pose between the first frame and the second frame corresponding to the first frame integration time based on the estimation of the change in the camera pose between the first frame and the second frame . In one embodiment, the transform estimator

Figure pat00002
Figure pat00002

에 기초하여 변환을 추정할 수 있고,

Figure pat00003
는 인덱스이고,
Figure pat00004
는 검출된 DVS 이벤트이고,
Figure pat00005
는 DVS 이벤트(
Figure pat00006
)에 대한 신뢰 수준 값(스칼라) 이고,
Figure pat00007
는 프레임 이고,
Figure pat00008
는 프레임 인덱스이고,
Figure pat00009
는 DVS에 대한 카메라 프로젝션 모델이고,
Figure pat00010
은 DVS에 대한 카메라 프로젝션 모델의 역수 이고,
Figure pat00011
는 카메라 프로젝션 모델(
Figure pat00012
) 내의 검출된 이벤트(
Figure pat00013
)에 대응하는 벡터고,
Figure pat00014
는 세계 좌표에서 상기 DVS 이벤트(
Figure pat00015
)의 (3D) 깊이이고,
Figure pat00016
는 프레임
Figure pat00017
및 프레임
Figure pat00018
사이의 세계 좌표들에 기초한 복수의 가능한 벡터 변환들 중 하나이다.Lt; RTI ID = 0.0 > 1, < / RTI >
Figure pat00003
Is an index,
Figure pat00004
Is a detected DVS event,
Figure pat00005
DVS event (
Figure pat00006
(Scalar), < / RTI >
Figure pat00007
Is a frame,
Figure pat00008
Is a frame index,
Figure pat00009
Is a camera projection model for DVS,
Figure pat00010
Is the reciprocal of the camera projection model for DVS,
Figure pat00011
Is a camera projection model
Figure pat00012
The detected event (
Figure pat00013
), ≪ / RTI >
Figure pat00014
Lt; RTI ID = 0.0 > DVS < / RTI &
Figure pat00015
(3D) depth,
Figure pat00016
Frame
Figure pat00017
And frame
Figure pat00018
Lt; / RTI > is one of a plurality of possible vector transformations based on world coordinates between.

일 실시 예는 DVS 이벤트들을 검출하는 단계; 카메라의 추정된 깊이에 기초하여 DVS 카메라의 변환을 추정하고, 카메라 프로젝션 모델 내의 신뢰 수준 값들을 매칭하여 제 1 프레임 동안 관측된 복수의 DVS 이벤트 중 적어도 하나는 제 2 프레임 동안 검출된 DVS 이벤트에 대응하도록 하고, 제 2 프레임은 제 1 프레임 다음에 오는 단계; 제 1 및 제 2 프레임들 사이에서 세계 좌표들에 대한 DVS의 관성 움직임들을 검출하는 단계; 및 추정된 변환 및 검출된 DVS의 관성 움직임들에 기초하여, 제 1 프레임 및 제 2 프레임 사이에서 카메라 포즈의 변화를 추정하는 단계를 포함할 수 있는 DVS의 포즈를 추정하는 방법을 제공한다.One embodiment includes detecting DVS events; At least one of the plurality of DVS events observed during the first frame matches the DVS event detected during the second frame by matching the confidence level values in the camera projection model based on the estimated depth of the camera, And the second frame follows the first frame; Detecting inertial movements of the DVS for world coordinates between the first and second frames; And estimating a change in the camera pose between the first frame and the second frame based on the estimated transform and the inertial movements of the detected DVS.

일 실시 예는 멀티 스케일 시간 방식에 기초하여 DVS, 변환 추정기, 및 카메라 포즈 추정기 포즈 추정기를 포함할 수 있는 DVS 포즈 추정 시스템을 제공한다. DVS는 DVS 카메라에 대한 카메라 프로젝션 모델 내의 DVS 이벤트들을 검출할 수 있다. 변환 추정기는 추정된 깊이 및 카메라 프로젝션 모델의 신뢰 수준 값들의 매칭에 기초하여, 카메라의 변환을 추정하여 제 1 프레임 동안 검출된 복수의 DVS 이벤트 중 적어도 하나가 적어도 두 프레임 통합 시간들에 대한 제 2 프레임 동안 검출된 DVS 이벤트에 대응하고, 제 2 프레임은 각각의 프레임 통합 시간에 대해 제 1 프레임 다음에 오도록 할 수 있다. 카메라 포즈 추정기는 추정된 변환에 디초하여 복수의 프레임 통합 시간 중 적어도 둘에 대해 제 1 프레임 및 제 2 프레임 사이에서 카메라의 포즈에서의 변화를 추정할 수 있고, 카메라 포즈 추정기는 추가적으로 제 1 프레임 통합 시간이 제 2 프레임 통합 시간보다 길 때, 제 2 프레임 통합 시간에 대해 제 1 프레임 및 제 2 프레임 사이에서 카메라의 포즈에서의 변화의 추정에 기초하여 제 1 통합 시간에 대해 제 1 프레임 및 제 2 프레임 사이에서 카메라의 포즈에서의 변화의 추정을 정정할 수 있다.One embodiment provides a DVS pose estimation system that may include a DVS, a transform estimator, and a camera pose estimator pose estimator based on a multi-scale time scheme. The DVS can detect DVS events within the camera projection model for the DVS camera. The transform estimator estimates a transformation of the camera based on the matching of the confidence level values of the camera projection model and the estimated depth to determine that at least one of the plurality of DVS events detected during the first frame is the second A DVS event detected during the frame, and a second frame following the first frame for each frame integration time. The camera pose estimator may estimate the change in the pose of the camera between the first frame and the second frame for at least two of the plurality of frame integration times, When the time is longer than the second frame integration time, for the first integration time, based on the estimation of the change in the pose of the camera between the first frame and the second frame for the second frame integration time, It is possible to correct the estimation of the change in the pose of the camera between frames.

본 발명의 실시 예에 따르면, DVS의 포즈를 정확하게 추정하기 위한 장치 및 방법이 제공될 수 있다.According to an embodiment of the present invention, an apparatus and method for accurately estimating a pose of a DVS can be provided.

도 1은 본 명세서에서 개시된 주제에 따른, DVS 포즈 추정 시스템의 블록도를 도시한다.
도 2는 본 명세서에서 개시된 주제에 따른, 동일한 DVS 이벤트 스트림 또는 동일한 관성 측정부 출력 데이터 스트림에 대한 두 개의 예시적인 동시 프레임 통합 시간들을 도시한다.
도 3은 신뢰 수준 값(

Figure pat00019
)이 일 실시 예에서 결정될 수 있는 방법을 도시한다.
도 4는 본 명세서에서 개시된 주제에 따른, DVS 카메라 포즈를 추정하는 예시적인 프로세스를 도시한다.
도 5는 본 명세서에서 개시된 주제에 따른, DVS 포즈 추정 시스템을 포함하는 하나 이상의 집적 회로들(칩들)을 포함하는 전자 장치를 도시한다.
도 6은 본 명세서에서 개시된 주제에 따른, DVS 포즈 추정 시스템을 포함할 수 있는 메모리 시스템을 도시한다.Figure 1 shows a block diagram of a DVS pose estimation system according to the subject matter disclosed herein.
FIG. 2 illustrates two exemplary simultaneous frame integration times for the same DVS event stream or the same inertial measurement section output data stream, according to the subject matter disclosed herein.
Figure 3 shows the confidence level value
Figure pat00019
) Can be determined in one embodiment.
4 illustrates an exemplary process for estimating a DVS camera pose, in accordance with the subject matter disclosed herein.
FIG. 5 illustrates an electronic device comprising one or more integrated circuits (chips) including a DVS pose estimation system, according to the subject matter disclosed herein.
Figure 6 illustrates a memory system that may include a DVS pose estimation system, in accordance with the subject matter disclosed herein.

이하의 본문에서, 다양한 상세한 설명들은 본문의 이해를 제공하기 위하여 제시된다. 그러나 이러한 상세한 설명 없이 기재된 본 발명의 사상이 당업자에 의해 용이하게 구현될 수 있음은 잘 이해될 것이다. 다른 예에서, 잘 알려진 방법들, 절차들, 구성들, 및 회로들은 본문을 모호하게 하지 않기 위하여 설명되지 않는다.In the following text, the various detailed descriptions are presented to provide an understanding of the text. It will be appreciated, however, that the spirit of the invention disclosed without this detailed description can be readily implemented by those skilled in the art. In other instances, well-known methods, procedures, structures, and circuits have not been described so as not to obscure the text.

상세한 설명에서 "하나의 실시 예" 또는 "일 실시 예"를 참조하는 것은 실시 예와 연관된 특정한 특징, 구조, 또는 특성이 본문의 적어도 하나의 실시 예에 포함될 수 있음을 의미한다. 즉, 본문의 다양한 위치에서 사용되는 "하나의 실시 예에서" 또는 "일 실시 예에서" 또는 "하나의 실시 예에 따라" 또는 유사한 의미를 갖는 다른 표현들은 동일한 실시 예를 참조하는 것을 요구하지 않는다. 더욱이, 특정한 특징들, 구조들, 또는 특성들은 적절한 방식으로 하나 또는 그 이상의 실시 예들에서 조합될 수 있다. 이것과 관련하여, 본 명세서에서 사용된 바와 같이, “예시적인”은 “예, 예시, 또는 도면으로서 제공되는 것”을 의미한다. 또는, 본문에서 언급된 내용에 따라, 단수 용어는 복수의 형태를 포함하고, 복수 용어는 단수 형태를 포함할 수 있다. 구성 도면들을 포함하는 다양한 도면들은 오직 설명의 목적을 위하여 본문에서 언급되고, 도시되며, 정량화되지 않는다. 예를 들어, 몇몇 구성요소들의 차수들은 명확성을 위하여 다른 구성 요소들에 보다 과장될 수 있다. 또한, 적절하게 고려될 경우, 참조 번호들은 대응하는 및/또는 유사한 구성요소들을 지시하기 위한 도면들 사이에서 반복될 수 있다.Reference in the specification to "one embodiment" or "one embodiment" means that a particular feature, structure, or characteristic associated with the embodiment may be included in at least one embodiment of the text. That is, the terms " in one embodiment "or" in one embodiment "or" according to one embodiment "or similar expressions used in various places in the text do not require reference to the same embodiment . Moreover, the particular features, structures, or characteristics may be combined in any suitable manner in one or more embodiments. In this regard, as used herein, the word " exemplary " means " serving as an example, instance, or illustration. Alternatively, in accordance with what is stated in the text, the singular terms include plural forms, and the plural terms may include singular forms. The various figures, including the construction drawings, are mentioned, illustrated and not quantified in the text for purposes of illustration only. For example, the order of some components may be exaggerated for other components for clarity. Also, where properly considered, reference numerals may be repeated among the figures to indicate corresponding and / or like elements.

본 명세서에서 사용된 용어들은 단지 특정한 실시 예들을 설명하기 위한 것이고, 본 발명을 제한하려는 것으로 의도되지 않았다. 본 명세서에서 사용된 바와 같이, 문맥상 명백하게 다르게 뜻하지 않는 한, 단수 형태 “하나”는 복수의 형태도 포함하는 것으로 의도된다. “구성되는”, “구성되고 있는”, “포함하는”, 그리고 “포함하고 있는” 용어들이 본 명세서에서 사용될 때, 이러한 용어들은 정해진 특징들, 정수들, 단계들, 동작들, 요소들, 그리고/또는 성분들이 존재를 명시하나, 하나 또는 그 이상의 다른 특징들, 정수들, 단계들, 동작들, 요소들, 성분들, 그리고/또는 그것들의 그룹들의 추가 또는 존재를 불가능하게 하지 않는다. "제1", "제2"와 같은 용어들은 앞서 설명된 구성에 대한 라벨로써 사용되고, 별도의 정의가 없는 한 특정한 순서(예를 들어, 공간적, 시간적, 논리적, 등)를 의도하는 것은 아니다. 더욱이, 동일한 참조 번호들은 동일하거나 또는 유사한 기능을 갖는 부분들, 구성들, 블록들, 회로들, 유닛들, 또는 모듈들을 지칭하기 위하여 둘 이상의 도면들에 걸쳐 사용될 수 있다. 그러나 이러한 사용은 단순히 설명의 간결성 및 편의를 위한 것이며, 이러한 구성들 및 유닛들의 구성 또는 구조적인 세부 사항들이 모든 실시 예들 또는 공통적으로 참조되는 부분들/모듈들에서 동일한 것으로 의도되지 않으며, 단순히, 본 발명의 특정 실시 예들을 지칭하기 위한 하나의 수단이다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. As used herein, the singular form " a " is intended to include plural forms unless the context clearly dictates otherwise. When used in this specification, terms such as " comprising, " " comprising, " / Or the components specify presence, but do not preclude the addition or presence of one or more other features, integers, steps, operations, elements, components, and / or groups thereof. Terms such as " first "and" second "are used as labels for the configurations described above and are not intended to be in any particular order (e.g., spatial, temporal, logical, etc.) unless otherwise defined. Moreover, the same reference numbers may be used throughout the two or more drawings to refer to parts, structures, blocks, circuits, units, or modules having the same or similar function. It is to be understood, however, that such use is merely for brevity's sake of simplicity and convenience, and that the organization and structural details of such arrangements and units are not intended to be identical in all embodiments or commonly referenced parts / Is one means for designating certain embodiments of the invention.

다르게 정의되지 않는 한, 본 명세서에서 사용된 모든 용어들(기술적 그리고 과학적 용어들을 포함하는)은 본 발명이 속한 기술 분야에서 당업자에 의해 일반적으로 이해되는 동일한 의미를 갖는다. 일반적으로 사용되는 사전에 정의된 이러한 용어들은 본 명세서 그리고/또는 관련 기술의 문맥에서 그들의 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의되지 않는 한 이상화되거나 지나지게 형식적인 감각으로 해석되지 않아야 한다.Unless otherwise defined, all terms (including technical and scientific terms) used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. These commonly used predefined terms are to be interpreted as having a meaning consistent with their meaning in the context of this specification and / or the related art, and are to be interpreted as being idealized or overly formal, unless explicitly defined herein It should not be interpreted.

본문에서 사용되는 바와 같이, “모듈” 이라는 용어는, 모듈과의 연결에 있어 본 명세서에서 설명된 기능을 제공하도록 구성된 소프트웨어, 펌웨어, 및/또는 하드웨어의 임의의 조합을 지칭한다. 본 명세서에서 기술된 어느 구현에 적용되는 용어로서, “소프트웨어” 는 소프트웨어 패키지, 코드 및/또는 명령 세트 또는 명령들로서 구현될 수 있다. 본 명세서에서 기술된 어느 구현에 적용되는 용어로서, “하드웨어”는, 예로서, 단독으로 또는 임의의 조합으로, 유선 회로, 프로그래밍 가능한 회로, 상태 기계 회로, 및/또는 프로그래밍 가능한 회로에 의해 실행되는 명령들을 저장하는 펌웨어를 포함할 수 있다. 모듈들은, 집합적으로 또는 개별적으로, 소ㅡ트웨어, 집적회로(IC) 및 시스템 온 칩(SoC) 등과 같은, 하지만 이에 한정되지 않는, 더 큰 시스템의 부분을 구성하는 펌웨어 및/또는 하드웨어로서 구현될 수 있다.As used herein, the term " module " refers to any combination of software, firmware, and / or hardware configured to provide the functions described herein in connection with the module. As applied to any of the implementations described herein, the term " software " may be embodied as a software package, code, and / or a set of instructions or instructions. As applied to any implementation described herein, the term " hardware " is intended to encompass all types of circuitry, such as, by way of example, singly or in any combination, implemented by wired circuitry, programmable circuitry, state machine circuitry, and / Firmware that stores instructions. The modules may be implemented as firmware and / or hardware that constitutes part of a larger system, such as, but not limited to, software, integrated circuit (IC) and system on chip .

본 명세서에 개시된 주제는, 적응적 샘플링 시간을 갖고 카메라의 깊이 추정기 및 카메라 프로젝션 모델 내 검출된 이벤트들 사이에서의 시간적 상관관계의 컨피던스 맵의 매칭에 기초한 DVS 카메라의 포즈 추정을 제공하는 다이나믹 비전 센서(이하, DVS) 포즈 추정 시스템과 관련된다. 컨피던스 맵에 기초하여, DVS의 포즈 및 위치를 추정하기 위해 두 프레임들 사이에서 강조 이미지(weighted image) 매칭이 수행된다. 컨피던스 맵에 기초한 강조 이미지 매칭은, 종래의 매칭 기술에 비해 많은 수의 프레임들을 통해 더 뛰어난 매칭 정확도를 제공한다. 즉, 로컬 특징들은 DVS 프레임들에서 드물고 매우 변형적이기 때문에, 로컬 특징들의 매칭에 기반한 벤치마크 트래킹 시스템은 적절하지 않고, 글로벌 맵에 대한 참조가 부족할 수 있고, 이로 인해 추정 편차가 발생한다. 본 명세서에 개시된 주제는, 추정된 카메라 포즈들의 가능성을 최대로 하고, 추정 편차를 줄이기 위해 멀티스케일 시간 해상도 기술을 사용한다. 시스템 발산 및 시간 통합 편차를 추가로 방지하기 위해, 관성 측정부 센서는 시스템 정확도를 최적화하기 위해 DVS와 통합될 수 있다.The subject matter disclosed herein relates to a dynamic vision sensor that provides a pose estimation of a DVS camera based on matching of a depth map of a camera with an adaptive sampling time and a confidence map of temporal correlation between detected events in a camera projection model (DVS) pose estimation system. Based on the confidence map, weighted image matching is performed between the two frames to estimate the pose and position of the DVS. Enhanced image matching based on a confidence map provides greater matching accuracy over a larger number of frames than conventional matching techniques. That is, the benchmark tracking system based on the matching of local features is not appropriate, and there may be a lack of reference to the global map, because the local features are rare and highly variant in DVS frames, resulting in estimation variances. The subject matter disclosed herein uses multiscale temporal resolution techniques to maximize the likelihood of estimated camera poses and to reduce estimation variance. To further prevent system divergence and time integration deviations, inertial sensor sensors can be integrated with DVS to optimize system accuracy.

본 명세서에 개시된 주제는, DVS 카메라 트래킹을 위한 센서 융합 및 프레임들 사이의 멀티 스케일 강조 매칭을 제공하는 DVS 트래킹 시스템도 제공한다. 일 실시 예에서, 멀티 스케일 매칭 기술은 DVS 프레임들 전반의 높은 특징/이벤트 변화들에 의해 발생할 수 있는 DVS 포즈 추정 에러를 줄이는데 사용된다. 시스템 발산을 피하고, 시간 통합 편차를 줄이고, 트래킹 정확도들을 최적화하기 위해, IMU 센서 데이터는 DVS 포즈 추정에 포함될 수 있다.The subject matter disclosed herein also provides a DVS tracking system that provides sensor fusion for DVS camera tracking and multi-scale highlight matching between frames. In one embodiment, a multi-scale matching technique is used to reduce DVS pose estimation errors that may be caused by high feature / event changes across DVS frames. To avoid system divergence, reduce time integration deviations, and optimize tracking accuracy, IMU sensor data may be included in the DVS pose estimation.

일 실시 예에서, 컨피던스 맵의 이미지 표현에 기반한 강조 이미지 매칭 기술은 더 좋은 DVS 이미지 인식 및 DVS 슬램(Simultaneous Localization and Mapping; SLAM)을 제공하는 더 높은 매칭 정확도로 이어진다. 또한, 멀티스케일 이미지 매칭 기술은 DVS 포즈 추정 에러를 감소시킨다. DVS 포즈 추정 시스템 및 IMU 센서의 융합은 시스템 발산을 더 피하고, 시간 통합 편차를 줄이고, 트래킹 정확도들을 최적화할 수 있다.In one embodiment, the enhanced image matching technique based on the image representation of the confidence map leads to a higher matching accuracy that provides better DVS image recognition and DVS slams (Simultaneous Localization and Mapping; SLAM). In addition, the multi-scale image matching technique reduces the DVS pose estimation error. The convergence of the DVS pose estimation system and the IMU sensor further avoids system divergence, reduces time integration deviations, and optimizes tracking accuracy.

도 1은 본 명세서에서 개시된 주제에 따른, DVS 포즈 추정 시스템(100)의 블록도를 도시한다. 시스템(100)은 DVS(101), 프레임 셰이퍼(102), 변환 추정기(103), 카메라 포즈 추정기(104), 관성 운동부(Inertial movement unit; IMU, 105), 및 통합기(106)를 포함한다. 도 1에 도시된 다양한 블록들은 물리 하드웨어 모듈들, 소프트웨어 모듈들 또는 물리 하드웨어 모듈들 및 소프트웨어 모듈들의 조합(펌웨어)로서 구현될 수 있는 것으로 이해되어야 한다.1 shows a block diagram of a DVS pose estimation system 100 according to the subject matter disclosed herein. The system 100 includes a DVS 101, a frame shaper 102, a transform estimator 103, a camera pose estimator 104, an inertial movement unit (IMU) 105, and an integrator 106 . It should be understood that the various blocks shown in FIG. 1 may be implemented as physical hardware modules, software modules, or a combination (firmware) of physical hardware modules and software modules.

DVS(101)는 DVS(101)의 시야 내의 DVS 이벤트들을 검출한다. DVS(101)의 시야는 DVS(101)에 대한 카메라 프로젝션 모델

Figure pat00020
에 의해 모델링 될 수 있다. DVS(101)은 DVS 이벤트 데이터 스트림(107)을 프레임 셰이퍼(102)로 출력한다. DVS(101) 데이터 스트림(107)은, 각각의 이벤트가 특정한 상태, 즉 이미지 센서 어레이 내의 이벤트 위치 및 휘도의 양 또는 음의 변화를 나타내는 이진 상태와 관련된 이벤트들의 스트림을 포함한다.The DVS 101 detects DVS events in the field of view of the DVS 101. The field of view of the DVS 101 is the camera projection model for the DVS 101
Figure pat00020
Lt; / RTI > The DVS 101 outputs the DVS event data stream 107 to the frame shaper 102. The DVS 101 data stream 107 includes a stream of events associated with a binary state in which each event indicates a particular state, i.e., an event location within the image sensor array and a change in the amount or the brightness of the luminance.

프레임 셰이퍼(102)는, DVS 이벤트 데이터 스트림(107)에 적용되는 프레임 통합 시간을 설정하는 프레임 선택 정보(108)를 수신한다. 본 명세서에서 사용되는 바와 같이, 용어 “프레임 통합 시간”은, 프레임을 형성하기 위해 DVS 이벤트들이 모이고 함께 결합되는 선택 가능한 기간을 나타낸다. 예를 들어, 일 실시 예에서 50ms의 프레임 통합 시간이 선택될 수 있고, DVS 이벤트들은 각각의 50ms의 기간 동안 모이고 동일한 프레임에 있도록 결합된다. 다른 실시 예에서, 100ms의 프레임 통합 시간이 선택될 수 있고, DVS 이벤트들은 각각의 100ms의 기간 동안 모이고 동일한 프레임에 있도록 결합된다. 50ms 또는 100ms와 다른 프레임 통합 시간들이 가능하다는 것이 이해되어야 한다. 또한, 일 실시 예에서, 적어도 두 개의 프레임 통합 시간들이 동시에 선택될 수 있다.The frame shaper 102 receives frame selection information 108 that sets the frame integration time applied to the DVS event data stream 107. As used herein, the term " frame integration time " refers to a selectable time period during which DVS events are gathered and combined together to form a frame. For example, in one embodiment a frame integration time of 50 ms may be selected and the DVS events are combined for the duration of each 50 ms and combined to be in the same frame. In another embodiment, a frame integration time of 100 ms may be selected and the DVS events are combined for the duration of each 100 ms and combined to be in the same frame. It is to be understood that 50 ms or 100 ms and other frame integration times are possible. Also, in one embodiment, at least two frame integration times may be selected at the same time.

도 2는 본 명세서에서 개시된 주제에 따른, 동일한 DVS 이벤트 스트림 또는 동일한 IMU 출력 데이터 스트림에 대한 두 개의 예시적인 동시 프레임 통합 시간들을 도시한다. 도 2에 도시된 바와 같이, 50ms의 프레임 통합 시간 및 100ms의 프레임 통합 시간은 동시에 선택될 수 있고, DVS 이벤트들(및/또는 IMU 출력 데이터)은 두 개의 프레임 통합 시간들에 대응하는 프레임들과 동시에 결합될 수 있다. 다른 실시 예에서, 두 개 이상의 동시 프레임 통합 시간들이 선택될 수 있다.Figure 2 illustrates two exemplary simultaneous frame integration times for the same DVS event stream or the same IMU output data stream, according to the subject matter disclosed herein. 2, the frame integration time of 50 ms and the frame integration time of 100 ms can be selected at the same time, and the DVS events (and / or the IMU output data) can be synchronized with the frames corresponding to the two frame integration times Can be combined at the same time. In another embodiment, two or more concurrent frame integration times may be selected.

프레임 셰이퍼(102)는 선택된 각각의 프레임 통합 시간 동안 변환 추정기(103)로 DVS 이벤트들의 프레임들을 출력한다. 변환 추정기(103)는, 선택된 각각의 프레임 통합시간 동안 하나의 프레임으로부터 다음 프레임으로의 DVS 이벤트들의 변환을 추정한다. 추정 과정의 일부로서, 변환 추정기(103)는, 한 프레임에서 다른 프레임으로의 검출된 DVS 이벤트들 사이의 시간적인 상관관계에 기초하여 DVS(101)에 대한 카메라 프로젝션 모델(

Figure pat00021
) 내에서 컨피던스 맵을 생성한다. 프레임(
Figure pat00022
)내의 이벤트(
Figure pat00023
)가 물리적으로 이전 프레임(
Figure pat00024
) 내의 이벤트(
Figure pat00025
)에 대응하는 신뢰도를 나타내는, 이전 프레임(
Figure pat00026
)의 각각의 검출된 DVS 이벤트에 대해 프레임(
Figure pat00027
) 내의 각각의 검출된 DVS 이벤트에 대한 신뢰 수준 값(
Figure pat00028
)이 결정된다.The frame shaper 102 outputs frames of DVS events to the transform estimator 103 for each selected frame integration time. The transform estimator 103 estimates the transformation of the DVS events from one frame to the next for each selected frame integration time. As part of the estimation process, the transform estimator 103 estimates the camera projection model for the DVS 101 based on the temporal correlation between the detected DVS events from one frame to another
Figure pat00021
) To generate a confidence map. frame(
Figure pat00022
) Within the
Figure pat00023
) Physically moves to the previous frame (
Figure pat00024
) Within the
Figure pat00025
≪ / RTI > representing the reliability of the previous frame < RTI ID = 0.0 &
Figure pat00026
For each detected DVS event of frame < RTI ID = 0.0 >
Figure pat00027
) ≪ / RTI > for each detected DVS event
Figure pat00028
) Is determined.

도 3은 일 실시 예에서 신뢰 수준 값(

Figure pat00029
)이 어떻게 결정될 수 있는지를 도시한다. 현재 프레임(
Figure pat00030
) 내의 이벤트(
Figure pat00031
)에 대해,FIG. 3 is a graph illustrating a confidence level value
Figure pat00029
) Can be determined. Current frame (
Figure pat00030
) Within the
Figure pat00031
)About,

Figure pat00032
Figure pat00032

위 식에서, N은 현재 프레임(

Figure pat00033
)의 시간 윈도(TW) 내의 이벤트(
Figure pat00034
)의 인접 영역에 나타나는 이벤트들의 수 이고, M은 이전 프레임(
Figure pat00035
)에서 신뢰된 것으로 결정된 이전 이벤트들의 수 이고, α는 상수 이고, 시간 간격에 의존하고, 프레임 의존적일 수 있다.
Figure pat00036
이 이미 결정된 문턱 값 이상일 경우, 이벤트(
Figure pat00037
)는 신뢰 수준 값(
Figure pat00038
)을 갖는 신뢰된 이벤트라고 결정된다.In the above equation, N is the current frame (
Figure pat00033
) In the time window TW
Figure pat00034
), M is the number of events appearing in the previous frame (
Figure pat00035
), ≪ / RTI > is a constant, may be time interval dependent, and may be frame dependent.
Figure pat00036
Is equal to or greater than the predetermined threshold value, the event (
Figure pat00037
) Is the confidence level value
Figure pat00038
≪ / RTI >

일 실시 예에서, 변환 추정기(103)는 아래 식에 기초하여, 한쌍의 시간적으로 연속한 프레임들에서 검출된 이벤트들의 변환을 추정한다.In one embodiment, the transform estimator 103 estimates the transformation of detected events in a pair of temporally successive frames, based on the following equation:

Figure pat00039
Figure pat00039

위 식에서,

Figure pat00040
는 인덱스이고,
Figure pat00041
는 검출된 DVS 이벤트이고,
Figure pat00042
는 DVS 이벤트(
Figure pat00043
)에 대한 신뢰 수준 값(스칼라) 이고,
Figure pat00044
는 프레임 이고,
Figure pat00045
는 프레임 인덱스이고,
Figure pat00046
는 DVS에 대한 카메라 프로젝션 모델이고,
Figure pat00047
은 DVS에 대한 카메라 프로젝션 모델의 역수 이고,
Figure pat00048
는 카메라 프로젝션 모델(
Figure pat00049
) 내의 검출된 이벤트(
Figure pat00050
)에 대응하는 벡터고,
Figure pat00051
는 세계 좌표에서 DVS 이벤트(
Figure pat00052
)의 (3D) 깊이이고,
Figure pat00053
는 프레임
Figure pat00054
및 프레임
Figure pat00055
사이의 세계 좌표들에 기초한 복수의 가능한 벡터 변환들 중 하나 이다. 변환 모델은 깊이(
Figure pat00056
) 및 카메라 프로젝션 모델(
Figure pat00057
) 내 신뢰 이벤트들(
Figure pat00058
)의 매칭에 기초하여 카메라의 3D 변환(즉,
Figure pat00059
)을 추정한다. 카메라 프로젝션 모델은 프레임의 위치들에 3D 세계 포인트들을 투사하기 위한 변환 매트릭스를 포함하지만, 카메라 프로젝션 모델의 변환 매트릭스는 카메라 캘리브레이션(calibration) 시 미리 고정될 수 있고, 카메라 동작 내내 바뀌지 않을 것이다. 그러므로, 카메라 프로젝션 변환은, 한 프레임으로부터 다음 프레임으로 움직이는 카메라에 대해 추정된 변환과는 상이하다.In the above equation,
Figure pat00040
Is an index,
Figure pat00041
Is a detected DVS event,
Figure pat00042
DVS event (
Figure pat00043
(Scalar), < / RTI >
Figure pat00044
Is a frame,
Figure pat00045
Is a frame index,
Figure pat00046
Is a camera projection model for DVS,
Figure pat00047
Is the reciprocal of the camera projection model for DVS,
Figure pat00048
Is a camera projection model
Figure pat00049
The detected event (
Figure pat00050
), ≪ / RTI >
Figure pat00051
Is the DVS event (
Figure pat00052
(3D) depth,
Figure pat00053
Frame
Figure pat00054
And frame
Figure pat00055
Lt; / RTI > is one of a plurality of possible vector transforms based on world coordinates between. The transformation model is a
Figure pat00056
) And camera projection model (
Figure pat00057
) My Trust Events (
Figure pat00058
) Of the camera based on the matching of the camera (i.e.,
Figure pat00059
). The camera projection model includes a transformation matrix for projecting 3D world points at locations of the frame, but the transformation matrix of the camera projection model may be fixed in advance during camera calibration and will not change throughout the camera motion. Therefore, the camera projection transformation is different from the estimated transformation for the camera moving from one frame to the next.

변환 추정기(103)는, 상이한 프레임 통합 시간을 갖는 각각의 이벤트 스트림에 대해 각각의 시간적으로 연속한 프레임들 쌍에 대한 변환을 추정한다. 즉, 하나의 프레임 통합 시간만이 선택된 경우, 변환 추정기(103)는, 변환 추정기(103)에 의해 수신된 하나의 이벤트 스트림 내의, 시간적으로 연속한 프레임들 각각의 쌍에 대한 변환을 추정한다. 둘 이상의 프레임 통합 시간들이 선택된 경우, 변환 추정기(103)는, 선택된 프레임 통합 시간에 대응하는 각각의 이벤트 스트림에 대해 시간적으로 연속한 프레임들 각각의 쌍에 대한 변환을 추정한다.The transform estimator 103 estimates the transform for each temporally contiguous pair of frames for each event stream having a different frame aggregation time. That is, if only one frame integration time is selected, the transform estimator 103 estimates the transform for each pair of temporally successive frames in one event stream received by the transform estimator 103. If more than one frame integration times are selected, the transform estimator 103 estimates the transform for each pair of temporally consecutive frames for each event stream corresponding to the selected frame integration time.

변환 추정기(103)는 추정된 변환(들)을 카메라 포즈 추정기(104)로 출력한다. 일 실시 예에서, 카메라 포즈 추정기(104)는, 이전 프레임에 기초하여 카메라 포즈를 조정하는 대신, 세계 좌표들 상의 맵에 대해 조정되어 있는 카메라 포즈를 추정하기 위해 추정된 변환(들)을 사용한다. 둘 이상의 프레임 통합 시간들이 선택된 경우, 카메라 포즈 추정기(104)는 상이한 프레임 통합 시간을 갖는 각각의 이벤트 스트림에 대한 카메라 포즈를 추정한다. 도 4는 본 명세서에서 개시된 주제에 따른, DVS 카메라 포즈를 추정하는 예시적인 프로세스를 도시한다. 도 4에서 현재 프레임(

Figure pat00060
) 및 이전 프레임(
Figure pat00061
)은 높은 신뢰도 수준을 갖는 것으로 결정된 DVS 이벤트(
Figure pat00062
)들을 포함하는 것으로 도시된다. 즉, 프레임(
Figure pat00063
) 내의 DVS 이벤트들(
Figure pat00064
,
Figure pat00065
Figure pat00066
)은, 프레임(
Figure pat00067
) 내의 DVS 이벤트들(
Figure pat00068
,
Figure pat00069
Figure pat00070
)에 대해 각각 높은 신뢰 수준을 갖는다. 변환(
Figure pat00071
)은 프레임(
Figure pat00072
) 및 프레임(
Figure pat00073
) 사이에서 결정된다. 변환(
Figure pat00074
)은 이벤트들을 세계 좌표들로 맵핑하는데 사용되고, 이 후 세계 좌표들에 기초하여 카메라 포즈(
Figure pat00075
,
Figure pat00076
Figure pat00077
) 추정하는데 사용된다. The conversion estimator 103 outputs the estimated conversion (s) to the camera pose estimator 104. In one embodiment, the camera pose estimator 104 uses the estimated transform (s) to estimate the camera pose being adjusted for the map on world coordinates, instead of adjusting the camera pose based on the previous frame . If more than one frame integration times are selected, the camera pose estimator 104 estimates a camera pose for each event stream having a different frame integration time. 4 illustrates an exemplary process for estimating a DVS camera pose, in accordance with the subject matter disclosed herein. 4,
Figure pat00060
) And the previous frame
Figure pat00061
) Is a DVS event (< RTI ID = 0.0 >
Figure pat00062
As shown in FIG. That is,
Figure pat00063
) ≪ / RTI >
Figure pat00064
,
Figure pat00065
And
Figure pat00066
) ≪ / RTI >
Figure pat00067
) ≪ / RTI >
Figure pat00068
,
Figure pat00069
And
Figure pat00070
), Respectively. conversion(
Figure pat00071
) Is a frame (
Figure pat00072
) And frame (
Figure pat00073
). conversion(
Figure pat00074
) Is used to map the events to world coordinates, and then the camera pose (
Figure pat00075
,
Figure pat00076
And
Figure pat00077
).

다시 도 1을 참조하면, IMU(105)는 DVS(101)에 물리적으로 연결되어 IMU(105)가 DVS(101)의 관성 움직임들을 검출하도록 한다. IMU(105)의 출력은 동일한 프레임 통합 시간(들)을 사용하고 프레임 셰이퍼(102)에 의해 사용되는 프레임 통합 시간(들)과 동기화된 통합기(106)에 의해 통합된다. 하나 보다 많은 프레임 통합 시간이 프레임 선택 정보(108)에 의해 선택된 경우, 통합기(106)는 각각의 선택된 프레임 통합 시간에 대한 IMU(105)의 출력을 동시에 통합한다(예로서, 도 2 참조).Referring again to FIG. 1, the IMU 105 is physically connected to the DVS 101 to allow the IMU 105 to detect inertial movements of the DVS 101. The output of the IMU 105 is integrated by the integrator 106 synchronized with the frame integration time (s) using the same frame integration time (s) and used by the frame shaper 102. When more than one frame integration time is selected by the frame selection information 108, the integrator 106 concurrently consolidates the output of the IMU 105 for each selected frame integration time (see, e.g., Figure 2) .

일 실시 예에서, 카메라 포즈 추정기(104)는 번환 추정기(103)로부터 추정된 변환을 수신하고 통합기(106)로부터 출력을 수신하며, 카메라 포즈 추정기(104)는 통합된 IMU(105)로부터 수신된 출력을 사용하여 DVS에 대한 추정된 포즈를 정정하고 업데이트 할 수 있다. 일 실시 예에서, 카메라 포즈 추정기(105)는, 수신된 추정된 변환 및 통합기(106)로부터 수신된 출력에 기초하여, DVS의 위치 및/또는 움직임을 추정하기 위해 통합기(106)로부터 수신된 출력도 사용할 수 있다.In one embodiment, the camera pose estimator 104 receives the estimated transforms from the turnaround estimator 103 and receives the output from the integrator 106, and the camera pose estimator 104 receives from the integrated IMU 105 Lt; RTI ID = 0.0 > DVS. ≪ / RTI > In one embodiment, the camera pose estimator 105 receives camera pose estimates 105 from the integrator 106 to estimate the position and / or motion of the DVS based on the received estimated transform and the output received from the integrator 106 The output can also be used.

다른 실시 예에서, 카메라 포즈 추정기(104)는 두 개의 상이한 프레임 통합 시간들에 기초하여 생성된 두 개의 추정된 변환들을 사용하여 추정된 포즈들을 정정하거나 업데이트 할 수 있다. 즉, 카메라 포즈 추정기(104)는, 50ms와 같은, 비교적 짧은 프레임 통합 시간에 기초하는 추정 변환을 사용하여, 100ms와 같은 비교적 긴 프레임 통합시간에 기초하는 변환에 기초한 추정된 포즈를 정정하거나 업데이트 할 수 있다. 예를 들어, 카메라 포즈 추정기(104)는, 50ms 통합 시간에 기초하는 매 네 번째 추정된 포즈를 사용하여 100ms 프레임 통합 시간에 기초하는 매 두 번째 추정된 포즈를 수정하거나 업데이트 할 수 있다(예로서, 도 2의 점선(201) 참조). 다른 실시 예에서, 카메라 포즈 추정기(104)는, 수신된 변환들 및 50ms와 같은 비교적 짧은 프레임 통합 시간에 기초한 통합기(106)로부터 수신된 출력을 사용하여, 수신된 변환들 및 100ms와 같은 비교적 긴 프레임 통합시간에 기초한 통합기(106)로부터 수신된 출력 으로부터의 DVS의 추정된 포즈, 추정된 포지션 및/또는 추정된 움직임을 정정하거나 업데이트 할 수 있다(예로서, 도 2 참조).In another embodiment, the camera pose estimator 104 may correct or update estimated pose using two estimated transforms that were generated based on two different frame integration times. That is, the camera pose estimator 104 uses the estimated transform based on the relatively short frame integration time, such as 50 ms, to correct or update the estimated pose based on the transform based on the relatively long frame integration time, such as 100 ms . For example, the camera pose estimator 104 may modify or update every second estimated pose based on a 100 ms frame integration time using every fourth estimated pose based on a 50 ms integration time (e.g., , See dotted line 201 in Fig. 2). In another embodiment, the camera pose estimator 104 may use the received transforms and the output received from the integrator 106 based on a relatively short frame integration time such as 50 ms, (E.g., see FIG. 2) the estimated pose, estimated position, and / or estimated motion of the DVS from the output received from the integrator 106 based on the long frame integration time.

도 5는 본 명세서에서 개시된 주제에 따른, DVS 포즈 추정 시스템을 포함하는 하나 이상의 집적 회로들(칩들)을 포함하는 전자 장치(500)를 도시한다. 전자 장치(500)는 컴퓨팅 장치, 개인 정보 단말기(PDA), 랩탑 컴퓨터, 모바일 컴퓨터, 웹 태블릿, 무선 전화기, 핸드폰, 스마트폰, 디지털 음원 재생기, 또는 유선 또는 무선 전자 장치에서 사용될 수 있으나, 이에 제한되지 않는다. 전자 장치(500)는 버스(550)를 통해 서로에게 연결된, 컨트롤러(510), 키패드, 키보트, 디스플레이 또는 터치 스크린 디스플레이와 같은, 하지만 이에 제한되지 않는, 입력/출력 장치(520), 메모리(530) 및 무선 인터페이스(540)를 포함할 수 있다. 예를 들어, 컨트롤러(510)는 적어도 하나의 마이크로 프로세서, 적어도 하나의 디지털 신호 프로세서, 적어도 하나의 마이크로 컨트롤러 등을 포함할 수 있다. 메모리(530)는 컨트롤러(510) 또는 사용자 데이터에 의해 사용되는 명령어 코드를 저장하도록 구성될 수 있다. 전자 장치(500) 및 전자 장치(500)를 포함하는 다양한 시스템 구성요소들은 본 명세서에 개시된 주제에 따른 DVS 포즈 추정 시스템을 포함할 수 있다. 전자 장치(500)은 RF 신호를 사용하는 무선 통신 네트워크로 데이터를 송신하거나 무선 통신 네트워크로부터 데이터를 수신하도록 구성된 무선 인터페이스(540)를 사용할 수 있다. 예를 들어, 무선 인터페이스(540)는 안테나, 무선 트랜스시버 등을 포함할 수 있다. 전자 장치(500)는 부호 분할 다중 접속(CDMA), 이동통신을 위한 국제 시스템(GSM), 북 아메리카 디지털 통신(NADC), 확장 시분할 다중 접속(E-TDMA), 광대역 부호 분할 다중 접속(WCDMA), CDMA2000, 와이파이(Wi-Fi), 도시 와이파이(Muni Wi-Fi), 블루투스, 강화된 디지털 코드 없는 통신 방식(DECT), 무선 범용 직렬 버스(무선 USB), Flash-OFDM(Fast low-latency access with seamless handoff Orthogonal Frequency Division Multiplexing), IEEE 802.20, 일반 패킷 무선 시스템(GPRS), iBrust, 와이브로(WiBro), 와이맥스(WiMAX), 와이맥스 어드밴스드(WIMAX-Advanced), UMTS-TDD (Universal Mobile Telecommunication Service Time Division Duplex), 고속 패킷 접속 방식(HSPA), EVDO(Evolution Data Optimized), LTE-A(Long Term Evolution-Advanced), 다채널 다지점 분배 서비스(MMDS) 등과 같은, 하지만 이에 제한되지는 않는, 통신 시스템의 통신 인터페이스 프로토콜에서 사용될 수 있다.FIG. 5 illustrates an electronic device 500 that includes one or more integrated circuits (chips) that includes a DVS pose estimation system, in accordance with the subject matter disclosed herein. The electronic device 500 may be used in a computing device, a personal digital assistant (PDA), a laptop computer, a mobile computer, a web tablet, a cordless telephone, a cell phone, a smart phone, a digital sound player, or a wired or wireless electronic device, It does not. The electronic device 500 includes an input / output device 520, a memory (not shown) such as, but not limited to, a controller 510, a keypad, a key boat, a display or a touch screen display, 530 and an air interface 540. [ For example, the controller 510 may include at least one microprocessor, at least one digital signal processor, at least one microcontroller, and the like. The memory 530 may be configured to store the instruction code used by the controller 510 or user data. Various system components, including electronic device 500 and electronic device 500, may include a DVS pose estimation system according to the subject matter disclosed herein. The electronic device 500 may use a wireless interface 540 configured to transmit data to or receive data from a wireless communication network using an RF signal. For example, the wireless interface 540 may include an antenna, a wireless transceiver, and the like. The electronic device 500 may be any one or more of the following systems: CDMA, GSM, NADC, E-TDMA, WCDMA, , CDMA2000, Wi-Fi, Muni Wi-Fi, Bluetooth, Enhanced Digital Cordless Communication (DECT), Wireless Universal Serial Bus (Wireless USB), Flash low-latency access IEEE 802.20, General Packet Radio System (GPRS), iBrust, WiBro, WiMAX, WIMAX-Advanced, Universal Mobile Telecommunication Service Time Division Multiplexing (UMTS-TDD) Such as but not limited to Duplex, High Speed Packet Access (HSPA), Evolution Data Optimized (EVDO), Long Term Evolution-Advanced (LTE-A) Used by the communication interface protocol of .

도 6은 본 명세서에서 개시된 주제에 따른, DVS 포즈 추정 시스템을 포함할 수 있는 메모리 시스템(600)을 도시한다. 메모리 시스템(600)은 많은 양의 데이터를 저장하는 메모리 장치(610)와 메모리 컨트롤러(620)를 포함할 수 있다. 메모리 컨트롤러(620)는, 호스트(630)의 읽기/쓰기 요청에 응답하여, 메모리 장치(610)에 저장된 데이터를 읽거나 메모리 장치(610)에 데이터를 쓰도록 메모리 장치(610)를 제어한다. 메모리 컨트롤러(620)는 호스트(630)(예로서, 모바일 장치 또는 컴퓨터 시스템)로부터 제공된 주소를 메모리 장치(610)의 물리 주소에 매핑하기 위한 주소 매핑 테이블을 포함할 수 있다. 메모리 장치(610)는, 본 명세서에 개시된 주제에 따른 DS 포즈 추정 시스템을 포함하는 하나 이상의 반도체 장치들을 포함할 수 있다. FIG. 6 illustrates a memory system 600 that may include a DVS pose estimation system, in accordance with the subject matter disclosed herein. The memory system 600 may include a memory device 610 and a memory controller 620 that store a large amount of data. The memory controller 620 controls the memory device 610 to read the data stored in the memory device 610 or write data to the memory device 610 in response to a read / write request of the host 630. The memory controller 620 may include an address mapping table for mapping an address provided from the host 630 (e.g., a mobile device or a computer system) to the physical address of the memory device 610. The memory device 610 may include one or more semiconductor devices including a DS pose estimation system according to the subject matter disclosed herein.

해당 기술분야의 통상의 기술자들에 의해 이해되듯이, 본 명세서에 개시된 진보한 개념은 넓은 범위의 응용에 걸쳐 수정되고 변화될 수 있다. 따라서, 청구된 주제의 범위는, 위에서 설명된 특정한 임의의 예시적인 교시에 의해 제한되지 않고 이하 청구항들에 의해 정의 된다.As will be appreciated by one of ordinary skill in the art, the advanced concepts disclosed herein may be modified and varied over a wide range of applications. Accordingly, the scope of the claimed subject matter is not limited by any of the specific illustrative teachings set forth above, but is defined by the following claims.

Claims (20)

DVS(Dynamic Vision Sensor) 이벤트들을 검출하고, 축적된 DVS 이벤트들에 기초하여 프레임들을 형성하기 위한 DVS;
추정된 깊이에 기초하여 상기 DVS의 카메라의 변환을 추정하고, 제 1 프레임 동안 검출된 복수의 이벤트 중 적어도 하나가 제 2 프레임 동안 검출된 DVS 이벤트에 대응하도록 카메라 프로젝션 모델 내의 신뢰 수준 값들을 매칭하고, 상기 제 2 프레임은 상기 제 1 프레임 다음에 오는 변환 추정기;
상기 제 1 및 제 2 프레임들 사이에서 세계 좌표들에 대해 상기 DVS의 관성 움직임들을 검출하기 위한 관성 측정부(Inertial Measurement Unit; IMU); 및
상기 추정된 정보, 및 상기 DVS의 상기 검출된 관성 움직임들에 기초하여, 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 DVS 카메라의 포즈에서의 변화로부터의 정보를 결합하기 위한 카메라 포즈 추정기를 포함하는 다이나믹 비전 센서 포즈 추정 시스템.
A DVS for detecting DVS (Dynamic Vision Sensor) events and forming frames based on the accumulated DVS events;
Estimating a transformation of the camera of the DVS based on the estimated depth and matching the confidence level values in the camera projection model such that at least one of the plurality of events detected during the first frame corresponds to the DVS event detected during the second frame , The second frame being a transform estimator following the first frame;
An Inertial Measurement Unit (IMU) for detecting inertial movements of the DVS with respect to world coordinates between the first and second frames; And
And a camera pose estimator for combining information from a change in a pose of the DVS camera between the first frame and the second frame based on the estimated information and the detected inertial movements of the DVS A dynamic vision sensor pose estimating system.
제 1 항에 있어서,
상기 카메라 포즈 추정기는,
상기 추정된 변환에 기초하여, 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 변환 모델의 포즈에서의 상기 추정된 변화를 정정하기 위해 상기 DVS의 상기 검출된 관성 움직임들을 사용하는 다이나믹 비전 센서 포즈 추정 시스템.
The method according to claim 1,
Wherein the camera pose estimator comprises:
Using the detected inertial movements of the DVS to correct the estimated change in the pose of the transformation model between the first frame and the second frame based on the estimated transformation, .
제 1 항에 있어서,
상기 변환 추정기는,
복수의 프레임 통합 시간동안 제 1 및 제 2 프레임들에 대한 상기 DVS 카메라의 상기 변환을 추정하고,
상기 카메라 포즈 추정기는, 제 2 프레임 통합 시간에 대응하는 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 DVS 카메라의 상기 포즈에서의 상기 변화의 추정에 기초하여 제 1 프레임 통합 시간에 대응하는 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 DVS의 포즈에서의 변화의 제 1 추정을 정정하고, 상기 제 1 프레임 통합 시간은 상기 제 2 프레임 통합 시간보다 긴 다이나믹 비전 센서 포즈 추정 시스템.
The method according to claim 1,
Wherein the conversion estimator comprises:
Estimating the conversion of the DVS camera for the first and second frames during a plurality of frame integration times,
Wherein the camera pose estimator calculates the camera pose estimator based on an estimate of the change in the pose of the DVS camera between the first frame and the second frame corresponding to a second frame integration time, Corrects a first estimate of a change in a pose of the DVS between one frame and the second frame, and wherein the first frame integration time is longer than the second frame integration time.
제 1 항에 있어서,
상기 변환 추정기는 복수의 프레임 통합 시간들 동안 상기 제 1 및 제 2 프레임들에 대한 상기 DVS 카메라의 상기 변환을 추정하고,
상기 IMU는, 각각의 상기 복수의 프레임 통합 시간들 동안 제 1 및 제 2 프레임들 사이에서 세계 좌표들에 대한 상기 DVS의 관성 움직임들을 검출하는 다이나믹 비전 센서 포즈 추정 시스템.
The method according to claim 1,
Wherein the transform estimator estimates the transform of the DVS camera for the first and second frames during a plurality of frame aggregation times,
Wherein the IMU detects inertial movements of the DVS for world coordinates between first and second frames during each of the plurality of frame integration times.
제 1 항에 있어서,
상기 변환 추정기는,
Figure pat00078

에 기초하여 상기 변환을 추정하고,
Figure pat00079
는 인덱스이고,
Figure pat00080
는 검출된 DVS 이벤트이고,
Figure pat00081
는 DVS 이벤트(
Figure pat00082
)에 대한 신뢰 수준 값(스칼라) 이고,
Figure pat00083
는 프레임 이고,
Figure pat00084
는 프레임 인덱스이고,
Figure pat00085
는 DVS에 대한 카메라 프로젝션 모델이고,
Figure pat00086
은 DVS에 대한 카메라 프로젝션 모델의 역수 이고,
Figure pat00087
는 카메라 프로젝션 모델(
Figure pat00088
) 내의 검출된 이벤트(
Figure pat00089
)에 대응하는 벡터고,
Figure pat00090
는 세계 좌표에서 상기 DVS 이벤트(
Figure pat00091
)의 (3D) 깊이이고,
Figure pat00092
는 프레임
Figure pat00093
및 프레임
Figure pat00094
사이의 세계 좌표들에 기초한 복수의 가능한 벡터 변환들 중 하나인 다이나믹 비전 센서 포즈 추정 시스템.
The method according to claim 1,
Wherein the conversion estimator comprises:
Figure pat00078

Estimates the transform based on the transform,
Figure pat00079
Is an index,
Figure pat00080
Is a detected DVS event,
Figure pat00081
DVS event (
Figure pat00082
(Scalar), < / RTI >
Figure pat00083
Is a frame,
Figure pat00084
Is a frame index,
Figure pat00085
Is a camera projection model for DVS,
Figure pat00086
Is the reciprocal of the camera projection model for DVS,
Figure pat00087
Is a camera projection model
Figure pat00088
The detected event (
Figure pat00089
), ≪ / RTI >
Figure pat00090
Lt; RTI ID = 0.0 > DVS < / RTI &
Figure pat00091
(3D) depth,
Figure pat00092
Frame
Figure pat00093
And frame
Figure pat00094
Wherein the dynamic vision sensor pose estimator is one of a plurality of possible vector transforms based on world coordinates between the input vectors.
제 5 항에 있어서,
상기 카메라 포즈 추정기는, 상기 추정된 변환에 기초하여 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 DVS에 대한 상기 카메라 프로젝션 모델의 상기 포즈에서의 상기 추정된 변화를 정정하기 위해 상기 DVS의 상기 검출된 관성 움직임들을 사용하는 다이나믹 비전 센서 포즈 추정 시스템.
6. The method of claim 5,
Wherein the camera pose estimator is operative to determine a camera pose of the DVS based on the estimated transition of the camera projection model, A dynamic vision sensor pose estimation system using inertial movements.
제 5 항에 있어서,
상기 변환 추정기는, 복수의 프레임 통합 시간 동안 대해 제 1 및 제 2 프레임들에 대한 상기 DVS 카메라의 상기 변환을 추정하고,
상기 카메라 포즈 추정기는, 제 2 통합 시간에 대응하는 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 DVS 카메라 포즈에서의 상기 변화의 추정에 기초하여, 제 1 통합 시간에 대응하는 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 DVS 카메라 포즈에서의 상기 변화의 추정을 정정하고, 상기 제 1 통합 시간은 상기 제 2 통합 시간 보다 긴 다이나믹 비전 센서 포즈 추정 시스템.
6. The method of claim 5,
Wherein the transform estimator estimates the transform of the DVS camera for the first and second frames for a plurality of frame integration times,
Wherein the camera pose estimator is configured to estimate the camera pose based on an estimate of the change in the DVS camera pose between the first frame and the second frame corresponding to a second integration time, Corrects an estimate of the change in the DVS camera pose between the second frame, and wherein the first integration time is longer than the second integration time.
제 5 항에 있어서,
상기 변환 추정기는 복수의 프레임 통합 시간들 동안 제 1 및 제 2 프레임들에 대한 상기 DVS 카메라의 상기 변환을 추정하고,
상기 IMU는, 각각의 상기 복수의 프레임 통합 시간들 동안 상기 제 1 및 제 2 프레임들 사이에서 상기 세계 좌표들에 대한 상기 DVS의 관성 움직임들을 검출하는 다이나믹 비전 센서 포즈 추정 시스템.
6. The method of claim 5,
Wherein the transform estimator estimates the transform of the DVS camera for the first and second frames during a plurality of frame integration times,
Wherein the IMU detects inertial movements of the DVS for the world coordinates between the first and second frames during each of the plurality of frame integration times.
DVS 이벤트들을 검출하고 축적된 DVS 이벤트들로부터의 프레임들을 형성하는 단계;
추정된 깊이에 기초하여 상기 카메라의 변환을 추정하고, 제 1 프레임 동안 관측된 복수의 DVS 이벤트 중 적어도 하나가 제 2 프레임 동안 검출된 DVS 이벤트에 대응하도록 카메라 프로젝션 모델 내의 신뢰 수준 값들을 매칭하고, 상기 제 2 프레임은 상기 제 1 프레임 다음에 오는 단계;
상기 제 1 및 제 2 프레임들 사이에서 세계 좌표들에 대한 상기 DVS의 관성 움직임들을 검출하는 단계; 및
상기 추정된 변환 및 상기 DVS의 상기 검출된 관성 움직임들에 기초하여, 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 포즈에서의 변화를 추정하는 단계를 포함하는 DVS를 위한 카메라의 포즈를 추정하는 방법.
Detecting DVS events and forming frames from the accumulated DVS events;
Estimate the transform of the camera based on the estimated depth and match the confidence level values in the camera projection model such that at least one of the plurality of DVS events observed during the first frame corresponds to the DVS event detected during the second frame, The second frame coming after the first frame;
Detecting inertial movements of the DVS for world coordinates between the first and second frames; And
Estimating a change in a pose of the camera between the first frame and the second frame based on the estimated transform and the detected inertial movements of the DVS, How to estimate.
제 9 항에 있어서,
상기 DVS의 상기 검출된 관성 움직임들을 사용한 상기 추정된 변환에 기초하여 생성된 상기 제 1 프레임 및 상기 제 2 프레임 사이에서, 상기 카메라의 상기 포즈에서의 상기 추정된 변화를 정정하는 단계를 더 포함하는 방법.
10. The method of claim 9,
Further comprising correcting the estimated change in the pose of the camera between the first frame and the second frame generated based on the estimated transformation using the detected inertial movements of the DVS Way.
제 9 항에 있어서,
제 1 및 제 2 프레임들에 대한 상기 카메라의 상기 변환을 추정하는 단계는 복수의 프레임 통합 시간 동안 상기 카메라의 변환을 추정하는 단계를 포함하고,
제 2 프레임 통합 시간에 대응하는 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 포즈에서의 상기 변화의 추정에 기초하여 제 1 프레임 통합 시간에 대응하는 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 포즈에서의 상기 변화의 추정을 정정하고 상기 제 1 프레임 통합 시간은 상기 제 2 프레임 통합 시간보다 긴 단계를 더 포함하는 방법.
10. The method of claim 9,
Wherein estimating the transform of the camera for the first and second frames comprises estimating the transform of the camera during a plurality of frame integration times,
The first frame corresponding to the first frame integration time and the second frame corresponding to the first frame integration time based on the estimation of the change in the pose of the camera between the first frame and the second frame corresponding to the second frame integration time Correcting an estimate of the change in a pose of the camera at the first frame integration time and the first frame integration time being longer than the second frame integration time.
제 9 항에 있어서,
상기 카메라의 상기 변환을 추정하는 단계는, 복수의 프레임 통합 시간 동안 제 1 및 제 2 프레임들에 대한 상기 카메라의 상기 변환을 추정하는 단계를 포함하고,
상기 DVS의 상기 관성 움직임들을 검출하는 단계는, 각각의 상기 복수의 프레임 통합 시간들 동안 상기 제 1 및 제 2 프레임들 사이에서 상기 세계 좌표들에 대한 상기 DVS의 관성 움직임들을 검출하는 단계를 포함하는 방법.
10. The method of claim 9,
Wherein estimating the transform of the camera comprises estimating the transform of the camera for the first and second frames during a plurality of frame integration times,
Wherein detecting the inertial movements of the DVS comprises detecting inertial movements of the DVS for the world coordinates between the first and second frames during each of the plurality of frame integration times Way.
제 9 항에 있어서,
상기 변환을 추정하는 단계는,
Figure pat00095

에 기초하여 상기 변환을 추정하는 단계를 포함하고,
Figure pat00096
는 인덱스이고,
Figure pat00097
는 검출된 DVS 이벤트이고,
Figure pat00098
는 DVS 이벤트(
Figure pat00099
)에 대한 신뢰 수준 값(스칼라) 이고,
Figure pat00100
는 프레임 이고,
Figure pat00101
는 프레임 인덱스이고,
Figure pat00102
는 DVS에 대한 카메라 프로젝션 모델이고,
Figure pat00103
은 DVS에 대한 카메라 프로젝션 모델의 역수 이고,
Figure pat00104
는 카메라 프로젝션 모델(
Figure pat00105
) 내의 검출된 이벤트(
Figure pat00106
)에 대응하는 벡터고,
Figure pat00107
는 세계 좌표에서 상기 DVS 이벤트(
Figure pat00108
)의 (3D) 깊이이고,
Figure pat00109
는 프레임
Figure pat00110
및 프레임
Figure pat00111
사이의 세계 좌표들에 기초한 복수의 가능한 벡터 변환들 중 하나인 방법.
10. The method of claim 9,
Wherein the step of estimating the transform comprises:
Figure pat00095

And estimating the transform based on the transform,
Figure pat00096
Is an index,
Figure pat00097
Is a detected DVS event,
Figure pat00098
DVS event (
Figure pat00099
(Scalar), < / RTI >
Figure pat00100
Is a frame,
Figure pat00101
Is a frame index,
Figure pat00102
Is a camera projection model for DVS,
Figure pat00103
Is the reciprocal of the camera projection model for DVS,
Figure pat00104
Is a camera projection model
Figure pat00105
The detected event (
Figure pat00106
), ≪ / RTI >
Figure pat00107
Lt; RTI ID = 0.0 > DVS < / RTI &
Figure pat00108
(3D) depth,
Figure pat00109
Frame
Figure pat00110
And frame
Figure pat00111
And one of a plurality of possible vector transformations based on the world coordinates between.
제 13 항에 있어서,
상기 DVS의 상기 검출된 관성 움직임들을 사용한 상기 추정된 변환에 기초하여, 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 상기 포즈에서의 상기 추정된 변화를 정정하는 단계를 더 포함하는 방법.
14. The method of claim 13,
Further comprising correcting the estimated change in the pose of the camera between the first frame and the second frame based on the estimated transform using the detected inertial motions of the DVS.
제 13 항에 있어서,
상기 카메라의 상기 변환을 추정하는 단계는 복수의 프레임 통합 시간 동안 상기 제 1 및 제 2 프레임들에 대한 상기 카메라의 상기 변환을 추정하는 단계를 포함하고,
제 2 통합 시간에 대응하는 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 포즈에서의 상기 변화의 추정에 기초하여, 제 1 통합 시간에 대응하는 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 포즈에서의 상기 변화의 추정을 정정하고, 상기 제 1 통합 시간은 상기 제 2 통합 시간 보다 긴 단계를 더 포함하는 방법.
14. The method of claim 13,
Wherein estimating the transform of the camera comprises estimating the transform of the camera for the first and second frames during a plurality of frame integration times,
Based on an estimation of the change in the pose of the camera between the first frame and the second frame corresponding to a second integration time, Correcting an estimate of the change in a pose of the camera, wherein the first integration time is longer than the second integration time.
제 13 항에 있어서,
카메라 프로젝션 모델의 상기 변환을 추정하는 단계는 복수의 프레임 통합 시간 동안 제 1 및 제 2 프레임들에 대한 상기 카메라의 상기 변환을 추정하는 단계를 포함하고,
상기 DVS의 상기 관성 움직임들을 검출하는 단계는 각각의 상기 복수의 프레임 통합 시간 동안 상기 제 1 및 제 2 프레임들 사이에서 상기 세계 좌표들에 대한 상기 DVS의 관성 움직임들을 검출하는 단계를 포함하는 방법.
14. The method of claim 13,
Wherein estimating the transform of the camera projection model comprises estimating the transform of the camera for the first and second frames during a plurality of frame integration times,
Wherein detecting the inertial movements of the DVS comprises detecting inertial movements of the DVS for the world coordinates between the first and second frames during each of the plurality of frame integration times.
DVS 이벤트들을 검출하고, 축적된 이벤트들의 수에 기초하여 프레임들을 형성하기 위한 DVS;
추정된 깊이에 기초하여 상기 DVS의 카메라의 변환을 추정하고 제 1 프레임 동안 검출된 복수의 DVS 이벤트 중 적어도 하나는 적어도 두 프레임 통합 시간들에 대한 제 2 프레임 동안 검출된 DVS 이벤트에 대응하도록 카메라 프로젝션 모델 내의 신뢰 수준 값들을 매칭하고, 상기 제 2 프레임은 각 프레임 통합 시간에 대해 상기 제 1 프레임 다음에 오는 변환 추정기; 및
추정된 변환에 기초하여 복수의 프레임 통합 시간 중 적어도 둘에 대해 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 포즈에서의 변화를 추정하기 위한 카메라 포즈 추정기를 포함하고, 상기 카메라 포즈 추정기는 추가적으로 제 2 프레임 통합 시간에 대해 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 상기 포즈에서의 상기 변화의 추정에 기초하여 제 1 프레임 통합 시간에 대해 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 상기 포즈에서의 상기 변화의 추정을 정정하고 상기 제 1 프레임 통합 시간은 상기 제 2 프레임 통합 시간보다 긴 다이나믹 비전 센서 포즈 추정 시스템.
A DVS for detecting DVS events and forming frames based on the number of accumulated events;
Estimating a transformation of the camera of the DVS based on the estimated depth and determining at least one of a plurality of DVS events detected during the first frame to correspond to a DVS event detected during a second frame for at least two frame integration times. A confidence estimator for comparing confidence level values in the model, the second frame being for each frame integration time following the first frame; And
And a camera pose estimator for estimating a change in a pose of the camera between the first frame and the second frame for at least two of the plurality of frame integration times based on the estimated transformation, Further comprising, for a first frame integration time, a first frame integration time based on an estimation of the change in the pose of the camera between the first frame and the second frame, Correcting an estimate of the change in the pose of the camera and the first frame integration time being longer than the second frame integration time.
제 17 항에 있어서,
각각의 적어도 둘의 프레임 통합 시간들 동안 상기 제 1 및 제 2 프레임들 사이에서 세계 좌표들에 대한 상기 DVS의 관성 움직임들을 검출하기 위한 관성 측정부(IMU)를 더 포함하되,
상기 카메라 포즈 추정기는, 추가적으로 상기 추정된 변환 및 상기 DVS의 상기 검출된 관성 움직임들에 기초하여 상기 복수의 프레임 통합시간 중 적어도 둘에 대한 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 포즈에서의 상기 변화를 추정하는 다이나믹 비전 센서 포즈 추정 시스템.
18. The method of claim 17,
Further comprising an inertial measurement unit (IMU) for detecting inertial movements of the DVS for world coordinates between the first and second frames during each of at least two frame integration times,
Wherein the camera pose estimator is further configured to determine a pose of the camera between the first frame and the second frame for at least two of the plurality of frame integration times based on the estimated motion and the detected inertial motions of the DVS. And estimates the change in the dynamic vision sensor pose.
제 18 항에 있어서,
상기 카메라 포즈 추정기는 추가적으로 상기 DVS의 상기 검출된 관성 움직임들을 이용한 각각의 프레임 통합 시간 동안 상기 추정된 변환에 기초하여 생성된 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 상기 포즈에서의 상기 추정된 변화를 정정하는 다이나믹 비전 센서 포즈 추정 시스템.
19. The method of claim 18,
Wherein the camera pose estimator is further operative to determine, for each frame integration time using the detected inertial movements of the DVS, the difference between the first frame and the second frame generated based on the estimated transformation, A dynamic vision sensor pose estimation system for correcting an estimated change.
제 17 항에 있어서,
상기 변환 추정기는,
Figure pat00112

에 기초하여 각각의 프레임 통합시간에 대한 변환을 추정하고,
Figure pat00113
는 인덱스이고,
Figure pat00114
는 검출된 DVS 이벤트이고,
Figure pat00115
는 DVS 이벤트(
Figure pat00116
)에 대한 신뢰 수준 값(스칼라) 이고,
Figure pat00117
는 프레임 이고,
Figure pat00118
는 프레임 인덱스이고,
Figure pat00119
는 DVS에 대한 카메라 프로젝션 모델이고,
Figure pat00120
은 DVS에 대한 카메라 프로젝션 모델의 역수 이고,
Figure pat00121
는 카메라 프로젝션 모델(
Figure pat00122
) 내의 검출된 이벤트(
Figure pat00123
)에 대응하는 벡터고,
Figure pat00124
는 세계 좌표에서 상기 DVS 이벤트(
Figure pat00125
)의 (3D) 깊이이고,
Figure pat00126
는 프레임
Figure pat00127
및 프레임
Figure pat00128
사이의 세계 좌표들에 기초한 복수의 가능한 벡터 변환들 중 하나인 다이나믹 비전 센서 포즈 추정 시스템.
18. The method of claim 17,
Wherein the conversion estimator comprises:
Figure pat00112

Estimates the transform for each frame aggregation time based on the frame aggregation time,
Figure pat00113
Is an index,
Figure pat00114
Is a detected DVS event,
Figure pat00115
DVS event (
Figure pat00116
(Scalar), < / RTI >
Figure pat00117
Is a frame,
Figure pat00118
Is a frame index,
Figure pat00119
Is a camera projection model for DVS,
Figure pat00120
Is the reciprocal of the camera projection model for DVS,
Figure pat00121
Is a camera projection model
Figure pat00122
The detected event (
Figure pat00123
), ≪ / RTI >
Figure pat00124
Lt; RTI ID = 0.0 > DVS < / RTI &
Figure pat00125
(3D) depth,
Figure pat00126
Frame
Figure pat00127
And frame
Figure pat00128
Wherein the dynamic vision sensor pose estimator is one of a plurality of possible vector transforms based on world coordinates between the input vectors.
KR1020170173113A 2016-12-20 2017-12-15 Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking KR102568695B1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662437027P 2016-12-20 2016-12-20
US62/437,027 2016-12-20
US15/458,016 US10510160B2 (en) 2016-12-20 2017-03-13 Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking
US15/458,016 2017-03-13

Publications (2)

Publication Number Publication Date
KR20180071962A true KR20180071962A (en) 2018-06-28
KR102568695B1 KR102568695B1 (en) 2023-08-23

Family

ID=62561826

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170173113A KR102568695B1 (en) 2016-12-20 2017-12-15 Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking

Country Status (3)

Country Link
US (2) US10510160B2 (en)
KR (1) KR102568695B1 (en)
CN (1) CN108205679B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11915448B2 (en) 2021-02-26 2024-02-27 Samsung Electronics Co., Ltd. Method and apparatus with augmented reality pose determination

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10257456B2 (en) * 2017-09-07 2019-04-09 Samsung Electronics Co., Ltd. Hardware friendly virtual frame buffer
CN108961318B (en) * 2018-05-04 2020-05-15 上海芯仑光电科技有限公司 Data processing method and computing device
US11202006B2 (en) 2018-05-18 2021-12-14 Samsung Electronics Co., Ltd. CMOS-assisted inside-out dynamic vision sensor tracking for low power mobile platforms
CN110660098B (en) * 2018-06-28 2022-08-12 北京京东叁佰陆拾度电子商务有限公司 Positioning method and device based on monocular vision
CN109544590B (en) * 2018-11-27 2020-05-15 上海芯仑光电科技有限公司 Target tracking method and computing device
KR20210101286A (en) 2018-12-13 2021-08-18 프로페시 How to track objects in a scene
CN109697726B (en) * 2019-01-09 2020-09-18 厦门大学 Event camera-based end-to-end target motion estimation method
EP3693698A1 (en) * 2019-02-05 2020-08-12 Leica Geosystems AG Measuring device with event-based camera
CN110296717B (en) * 2019-06-21 2020-08-28 上海芯仑光电科技有限公司 Event data stream processing method and computing device
CN112304321B (en) * 2019-07-26 2023-03-28 北京魔门塔科技有限公司 Vehicle fusion positioning method based on vision and IMU and vehicle-mounted terminal
KR20210031269A (en) 2019-09-11 2021-03-19 삼성전자주식회사 Electronic device and operating method for training an image recognition model
US11430150B2 (en) 2020-01-03 2022-08-30 Samsung Electronics Co., Ltd. Method and apparatus for processing sparse points
WO2021177187A1 (en) * 2020-03-05 2021-09-10 ソニーグループ株式会社 Image processing device and image processing method
CN112312017B (en) * 2020-10-29 2022-04-12 维沃移动通信有限公司 Shooting control method and electronic equipment
CN112666550B (en) * 2020-12-25 2024-01-16 北京灵汐科技有限公司 Moving object detection method and device, fusion processing unit and medium
CN112729294B (en) * 2021-04-02 2021-06-25 北京科技大学 Pose estimation method and system suitable for vision and inertia fusion of robot
CN113298014B (en) * 2021-06-09 2021-12-17 安徽工程大学 Closed loop detection method, storage medium and equipment based on reverse index key frame selection strategy
CN113739819B (en) * 2021-08-05 2024-04-16 上海高仙自动化科技发展有限公司 Verification method, verification device, electronic equipment, storage medium and chip
CN114137247B (en) * 2021-11-30 2024-01-19 上海科技大学 Speed sensing method, device, equipment and medium based on event camera

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160058427A (en) * 2014-11-17 2016-05-25 삼성전자주식회사 Method and device for analyzing motion
KR20160090843A (en) * 2013-11-25 2016-08-01 퀄컴 인코포레이티드 Power efficient use of a depth sensor on a mobile device
US9489735B1 (en) * 2015-09-17 2016-11-08 Qualcomm Incorporated Multiplexed temporal calibration for event-based cameras

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7536030B2 (en) * 2005-11-30 2009-05-19 Microsoft Corporation Real-time Bayesian 3D pose tracking
US9123135B2 (en) * 2012-06-14 2015-09-01 Qualcomm Incorporated Adaptive switching between vision aided INS and vision only pose
US9589326B2 (en) 2012-11-29 2017-03-07 Korea Institute Of Science And Technology Depth image processing apparatus and method based on camera pose conversion
KR101362183B1 (en) * 2012-11-29 2014-02-13 한국과학기술연구원 Depth image noise removal apparatus and method based on camera pose
US9251590B2 (en) * 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
KR102022970B1 (en) 2013-04-30 2019-11-04 삼성전자주식회사 Method and apparatus for sensing spatial information based on vision sensor
EP2983131A1 (en) * 2014-08-06 2016-02-10 Thomson Licensing Method and device for camera calibration
US10260862B2 (en) * 2015-11-02 2019-04-16 Mitsubishi Electric Research Laboratories, Inc. Pose estimation using sensors

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160090843A (en) * 2013-11-25 2016-08-01 퀄컴 인코포레이티드 Power efficient use of a depth sensor on a mobile device
KR20160058427A (en) * 2014-11-17 2016-05-25 삼성전자주식회사 Method and device for analyzing motion
US9489735B1 (en) * 2015-09-17 2016-11-08 Qualcomm Incorporated Multiplexed temporal calibration for event-based cameras

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Elias Mueggler 등, Event-based, 6-DOF Pose Tracking for High-Speed Maneuvers, IEEE IROS 2014(2014.09.14.) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11915448B2 (en) 2021-02-26 2024-02-27 Samsung Electronics Co., Ltd. Method and apparatus with augmented reality pose determination

Also Published As

Publication number Publication date
US20180174323A1 (en) 2018-06-21
US20200043196A1 (en) 2020-02-06
CN108205679B (en) 2023-07-21
US10733760B2 (en) 2020-08-04
KR102568695B1 (en) 2023-08-23
CN108205679A (en) 2018-06-26
US10510160B2 (en) 2019-12-17

Similar Documents

Publication Publication Date Title
KR102568695B1 (en) Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking
CN109348125B (en) Video correction method, video correction device, electronic equipment and computer-readable storage medium
US9781570B2 (en) Method and apparatus for estimating location of electronic device
US9560271B2 (en) Removing unwanted objects from photographed image
US10397895B2 (en) Range finding base station selection method and apparatus
US20160112701A1 (en) Video processing method, device and system
CN104519239A (en) Method and device for video anti-shaking
KR20150129423A (en) Electronic Device And Method For Recognizing Gestures Of The Same
WO2014125398A1 (en) Object detection using difference of image frames
JP5960375B2 (en) Motion blur sensing visual pose tracking
US9684970B2 (en) Fast adaptive estimation of motion blur for coherent rendering
US10863095B2 (en) Imaging apparatus, imaging method, and imaging program
US20200090309A1 (en) Method and device for denoising processing, storage medium, and terminal
WO2015078189A1 (en) Interface adjustment method and mobile device
EP3139129B1 (en) Mobile device, control method, and non-transitory storage medium
US11842515B2 (en) Information processing device, information processing method, and image capturing apparatus for self-position-posture estimation
US20210366423A1 (en) Display control device, imaging device, display control method, and display control program
CN112541418A (en) Method, apparatus, device, medium, and program product for image processing
US10606419B2 (en) Touch screen control
EP3627817A1 (en) Image processing method and terminal
WO2021075317A1 (en) Ar system and terminal
KR20150004633A (en) Method for controlling an integrated display and an electronic device thereof
US20230139889A1 (en) Control device, imaging apparatus, control method, and control program
US20230145728A1 (en) Method and system for detecting hand gesture, and computer readable storage medium
US20210368102A1 (en) Control device of imaging device, imaging device, control method of imaging device, and control program of imaging device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant