KR20180071962A - Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking - Google Patents
Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking Download PDFInfo
- Publication number
- KR20180071962A KR20180071962A KR1020170173113A KR20170173113A KR20180071962A KR 20180071962 A KR20180071962 A KR 20180071962A KR 1020170173113 A KR1020170173113 A KR 1020170173113A KR 20170173113 A KR20170173113 A KR 20170173113A KR 20180071962 A KR20180071962 A KR 20180071962A
- Authority
- KR
- South Korea
- Prior art keywords
- frame
- dvs
- camera
- pose
- transform
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Abstract
Description
본 발명은 다이나믹 비젼 센서(DVS)에 관한 것으로, 좀 더 상세하게는 DVS의 포즈를 추정하기 위한 장치 및 방법에 관한 것이다.The present invention relates to a dynamic vision sensor (DVS), and more particularly, to an apparatus and method for estimating a pose of a DVS.
DVS의 출력은 카메라가 감지하는 휘도의 이벤트에 기반하여 변한다. 일반적으로, DVS의 출력은, 각각의 이벤트가 특정한 상태, 즉 이미지 센서 어레이 및 휘도의 양 또는 음의 변화를 나타내는 이진 상태 내의 이벤트 위치와 관련된, 이벤트 스트림이다. 일정한 수의 DVS 이벤트들이 하나 이상의 이벤트들을 포함하는 픽셀 위치들이 0이 아니게 설정되고 다른 픽셀 위치들이 모두 0으로 설정되는 이미지를 형성하도록 샘플링된다. 각각의 0이 아닌 픽셀의 값은 상이한 기술들에 의해 결정될 수 있다. 예를 들어, 각각의 0이 아닌 픽셀은, 타임스탬프, 픽셀 코디네이트들, 및 최신 이벤트 상태 변화(즉, 휘도의 양의 변화는 +1, 휘도의 음의 변화는 -1)를 포함할 수 있는 벡터에 의해 나타날 수 있다. 또는, 0이 아닌 픽셀은 그 위치에서 나타나는 이벤트들의 수 또는 최신 이벤트의 도달 시간에 의해 나타날 수 있다.The output of the DVS changes based on the event of the brightness sensed by the camera. In general, the output of the DVS is an event stream, with each event associated with a particular state, i. E., An event location within a binary state that represents a change in the amount or < / RTI > A certain number of DVS events are sampled to form an image in which pixel locations containing one or more events are set to non-zero and other pixel locations are all set to zero. The value of each non-zero pixel may be determined by different techniques. For example, each non-zero pixel may contain a time stamp, pixel coordinates, and the most recent event state change (i. E., A change in the amount of brightness is +1, a change in brightness is -1) vector Lt; / RTI > Alternatively, a non-zero pixel may be indicated by the number of events appearing at that location or the arrival time of the latest event.
종래의 DVS는 시간이 통합되지 않은 비동기식 센서이므로, DVS 프레임들은 특정한 샘플링 시간 또는 프레임 통합 시간에 기초하여 형성되어야만 하고, 따라서 일시적으로 인접하는 프레임들 사이의 변화들은 추정 카메라 움직임과 비교될 수 있다. DVS 카메라 움직임 또는 트래킹과 관련된 큰 어려움들은: (1) 각각의 DVS 프레임 내의 특징들은 희박하고 크게 변형될 수 있으므로, 특징 기반 이미지 매칭은 어려울 수 있고, (가능하다고 하더라도) 움직임 추정 정확도를 취약하게 할 수 있고, 또한, (2) 주요 특징들의 추출 부족으로 인해, DVS의 움직임을 통해 대응하는 랜드마크들을 사용할 수 없다는 것이다. 따라서, 카메라의 움직임 또는 포즈의 현재 추정을 대조 검토하기 어렵고, 센서 움직임 추정 편차를 감소시키기 위해 랜드마크들을 참조하기 어려울 수 있다.Since the conventional DVS is an asynchronous sensor with no time integration, DVS frames have to be formed based on a specific sampling time or frame integration time, so that changes between temporally adjacent frames can be compared with the estimated camera motion. The major difficulties associated with DVS camera motion or tracking are: (1) features within each DVS frame may be sparse and highly deformable, so that feature-based image matching may be difficult and may impair motion estimation accuracy And (2) due to the lack of extraction of key features, the corresponding landmarks can not be used through the movement of the DVS. Thus, it is difficult to contrast the current estimates of camera motion or pose, and it may be difficult to refer to landmarks to reduce sensor motion estimation variance.
본 발명의 실시 예는 센서 융합에 기초하여 DVS, 3D 변환 추정기, 관성 측정부 및 카메라 포즈 추정기를 제공할 수 있다.An embodiment of the present invention can provide a DVS, a 3D conversion estimator, an inertial measurement unit, and a camera pose estimator based on sensor fusion.
DVS는 DVS 이벤트 들을 검출하고, 축적된 이벤트들의 수에 기초하여 프레임들을 형성할 수 있다. 변환 추정기는 추정된 깊이 및 카메라 모델 내의 신뢰 수준 값들의 매칭에 기초하여 3D 변환을 추정하여, 제 1 프레임 동안 검출된 복수의 DVS 이벤트 중 적어도 하나는 제 1 프레임 다음에 오는 제 2 프레임 동안 검출된 DVS 이벤트에 대응하도록 할 수 있다. 관성 측정부는 제 1 및 제 2 프레임들 사이에서 세계 좌표들에 대한 DVS의 관성 움직임들을 검출할 수 있다. 카메라 포즈 추정기는 추정된 변환 및 검출된 관성 움직임들에 기초하여 제 1 프레임 및 제 2 프레임 사이에서 DVS 카메라의 포즈의 변화로부터의 정보를 결합할 수 있다. 일 실시 예에서, 카메라 포즈 추정기는 추정된 변환에 기초한 제 1 프레임 및 제 2 프레임 사이에서 변환 모델의 포즈에서의 추정된 변화를 정정하기 위한 검출된 DVS의 관성 움직임들을 사용할 수 있다. 일 실시 예에서, 변환 추정기는 깊이를 추정하고, 복수의 프레임 통합 시간에 대해 제 1 및 제 2 프레임들에 대한 카메라 프로젝션 모델을 매칭 시킬 수 있고, 또한 변환 추정기는 제 2 프레임 통합 시간에 대응하는 제 1 프레임 및 제 2 프레임 사이에서 카메라 포즈에서의 변화의 추정에 기초하여 제 1 프레임 통합 시간에 대응하는 제 1 프레임 및 제 2 프레임 사이에서 카메라 포즈에서의 변화의 제 1 추정을 정정할 수 있다. 일 실시 예에서, 변환 추정기는The DVS can detect DVS events and form frames based on the number of accumulated events. The transform estimator estimates the 3D transform based on the matching of the estimated depth and the confidence level values in the camera model so that at least one of the plurality of DVS events detected during the first frame is detected during the second frame following the first frame It is possible to correspond to the DVS event. The inertial measurement unit may detect inertial movements of the DVS for world coordinates between the first and second frames. The camera pose estimator may combine information from a change in the pose of the DVS camera between the first frame and the second frame based on the estimated transform and detected inertial movements. In one embodiment, the camera pose estimator may use inertial motions of the detected DVS to correct for an estimated change in the pose of the transformation model between the first frame and the second frame based on the estimated transformation. In one embodiment, the transform estimator may estimate the depth, match the camera projection model for the first and second frames for a plurality of frame integration times, and the transform estimator may also estimate The first estimate of the change in the camera pose between the first frame and the second frame corresponding to the first frame integration time based on the estimation of the change in the camera pose between the first frame and the second frame . In one embodiment, the transform estimator
에 기초하여 변환을 추정할 수 있고, 는 인덱스이고, 는 검출된 DVS 이벤트이고, 는 DVS 이벤트()에 대한 신뢰 수준 값(스칼라) 이고, 는 프레임 이고, 는 프레임 인덱스이고, 는 DVS에 대한 카메라 프로젝션 모델이고, 은 DVS에 대한 카메라 프로젝션 모델의 역수 이고, 는 카메라 프로젝션 모델() 내의 검출된 이벤트()에 대응하는 벡터고, 는 세계 좌표에서 상기 DVS 이벤트()의 (3D) 깊이이고, 는 프레임 및 프레임 사이의 세계 좌표들에 기초한 복수의 가능한 벡터 변환들 중 하나이다.Lt; RTI ID = 0.0 > 1, < / RTI > Is an index, Is a detected DVS event, DVS event ( (Scalar), < / RTI > Is a frame, Is a frame index, Is a camera projection model for DVS, Is the reciprocal of the camera projection model for DVS, Is a camera projection model The detected event ( ), ≪ / RTI > Lt; RTI ID = 0.0 > DVS < / RTI & (3D) depth, Frame And frame Lt; / RTI > is one of a plurality of possible vector transformations based on world coordinates between.
일 실시 예는 DVS 이벤트들을 검출하는 단계; 카메라의 추정된 깊이에 기초하여 DVS 카메라의 변환을 추정하고, 카메라 프로젝션 모델 내의 신뢰 수준 값들을 매칭하여 제 1 프레임 동안 관측된 복수의 DVS 이벤트 중 적어도 하나는 제 2 프레임 동안 검출된 DVS 이벤트에 대응하도록 하고, 제 2 프레임은 제 1 프레임 다음에 오는 단계; 제 1 및 제 2 프레임들 사이에서 세계 좌표들에 대한 DVS의 관성 움직임들을 검출하는 단계; 및 추정된 변환 및 검출된 DVS의 관성 움직임들에 기초하여, 제 1 프레임 및 제 2 프레임 사이에서 카메라 포즈의 변화를 추정하는 단계를 포함할 수 있는 DVS의 포즈를 추정하는 방법을 제공한다.One embodiment includes detecting DVS events; At least one of the plurality of DVS events observed during the first frame matches the DVS event detected during the second frame by matching the confidence level values in the camera projection model based on the estimated depth of the camera, And the second frame follows the first frame; Detecting inertial movements of the DVS for world coordinates between the first and second frames; And estimating a change in the camera pose between the first frame and the second frame based on the estimated transform and the inertial movements of the detected DVS.
일 실시 예는 멀티 스케일 시간 방식에 기초하여 DVS, 변환 추정기, 및 카메라 포즈 추정기 포즈 추정기를 포함할 수 있는 DVS 포즈 추정 시스템을 제공한다. DVS는 DVS 카메라에 대한 카메라 프로젝션 모델 내의 DVS 이벤트들을 검출할 수 있다. 변환 추정기는 추정된 깊이 및 카메라 프로젝션 모델의 신뢰 수준 값들의 매칭에 기초하여, 카메라의 변환을 추정하여 제 1 프레임 동안 검출된 복수의 DVS 이벤트 중 적어도 하나가 적어도 두 프레임 통합 시간들에 대한 제 2 프레임 동안 검출된 DVS 이벤트에 대응하고, 제 2 프레임은 각각의 프레임 통합 시간에 대해 제 1 프레임 다음에 오도록 할 수 있다. 카메라 포즈 추정기는 추정된 변환에 디초하여 복수의 프레임 통합 시간 중 적어도 둘에 대해 제 1 프레임 및 제 2 프레임 사이에서 카메라의 포즈에서의 변화를 추정할 수 있고, 카메라 포즈 추정기는 추가적으로 제 1 프레임 통합 시간이 제 2 프레임 통합 시간보다 길 때, 제 2 프레임 통합 시간에 대해 제 1 프레임 및 제 2 프레임 사이에서 카메라의 포즈에서의 변화의 추정에 기초하여 제 1 통합 시간에 대해 제 1 프레임 및 제 2 프레임 사이에서 카메라의 포즈에서의 변화의 추정을 정정할 수 있다.One embodiment provides a DVS pose estimation system that may include a DVS, a transform estimator, and a camera pose estimator pose estimator based on a multi-scale time scheme. The DVS can detect DVS events within the camera projection model for the DVS camera. The transform estimator estimates a transformation of the camera based on the matching of the confidence level values of the camera projection model and the estimated depth to determine that at least one of the plurality of DVS events detected during the first frame is the second A DVS event detected during the frame, and a second frame following the first frame for each frame integration time. The camera pose estimator may estimate the change in the pose of the camera between the first frame and the second frame for at least two of the plurality of frame integration times, When the time is longer than the second frame integration time, for the first integration time, based on the estimation of the change in the pose of the camera between the first frame and the second frame for the second frame integration time, It is possible to correct the estimation of the change in the pose of the camera between frames.
본 발명의 실시 예에 따르면, DVS의 포즈를 정확하게 추정하기 위한 장치 및 방법이 제공될 수 있다.According to an embodiment of the present invention, an apparatus and method for accurately estimating a pose of a DVS can be provided.
도 1은 본 명세서에서 개시된 주제에 따른, DVS 포즈 추정 시스템의 블록도를 도시한다.
도 2는 본 명세서에서 개시된 주제에 따른, 동일한 DVS 이벤트 스트림 또는 동일한 관성 측정부 출력 데이터 스트림에 대한 두 개의 예시적인 동시 프레임 통합 시간들을 도시한다.
도 3은 신뢰 수준 값()이 일 실시 예에서 결정될 수 있는 방법을 도시한다.
도 4는 본 명세서에서 개시된 주제에 따른, DVS 카메라 포즈를 추정하는 예시적인 프로세스를 도시한다.
도 5는 본 명세서에서 개시된 주제에 따른, DVS 포즈 추정 시스템을 포함하는 하나 이상의 집적 회로들(칩들)을 포함하는 전자 장치를 도시한다.
도 6은 본 명세서에서 개시된 주제에 따른, DVS 포즈 추정 시스템을 포함할 수 있는 메모리 시스템을 도시한다.Figure 1 shows a block diagram of a DVS pose estimation system according to the subject matter disclosed herein.
FIG. 2 illustrates two exemplary simultaneous frame integration times for the same DVS event stream or the same inertial measurement section output data stream, according to the subject matter disclosed herein.
Figure 3 shows the confidence level value ) Can be determined in one embodiment.
4 illustrates an exemplary process for estimating a DVS camera pose, in accordance with the subject matter disclosed herein.
FIG. 5 illustrates an electronic device comprising one or more integrated circuits (chips) including a DVS pose estimation system, according to the subject matter disclosed herein.
Figure 6 illustrates a memory system that may include a DVS pose estimation system, in accordance with the subject matter disclosed herein.
이하의 본문에서, 다양한 상세한 설명들은 본문의 이해를 제공하기 위하여 제시된다. 그러나 이러한 상세한 설명 없이 기재된 본 발명의 사상이 당업자에 의해 용이하게 구현될 수 있음은 잘 이해될 것이다. 다른 예에서, 잘 알려진 방법들, 절차들, 구성들, 및 회로들은 본문을 모호하게 하지 않기 위하여 설명되지 않는다.In the following text, the various detailed descriptions are presented to provide an understanding of the text. It will be appreciated, however, that the spirit of the invention disclosed without this detailed description can be readily implemented by those skilled in the art. In other instances, well-known methods, procedures, structures, and circuits have not been described so as not to obscure the text.
상세한 설명에서 "하나의 실시 예" 또는 "일 실시 예"를 참조하는 것은 실시 예와 연관된 특정한 특징, 구조, 또는 특성이 본문의 적어도 하나의 실시 예에 포함될 수 있음을 의미한다. 즉, 본문의 다양한 위치에서 사용되는 "하나의 실시 예에서" 또는 "일 실시 예에서" 또는 "하나의 실시 예에 따라" 또는 유사한 의미를 갖는 다른 표현들은 동일한 실시 예를 참조하는 것을 요구하지 않는다. 더욱이, 특정한 특징들, 구조들, 또는 특성들은 적절한 방식으로 하나 또는 그 이상의 실시 예들에서 조합될 수 있다. 이것과 관련하여, 본 명세서에서 사용된 바와 같이, “예시적인”은 “예, 예시, 또는 도면으로서 제공되는 것”을 의미한다. 또는, 본문에서 언급된 내용에 따라, 단수 용어는 복수의 형태를 포함하고, 복수 용어는 단수 형태를 포함할 수 있다. 구성 도면들을 포함하는 다양한 도면들은 오직 설명의 목적을 위하여 본문에서 언급되고, 도시되며, 정량화되지 않는다. 예를 들어, 몇몇 구성요소들의 차수들은 명확성을 위하여 다른 구성 요소들에 보다 과장될 수 있다. 또한, 적절하게 고려될 경우, 참조 번호들은 대응하는 및/또는 유사한 구성요소들을 지시하기 위한 도면들 사이에서 반복될 수 있다.Reference in the specification to "one embodiment" or "one embodiment" means that a particular feature, structure, or characteristic associated with the embodiment may be included in at least one embodiment of the text. That is, the terms " in one embodiment "or" in one embodiment "or" according to one embodiment "or similar expressions used in various places in the text do not require reference to the same embodiment . Moreover, the particular features, structures, or characteristics may be combined in any suitable manner in one or more embodiments. In this regard, as used herein, the word " exemplary " means " serving as an example, instance, or illustration. Alternatively, in accordance with what is stated in the text, the singular terms include plural forms, and the plural terms may include singular forms. The various figures, including the construction drawings, are mentioned, illustrated and not quantified in the text for purposes of illustration only. For example, the order of some components may be exaggerated for other components for clarity. Also, where properly considered, reference numerals may be repeated among the figures to indicate corresponding and / or like elements.
본 명세서에서 사용된 용어들은 단지 특정한 실시 예들을 설명하기 위한 것이고, 본 발명을 제한하려는 것으로 의도되지 않았다. 본 명세서에서 사용된 바와 같이, 문맥상 명백하게 다르게 뜻하지 않는 한, 단수 형태 “하나”는 복수의 형태도 포함하는 것으로 의도된다. “구성되는”, “구성되고 있는”, “포함하는”, 그리고 “포함하고 있는” 용어들이 본 명세서에서 사용될 때, 이러한 용어들은 정해진 특징들, 정수들, 단계들, 동작들, 요소들, 그리고/또는 성분들이 존재를 명시하나, 하나 또는 그 이상의 다른 특징들, 정수들, 단계들, 동작들, 요소들, 성분들, 그리고/또는 그것들의 그룹들의 추가 또는 존재를 불가능하게 하지 않는다. "제1", "제2"와 같은 용어들은 앞서 설명된 구성에 대한 라벨로써 사용되고, 별도의 정의가 없는 한 특정한 순서(예를 들어, 공간적, 시간적, 논리적, 등)를 의도하는 것은 아니다. 더욱이, 동일한 참조 번호들은 동일하거나 또는 유사한 기능을 갖는 부분들, 구성들, 블록들, 회로들, 유닛들, 또는 모듈들을 지칭하기 위하여 둘 이상의 도면들에 걸쳐 사용될 수 있다. 그러나 이러한 사용은 단순히 설명의 간결성 및 편의를 위한 것이며, 이러한 구성들 및 유닛들의 구성 또는 구조적인 세부 사항들이 모든 실시 예들 또는 공통적으로 참조되는 부분들/모듈들에서 동일한 것으로 의도되지 않으며, 단순히, 본 발명의 특정 실시 예들을 지칭하기 위한 하나의 수단이다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. As used herein, the singular form " a " is intended to include plural forms unless the context clearly dictates otherwise. When used in this specification, terms such as " comprising, " " comprising, " / Or the components specify presence, but do not preclude the addition or presence of one or more other features, integers, steps, operations, elements, components, and / or groups thereof. Terms such as " first "and" second "are used as labels for the configurations described above and are not intended to be in any particular order (e.g., spatial, temporal, logical, etc.) unless otherwise defined. Moreover, the same reference numbers may be used throughout the two or more drawings to refer to parts, structures, blocks, circuits, units, or modules having the same or similar function. It is to be understood, however, that such use is merely for brevity's sake of simplicity and convenience, and that the organization and structural details of such arrangements and units are not intended to be identical in all embodiments or commonly referenced parts / Is one means for designating certain embodiments of the invention.
다르게 정의되지 않는 한, 본 명세서에서 사용된 모든 용어들(기술적 그리고 과학적 용어들을 포함하는)은 본 발명이 속한 기술 분야에서 당업자에 의해 일반적으로 이해되는 동일한 의미를 갖는다. 일반적으로 사용되는 사전에 정의된 이러한 용어들은 본 명세서 그리고/또는 관련 기술의 문맥에서 그들의 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의되지 않는 한 이상화되거나 지나지게 형식적인 감각으로 해석되지 않아야 한다.Unless otherwise defined, all terms (including technical and scientific terms) used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. These commonly used predefined terms are to be interpreted as having a meaning consistent with their meaning in the context of this specification and / or the related art, and are to be interpreted as being idealized or overly formal, unless explicitly defined herein It should not be interpreted.
본문에서 사용되는 바와 같이, “모듈” 이라는 용어는, 모듈과의 연결에 있어 본 명세서에서 설명된 기능을 제공하도록 구성된 소프트웨어, 펌웨어, 및/또는 하드웨어의 임의의 조합을 지칭한다. 본 명세서에서 기술된 어느 구현에 적용되는 용어로서, “소프트웨어” 는 소프트웨어 패키지, 코드 및/또는 명령 세트 또는 명령들로서 구현될 수 있다. 본 명세서에서 기술된 어느 구현에 적용되는 용어로서, “하드웨어”는, 예로서, 단독으로 또는 임의의 조합으로, 유선 회로, 프로그래밍 가능한 회로, 상태 기계 회로, 및/또는 프로그래밍 가능한 회로에 의해 실행되는 명령들을 저장하는 펌웨어를 포함할 수 있다. 모듈들은, 집합적으로 또는 개별적으로, 소ㅡ트웨어, 집적회로(IC) 및 시스템 온 칩(SoC) 등과 같은, 하지만 이에 한정되지 않는, 더 큰 시스템의 부분을 구성하는 펌웨어 및/또는 하드웨어로서 구현될 수 있다.As used herein, the term " module " refers to any combination of software, firmware, and / or hardware configured to provide the functions described herein in connection with the module. As applied to any of the implementations described herein, the term " software " may be embodied as a software package, code, and / or a set of instructions or instructions. As applied to any implementation described herein, the term " hardware " is intended to encompass all types of circuitry, such as, by way of example, singly or in any combination, implemented by wired circuitry, programmable circuitry, state machine circuitry, and / Firmware that stores instructions. The modules may be implemented as firmware and / or hardware that constitutes part of a larger system, such as, but not limited to, software, integrated circuit (IC) and system on chip .
본 명세서에 개시된 주제는, 적응적 샘플링 시간을 갖고 카메라의 깊이 추정기 및 카메라 프로젝션 모델 내 검출된 이벤트들 사이에서의 시간적 상관관계의 컨피던스 맵의 매칭에 기초한 DVS 카메라의 포즈 추정을 제공하는 다이나믹 비전 센서(이하, DVS) 포즈 추정 시스템과 관련된다. 컨피던스 맵에 기초하여, DVS의 포즈 및 위치를 추정하기 위해 두 프레임들 사이에서 강조 이미지(weighted image) 매칭이 수행된다. 컨피던스 맵에 기초한 강조 이미지 매칭은, 종래의 매칭 기술에 비해 많은 수의 프레임들을 통해 더 뛰어난 매칭 정확도를 제공한다. 즉, 로컬 특징들은 DVS 프레임들에서 드물고 매우 변형적이기 때문에, 로컬 특징들의 매칭에 기반한 벤치마크 트래킹 시스템은 적절하지 않고, 글로벌 맵에 대한 참조가 부족할 수 있고, 이로 인해 추정 편차가 발생한다. 본 명세서에 개시된 주제는, 추정된 카메라 포즈들의 가능성을 최대로 하고, 추정 편차를 줄이기 위해 멀티스케일 시간 해상도 기술을 사용한다. 시스템 발산 및 시간 통합 편차를 추가로 방지하기 위해, 관성 측정부 센서는 시스템 정확도를 최적화하기 위해 DVS와 통합될 수 있다.The subject matter disclosed herein relates to a dynamic vision sensor that provides a pose estimation of a DVS camera based on matching of a depth map of a camera with an adaptive sampling time and a confidence map of temporal correlation between detected events in a camera projection model (DVS) pose estimation system. Based on the confidence map, weighted image matching is performed between the two frames to estimate the pose and position of the DVS. Enhanced image matching based on a confidence map provides greater matching accuracy over a larger number of frames than conventional matching techniques. That is, the benchmark tracking system based on the matching of local features is not appropriate, and there may be a lack of reference to the global map, because the local features are rare and highly variant in DVS frames, resulting in estimation variances. The subject matter disclosed herein uses multiscale temporal resolution techniques to maximize the likelihood of estimated camera poses and to reduce estimation variance. To further prevent system divergence and time integration deviations, inertial sensor sensors can be integrated with DVS to optimize system accuracy.
본 명세서에 개시된 주제는, DVS 카메라 트래킹을 위한 센서 융합 및 프레임들 사이의 멀티 스케일 강조 매칭을 제공하는 DVS 트래킹 시스템도 제공한다. 일 실시 예에서, 멀티 스케일 매칭 기술은 DVS 프레임들 전반의 높은 특징/이벤트 변화들에 의해 발생할 수 있는 DVS 포즈 추정 에러를 줄이는데 사용된다. 시스템 발산을 피하고, 시간 통합 편차를 줄이고, 트래킹 정확도들을 최적화하기 위해, IMU 센서 데이터는 DVS 포즈 추정에 포함될 수 있다.The subject matter disclosed herein also provides a DVS tracking system that provides sensor fusion for DVS camera tracking and multi-scale highlight matching between frames. In one embodiment, a multi-scale matching technique is used to reduce DVS pose estimation errors that may be caused by high feature / event changes across DVS frames. To avoid system divergence, reduce time integration deviations, and optimize tracking accuracy, IMU sensor data may be included in the DVS pose estimation.
일 실시 예에서, 컨피던스 맵의 이미지 표현에 기반한 강조 이미지 매칭 기술은 더 좋은 DVS 이미지 인식 및 DVS 슬램(Simultaneous Localization and Mapping; SLAM)을 제공하는 더 높은 매칭 정확도로 이어진다. 또한, 멀티스케일 이미지 매칭 기술은 DVS 포즈 추정 에러를 감소시킨다. DVS 포즈 추정 시스템 및 IMU 센서의 융합은 시스템 발산을 더 피하고, 시간 통합 편차를 줄이고, 트래킹 정확도들을 최적화할 수 있다.In one embodiment, the enhanced image matching technique based on the image representation of the confidence map leads to a higher matching accuracy that provides better DVS image recognition and DVS slams (Simultaneous Localization and Mapping; SLAM). In addition, the multi-scale image matching technique reduces the DVS pose estimation error. The convergence of the DVS pose estimation system and the IMU sensor further avoids system divergence, reduces time integration deviations, and optimizes tracking accuracy.
도 1은 본 명세서에서 개시된 주제에 따른, DVS 포즈 추정 시스템(100)의 블록도를 도시한다. 시스템(100)은 DVS(101), 프레임 셰이퍼(102), 변환 추정기(103), 카메라 포즈 추정기(104), 관성 운동부(Inertial movement unit; IMU, 105), 및 통합기(106)를 포함한다. 도 1에 도시된 다양한 블록들은 물리 하드웨어 모듈들, 소프트웨어 모듈들 또는 물리 하드웨어 모듈들 및 소프트웨어 모듈들의 조합(펌웨어)로서 구현될 수 있는 것으로 이해되어야 한다.1 shows a block diagram of a DVS pose
DVS(101)는 DVS(101)의 시야 내의 DVS 이벤트들을 검출한다. DVS(101)의 시야는 DVS(101)에 대한 카메라 프로젝션 모델 에 의해 모델링 될 수 있다. DVS(101)은 DVS 이벤트 데이터 스트림(107)을 프레임 셰이퍼(102)로 출력한다. DVS(101) 데이터 스트림(107)은, 각각의 이벤트가 특정한 상태, 즉 이미지 센서 어레이 내의 이벤트 위치 및 휘도의 양 또는 음의 변화를 나타내는 이진 상태와 관련된 이벤트들의 스트림을 포함한다.The
프레임 셰이퍼(102)는, DVS 이벤트 데이터 스트림(107)에 적용되는 프레임 통합 시간을 설정하는 프레임 선택 정보(108)를 수신한다. 본 명세서에서 사용되는 바와 같이, 용어 “프레임 통합 시간”은, 프레임을 형성하기 위해 DVS 이벤트들이 모이고 함께 결합되는 선택 가능한 기간을 나타낸다. 예를 들어, 일 실시 예에서 50ms의 프레임 통합 시간이 선택될 수 있고, DVS 이벤트들은 각각의 50ms의 기간 동안 모이고 동일한 프레임에 있도록 결합된다. 다른 실시 예에서, 100ms의 프레임 통합 시간이 선택될 수 있고, DVS 이벤트들은 각각의 100ms의 기간 동안 모이고 동일한 프레임에 있도록 결합된다. 50ms 또는 100ms와 다른 프레임 통합 시간들이 가능하다는 것이 이해되어야 한다. 또한, 일 실시 예에서, 적어도 두 개의 프레임 통합 시간들이 동시에 선택될 수 있다.The
도 2는 본 명세서에서 개시된 주제에 따른, 동일한 DVS 이벤트 스트림 또는 동일한 IMU 출력 데이터 스트림에 대한 두 개의 예시적인 동시 프레임 통합 시간들을 도시한다. 도 2에 도시된 바와 같이, 50ms의 프레임 통합 시간 및 100ms의 프레임 통합 시간은 동시에 선택될 수 있고, DVS 이벤트들(및/또는 IMU 출력 데이터)은 두 개의 프레임 통합 시간들에 대응하는 프레임들과 동시에 결합될 수 있다. 다른 실시 예에서, 두 개 이상의 동시 프레임 통합 시간들이 선택될 수 있다.Figure 2 illustrates two exemplary simultaneous frame integration times for the same DVS event stream or the same IMU output data stream, according to the subject matter disclosed herein. 2, the frame integration time of 50 ms and the frame integration time of 100 ms can be selected at the same time, and the DVS events (and / or the IMU output data) can be synchronized with the frames corresponding to the two frame integration times Can be combined at the same time. In another embodiment, two or more concurrent frame integration times may be selected.
프레임 셰이퍼(102)는 선택된 각각의 프레임 통합 시간 동안 변환 추정기(103)로 DVS 이벤트들의 프레임들을 출력한다. 변환 추정기(103)는, 선택된 각각의 프레임 통합시간 동안 하나의 프레임으로부터 다음 프레임으로의 DVS 이벤트들의 변환을 추정한다. 추정 과정의 일부로서, 변환 추정기(103)는, 한 프레임에서 다른 프레임으로의 검출된 DVS 이벤트들 사이의 시간적인 상관관계에 기초하여 DVS(101)에 대한 카메라 프로젝션 모델() 내에서 컨피던스 맵을 생성한다. 프레임()내의 이벤트()가 물리적으로 이전 프레임() 내의 이벤트()에 대응하는 신뢰도를 나타내는, 이전 프레임()의 각각의 검출된 DVS 이벤트에 대해 프레임() 내의 각각의 검출된 DVS 이벤트에 대한 신뢰 수준 값()이 결정된다.The
도 3은 일 실시 예에서 신뢰 수준 값()이 어떻게 결정될 수 있는지를 도시한다. 현재 프레임() 내의 이벤트()에 대해,FIG. 3 is a graph illustrating a confidence level value ) Can be determined. Current frame ( ) Within the )About,
위 식에서, N은 현재 프레임()의 시간 윈도(TW) 내의 이벤트()의 인접 영역에 나타나는 이벤트들의 수 이고, M은 이전 프레임()에서 신뢰된 것으로 결정된 이전 이벤트들의 수 이고, α는 상수 이고, 시간 간격에 의존하고, 프레임 의존적일 수 있다. 이 이미 결정된 문턱 값 이상일 경우, 이벤트()는 신뢰 수준 값()을 갖는 신뢰된 이벤트라고 결정된다.In the above equation, N is the current frame ( ) In the time window TW ), M is the number of events appearing in the previous frame ( ), ≪ / RTI > is a constant, may be time interval dependent, and may be frame dependent. Is equal to or greater than the predetermined threshold value, the event ( ) Is the confidence level value ≪ / RTI >
일 실시 예에서, 변환 추정기(103)는 아래 식에 기초하여, 한쌍의 시간적으로 연속한 프레임들에서 검출된 이벤트들의 변환을 추정한다.In one embodiment, the
위 식에서, 는 인덱스이고, 는 검출된 DVS 이벤트이고, 는 DVS 이벤트()에 대한 신뢰 수준 값(스칼라) 이고, 는 프레임 이고, 는 프레임 인덱스이고, 는 DVS에 대한 카메라 프로젝션 모델이고, 은 DVS에 대한 카메라 프로젝션 모델의 역수 이고, 는 카메라 프로젝션 모델() 내의 검출된 이벤트()에 대응하는 벡터고, 는 세계 좌표에서 DVS 이벤트()의 (3D) 깊이이고, 는 프레임 및 프레임 사이의 세계 좌표들에 기초한 복수의 가능한 벡터 변환들 중 하나 이다. 변환 모델은 깊이() 및 카메라 프로젝션 모델() 내 신뢰 이벤트들()의 매칭에 기초하여 카메라의 3D 변환(즉, )을 추정한다. 카메라 프로젝션 모델은 프레임의 위치들에 3D 세계 포인트들을 투사하기 위한 변환 매트릭스를 포함하지만, 카메라 프로젝션 모델의 변환 매트릭스는 카메라 캘리브레이션(calibration) 시 미리 고정될 수 있고, 카메라 동작 내내 바뀌지 않을 것이다. 그러므로, 카메라 프로젝션 변환은, 한 프레임으로부터 다음 프레임으로 움직이는 카메라에 대해 추정된 변환과는 상이하다.In the above equation, Is an index, Is a detected DVS event, DVS event ( (Scalar), < / RTI > Is a frame, Is a frame index, Is a camera projection model for DVS, Is the reciprocal of the camera projection model for DVS, Is a camera projection model The detected event ( ), ≪ / RTI > Is the DVS event ( (3D) depth, Frame And frame Lt; / RTI > is one of a plurality of possible vector transforms based on world coordinates between. The transformation model is a ) And camera projection model ( ) My Trust Events ( ) Of the camera based on the matching of the camera (i.e., ). The camera projection model includes a transformation matrix for projecting 3D world points at locations of the frame, but the transformation matrix of the camera projection model may be fixed in advance during camera calibration and will not change throughout the camera motion. Therefore, the camera projection transformation is different from the estimated transformation for the camera moving from one frame to the next.
변환 추정기(103)는, 상이한 프레임 통합 시간을 갖는 각각의 이벤트 스트림에 대해 각각의 시간적으로 연속한 프레임들 쌍에 대한 변환을 추정한다. 즉, 하나의 프레임 통합 시간만이 선택된 경우, 변환 추정기(103)는, 변환 추정기(103)에 의해 수신된 하나의 이벤트 스트림 내의, 시간적으로 연속한 프레임들 각각의 쌍에 대한 변환을 추정한다. 둘 이상의 프레임 통합 시간들이 선택된 경우, 변환 추정기(103)는, 선택된 프레임 통합 시간에 대응하는 각각의 이벤트 스트림에 대해 시간적으로 연속한 프레임들 각각의 쌍에 대한 변환을 추정한다.The
변환 추정기(103)는 추정된 변환(들)을 카메라 포즈 추정기(104)로 출력한다. 일 실시 예에서, 카메라 포즈 추정기(104)는, 이전 프레임에 기초하여 카메라 포즈를 조정하는 대신, 세계 좌표들 상의 맵에 대해 조정되어 있는 카메라 포즈를 추정하기 위해 추정된 변환(들)을 사용한다. 둘 이상의 프레임 통합 시간들이 선택된 경우, 카메라 포즈 추정기(104)는 상이한 프레임 통합 시간을 갖는 각각의 이벤트 스트림에 대한 카메라 포즈를 추정한다. 도 4는 본 명세서에서 개시된 주제에 따른, DVS 카메라 포즈를 추정하는 예시적인 프로세스를 도시한다. 도 4에서 현재 프레임() 및 이전 프레임()은 높은 신뢰도 수준을 갖는 것으로 결정된 DVS 이벤트()들을 포함하는 것으로 도시된다. 즉, 프레임() 내의 DVS 이벤트들(, 및 )은, 프레임() 내의 DVS 이벤트들(, 및 )에 대해 각각 높은 신뢰 수준을 갖는다. 변환()은 프레임() 및 프레임() 사이에서 결정된다. 변환()은 이벤트들을 세계 좌표들로 맵핑하는데 사용되고, 이 후 세계 좌표들에 기초하여 카메라 포즈(, 및 ) 추정하는데 사용된다. The
다시 도 1을 참조하면, IMU(105)는 DVS(101)에 물리적으로 연결되어 IMU(105)가 DVS(101)의 관성 움직임들을 검출하도록 한다. IMU(105)의 출력은 동일한 프레임 통합 시간(들)을 사용하고 프레임 셰이퍼(102)에 의해 사용되는 프레임 통합 시간(들)과 동기화된 통합기(106)에 의해 통합된다. 하나 보다 많은 프레임 통합 시간이 프레임 선택 정보(108)에 의해 선택된 경우, 통합기(106)는 각각의 선택된 프레임 통합 시간에 대한 IMU(105)의 출력을 동시에 통합한다(예로서, 도 2 참조).Referring again to FIG. 1, the
일 실시 예에서, 카메라 포즈 추정기(104)는 번환 추정기(103)로부터 추정된 변환을 수신하고 통합기(106)로부터 출력을 수신하며, 카메라 포즈 추정기(104)는 통합된 IMU(105)로부터 수신된 출력을 사용하여 DVS에 대한 추정된 포즈를 정정하고 업데이트 할 수 있다. 일 실시 예에서, 카메라 포즈 추정기(105)는, 수신된 추정된 변환 및 통합기(106)로부터 수신된 출력에 기초하여, DVS의 위치 및/또는 움직임을 추정하기 위해 통합기(106)로부터 수신된 출력도 사용할 수 있다.In one embodiment, the camera pose
다른 실시 예에서, 카메라 포즈 추정기(104)는 두 개의 상이한 프레임 통합 시간들에 기초하여 생성된 두 개의 추정된 변환들을 사용하여 추정된 포즈들을 정정하거나 업데이트 할 수 있다. 즉, 카메라 포즈 추정기(104)는, 50ms와 같은, 비교적 짧은 프레임 통합 시간에 기초하는 추정 변환을 사용하여, 100ms와 같은 비교적 긴 프레임 통합시간에 기초하는 변환에 기초한 추정된 포즈를 정정하거나 업데이트 할 수 있다. 예를 들어, 카메라 포즈 추정기(104)는, 50ms 통합 시간에 기초하는 매 네 번째 추정된 포즈를 사용하여 100ms 프레임 통합 시간에 기초하는 매 두 번째 추정된 포즈를 수정하거나 업데이트 할 수 있다(예로서, 도 2의 점선(201) 참조). 다른 실시 예에서, 카메라 포즈 추정기(104)는, 수신된 변환들 및 50ms와 같은 비교적 짧은 프레임 통합 시간에 기초한 통합기(106)로부터 수신된 출력을 사용하여, 수신된 변환들 및 100ms와 같은 비교적 긴 프레임 통합시간에 기초한 통합기(106)로부터 수신된 출력 으로부터의 DVS의 추정된 포즈, 추정된 포지션 및/또는 추정된 움직임을 정정하거나 업데이트 할 수 있다(예로서, 도 2 참조).In another embodiment, the camera pose
도 5는 본 명세서에서 개시된 주제에 따른, DVS 포즈 추정 시스템을 포함하는 하나 이상의 집적 회로들(칩들)을 포함하는 전자 장치(500)를 도시한다. 전자 장치(500)는 컴퓨팅 장치, 개인 정보 단말기(PDA), 랩탑 컴퓨터, 모바일 컴퓨터, 웹 태블릿, 무선 전화기, 핸드폰, 스마트폰, 디지털 음원 재생기, 또는 유선 또는 무선 전자 장치에서 사용될 수 있으나, 이에 제한되지 않는다. 전자 장치(500)는 버스(550)를 통해 서로에게 연결된, 컨트롤러(510), 키패드, 키보트, 디스플레이 또는 터치 스크린 디스플레이와 같은, 하지만 이에 제한되지 않는, 입력/출력 장치(520), 메모리(530) 및 무선 인터페이스(540)를 포함할 수 있다. 예를 들어, 컨트롤러(510)는 적어도 하나의 마이크로 프로세서, 적어도 하나의 디지털 신호 프로세서, 적어도 하나의 마이크로 컨트롤러 등을 포함할 수 있다. 메모리(530)는 컨트롤러(510) 또는 사용자 데이터에 의해 사용되는 명령어 코드를 저장하도록 구성될 수 있다. 전자 장치(500) 및 전자 장치(500)를 포함하는 다양한 시스템 구성요소들은 본 명세서에 개시된 주제에 따른 DVS 포즈 추정 시스템을 포함할 수 있다. 전자 장치(500)은 RF 신호를 사용하는 무선 통신 네트워크로 데이터를 송신하거나 무선 통신 네트워크로부터 데이터를 수신하도록 구성된 무선 인터페이스(540)를 사용할 수 있다. 예를 들어, 무선 인터페이스(540)는 안테나, 무선 트랜스시버 등을 포함할 수 있다. 전자 장치(500)는 부호 분할 다중 접속(CDMA), 이동통신을 위한 국제 시스템(GSM), 북 아메리카 디지털 통신(NADC), 확장 시분할 다중 접속(E-TDMA), 광대역 부호 분할 다중 접속(WCDMA), CDMA2000, 와이파이(Wi-Fi), 도시 와이파이(Muni Wi-Fi), 블루투스, 강화된 디지털 코드 없는 통신 방식(DECT), 무선 범용 직렬 버스(무선 USB), Flash-OFDM(Fast low-latency access with seamless handoff Orthogonal Frequency Division Multiplexing), IEEE 802.20, 일반 패킷 무선 시스템(GPRS), iBrust, 와이브로(WiBro), 와이맥스(WiMAX), 와이맥스 어드밴스드(WIMAX-Advanced), UMTS-TDD (Universal Mobile Telecommunication Service Time Division Duplex), 고속 패킷 접속 방식(HSPA), EVDO(Evolution Data Optimized), LTE-A(Long Term Evolution-Advanced), 다채널 다지점 분배 서비스(MMDS) 등과 같은, 하지만 이에 제한되지는 않는, 통신 시스템의 통신 인터페이스 프로토콜에서 사용될 수 있다.FIG. 5 illustrates an
도 6은 본 명세서에서 개시된 주제에 따른, DVS 포즈 추정 시스템을 포함할 수 있는 메모리 시스템(600)을 도시한다. 메모리 시스템(600)은 많은 양의 데이터를 저장하는 메모리 장치(610)와 메모리 컨트롤러(620)를 포함할 수 있다. 메모리 컨트롤러(620)는, 호스트(630)의 읽기/쓰기 요청에 응답하여, 메모리 장치(610)에 저장된 데이터를 읽거나 메모리 장치(610)에 데이터를 쓰도록 메모리 장치(610)를 제어한다. 메모리 컨트롤러(620)는 호스트(630)(예로서, 모바일 장치 또는 컴퓨터 시스템)로부터 제공된 주소를 메모리 장치(610)의 물리 주소에 매핑하기 위한 주소 매핑 테이블을 포함할 수 있다. 메모리 장치(610)는, 본 명세서에 개시된 주제에 따른 DS 포즈 추정 시스템을 포함하는 하나 이상의 반도체 장치들을 포함할 수 있다. FIG. 6 illustrates a
해당 기술분야의 통상의 기술자들에 의해 이해되듯이, 본 명세서에 개시된 진보한 개념은 넓은 범위의 응용에 걸쳐 수정되고 변화될 수 있다. 따라서, 청구된 주제의 범위는, 위에서 설명된 특정한 임의의 예시적인 교시에 의해 제한되지 않고 이하 청구항들에 의해 정의 된다.As will be appreciated by one of ordinary skill in the art, the advanced concepts disclosed herein may be modified and varied over a wide range of applications. Accordingly, the scope of the claimed subject matter is not limited by any of the specific illustrative teachings set forth above, but is defined by the following claims.
Claims (20)
추정된 깊이에 기초하여 상기 DVS의 카메라의 변환을 추정하고, 제 1 프레임 동안 검출된 복수의 이벤트 중 적어도 하나가 제 2 프레임 동안 검출된 DVS 이벤트에 대응하도록 카메라 프로젝션 모델 내의 신뢰 수준 값들을 매칭하고, 상기 제 2 프레임은 상기 제 1 프레임 다음에 오는 변환 추정기;
상기 제 1 및 제 2 프레임들 사이에서 세계 좌표들에 대해 상기 DVS의 관성 움직임들을 검출하기 위한 관성 측정부(Inertial Measurement Unit; IMU); 및
상기 추정된 정보, 및 상기 DVS의 상기 검출된 관성 움직임들에 기초하여, 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 DVS 카메라의 포즈에서의 변화로부터의 정보를 결합하기 위한 카메라 포즈 추정기를 포함하는 다이나믹 비전 센서 포즈 추정 시스템.A DVS for detecting DVS (Dynamic Vision Sensor) events and forming frames based on the accumulated DVS events;
Estimating a transformation of the camera of the DVS based on the estimated depth and matching the confidence level values in the camera projection model such that at least one of the plurality of events detected during the first frame corresponds to the DVS event detected during the second frame , The second frame being a transform estimator following the first frame;
An Inertial Measurement Unit (IMU) for detecting inertial movements of the DVS with respect to world coordinates between the first and second frames; And
And a camera pose estimator for combining information from a change in a pose of the DVS camera between the first frame and the second frame based on the estimated information and the detected inertial movements of the DVS A dynamic vision sensor pose estimating system.
상기 카메라 포즈 추정기는,
상기 추정된 변환에 기초하여, 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 변환 모델의 포즈에서의 상기 추정된 변화를 정정하기 위해 상기 DVS의 상기 검출된 관성 움직임들을 사용하는 다이나믹 비전 센서 포즈 추정 시스템.The method according to claim 1,
Wherein the camera pose estimator comprises:
Using the detected inertial movements of the DVS to correct the estimated change in the pose of the transformation model between the first frame and the second frame based on the estimated transformation, .
상기 변환 추정기는,
복수의 프레임 통합 시간동안 제 1 및 제 2 프레임들에 대한 상기 DVS 카메라의 상기 변환을 추정하고,
상기 카메라 포즈 추정기는, 제 2 프레임 통합 시간에 대응하는 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 DVS 카메라의 상기 포즈에서의 상기 변화의 추정에 기초하여 제 1 프레임 통합 시간에 대응하는 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 DVS의 포즈에서의 변화의 제 1 추정을 정정하고, 상기 제 1 프레임 통합 시간은 상기 제 2 프레임 통합 시간보다 긴 다이나믹 비전 센서 포즈 추정 시스템.The method according to claim 1,
Wherein the conversion estimator comprises:
Estimating the conversion of the DVS camera for the first and second frames during a plurality of frame integration times,
Wherein the camera pose estimator calculates the camera pose estimator based on an estimate of the change in the pose of the DVS camera between the first frame and the second frame corresponding to a second frame integration time, Corrects a first estimate of a change in a pose of the DVS between one frame and the second frame, and wherein the first frame integration time is longer than the second frame integration time.
상기 변환 추정기는 복수의 프레임 통합 시간들 동안 상기 제 1 및 제 2 프레임들에 대한 상기 DVS 카메라의 상기 변환을 추정하고,
상기 IMU는, 각각의 상기 복수의 프레임 통합 시간들 동안 제 1 및 제 2 프레임들 사이에서 세계 좌표들에 대한 상기 DVS의 관성 움직임들을 검출하는 다이나믹 비전 센서 포즈 추정 시스템.The method according to claim 1,
Wherein the transform estimator estimates the transform of the DVS camera for the first and second frames during a plurality of frame aggregation times,
Wherein the IMU detects inertial movements of the DVS for world coordinates between first and second frames during each of the plurality of frame integration times.
상기 변환 추정기는,
에 기초하여 상기 변환을 추정하고, 는 인덱스이고, 는 검출된 DVS 이벤트이고, 는 DVS 이벤트()에 대한 신뢰 수준 값(스칼라) 이고, 는 프레임 이고, 는 프레임 인덱스이고, 는 DVS에 대한 카메라 프로젝션 모델이고, 은 DVS에 대한 카메라 프로젝션 모델의 역수 이고, 는 카메라 프로젝션 모델() 내의 검출된 이벤트()에 대응하는 벡터고, 는 세계 좌표에서 상기 DVS 이벤트()의 (3D) 깊이이고, 는 프레임 및 프레임 사이의 세계 좌표들에 기초한 복수의 가능한 벡터 변환들 중 하나인 다이나믹 비전 센서 포즈 추정 시스템.The method according to claim 1,
Wherein the conversion estimator comprises:
Estimates the transform based on the transform, Is an index, Is a detected DVS event, DVS event ( (Scalar), < / RTI > Is a frame, Is a frame index, Is a camera projection model for DVS, Is the reciprocal of the camera projection model for DVS, Is a camera projection model The detected event ( ), ≪ / RTI > Lt; RTI ID = 0.0 > DVS < / RTI & (3D) depth, Frame And frame Wherein the dynamic vision sensor pose estimator is one of a plurality of possible vector transforms based on world coordinates between the input vectors.
상기 카메라 포즈 추정기는, 상기 추정된 변환에 기초하여 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 DVS에 대한 상기 카메라 프로젝션 모델의 상기 포즈에서의 상기 추정된 변화를 정정하기 위해 상기 DVS의 상기 검출된 관성 움직임들을 사용하는 다이나믹 비전 센서 포즈 추정 시스템.6. The method of claim 5,
Wherein the camera pose estimator is operative to determine a camera pose of the DVS based on the estimated transition of the camera projection model, A dynamic vision sensor pose estimation system using inertial movements.
상기 변환 추정기는, 복수의 프레임 통합 시간 동안 대해 제 1 및 제 2 프레임들에 대한 상기 DVS 카메라의 상기 변환을 추정하고,
상기 카메라 포즈 추정기는, 제 2 통합 시간에 대응하는 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 DVS 카메라 포즈에서의 상기 변화의 추정에 기초하여, 제 1 통합 시간에 대응하는 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 DVS 카메라 포즈에서의 상기 변화의 추정을 정정하고, 상기 제 1 통합 시간은 상기 제 2 통합 시간 보다 긴 다이나믹 비전 센서 포즈 추정 시스템.6. The method of claim 5,
Wherein the transform estimator estimates the transform of the DVS camera for the first and second frames for a plurality of frame integration times,
Wherein the camera pose estimator is configured to estimate the camera pose based on an estimate of the change in the DVS camera pose between the first frame and the second frame corresponding to a second integration time, Corrects an estimate of the change in the DVS camera pose between the second frame, and wherein the first integration time is longer than the second integration time.
상기 변환 추정기는 복수의 프레임 통합 시간들 동안 제 1 및 제 2 프레임들에 대한 상기 DVS 카메라의 상기 변환을 추정하고,
상기 IMU는, 각각의 상기 복수의 프레임 통합 시간들 동안 상기 제 1 및 제 2 프레임들 사이에서 상기 세계 좌표들에 대한 상기 DVS의 관성 움직임들을 검출하는 다이나믹 비전 센서 포즈 추정 시스템.6. The method of claim 5,
Wherein the transform estimator estimates the transform of the DVS camera for the first and second frames during a plurality of frame integration times,
Wherein the IMU detects inertial movements of the DVS for the world coordinates between the first and second frames during each of the plurality of frame integration times.
추정된 깊이에 기초하여 상기 카메라의 변환을 추정하고, 제 1 프레임 동안 관측된 복수의 DVS 이벤트 중 적어도 하나가 제 2 프레임 동안 검출된 DVS 이벤트에 대응하도록 카메라 프로젝션 모델 내의 신뢰 수준 값들을 매칭하고, 상기 제 2 프레임은 상기 제 1 프레임 다음에 오는 단계;
상기 제 1 및 제 2 프레임들 사이에서 세계 좌표들에 대한 상기 DVS의 관성 움직임들을 검출하는 단계; 및
상기 추정된 변환 및 상기 DVS의 상기 검출된 관성 움직임들에 기초하여, 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 포즈에서의 변화를 추정하는 단계를 포함하는 DVS를 위한 카메라의 포즈를 추정하는 방법.Detecting DVS events and forming frames from the accumulated DVS events;
Estimate the transform of the camera based on the estimated depth and match the confidence level values in the camera projection model such that at least one of the plurality of DVS events observed during the first frame corresponds to the DVS event detected during the second frame, The second frame coming after the first frame;
Detecting inertial movements of the DVS for world coordinates between the first and second frames; And
Estimating a change in a pose of the camera between the first frame and the second frame based on the estimated transform and the detected inertial movements of the DVS, How to estimate.
상기 DVS의 상기 검출된 관성 움직임들을 사용한 상기 추정된 변환에 기초하여 생성된 상기 제 1 프레임 및 상기 제 2 프레임 사이에서, 상기 카메라의 상기 포즈에서의 상기 추정된 변화를 정정하는 단계를 더 포함하는 방법.10. The method of claim 9,
Further comprising correcting the estimated change in the pose of the camera between the first frame and the second frame generated based on the estimated transformation using the detected inertial movements of the DVS Way.
제 1 및 제 2 프레임들에 대한 상기 카메라의 상기 변환을 추정하는 단계는 복수의 프레임 통합 시간 동안 상기 카메라의 변환을 추정하는 단계를 포함하고,
제 2 프레임 통합 시간에 대응하는 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 포즈에서의 상기 변화의 추정에 기초하여 제 1 프레임 통합 시간에 대응하는 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 포즈에서의 상기 변화의 추정을 정정하고 상기 제 1 프레임 통합 시간은 상기 제 2 프레임 통합 시간보다 긴 단계를 더 포함하는 방법.10. The method of claim 9,
Wherein estimating the transform of the camera for the first and second frames comprises estimating the transform of the camera during a plurality of frame integration times,
The first frame corresponding to the first frame integration time and the second frame corresponding to the first frame integration time based on the estimation of the change in the pose of the camera between the first frame and the second frame corresponding to the second frame integration time Correcting an estimate of the change in a pose of the camera at the first frame integration time and the first frame integration time being longer than the second frame integration time.
상기 카메라의 상기 변환을 추정하는 단계는, 복수의 프레임 통합 시간 동안 제 1 및 제 2 프레임들에 대한 상기 카메라의 상기 변환을 추정하는 단계를 포함하고,
상기 DVS의 상기 관성 움직임들을 검출하는 단계는, 각각의 상기 복수의 프레임 통합 시간들 동안 상기 제 1 및 제 2 프레임들 사이에서 상기 세계 좌표들에 대한 상기 DVS의 관성 움직임들을 검출하는 단계를 포함하는 방법.10. The method of claim 9,
Wherein estimating the transform of the camera comprises estimating the transform of the camera for the first and second frames during a plurality of frame integration times,
Wherein detecting the inertial movements of the DVS comprises detecting inertial movements of the DVS for the world coordinates between the first and second frames during each of the plurality of frame integration times Way.
상기 변환을 추정하는 단계는,
에 기초하여 상기 변환을 추정하는 단계를 포함하고, 는 인덱스이고, 는 검출된 DVS 이벤트이고, 는 DVS 이벤트()에 대한 신뢰 수준 값(스칼라) 이고, 는 프레임 이고, 는 프레임 인덱스이고, 는 DVS에 대한 카메라 프로젝션 모델이고, 은 DVS에 대한 카메라 프로젝션 모델의 역수 이고, 는 카메라 프로젝션 모델() 내의 검출된 이벤트()에 대응하는 벡터고, 는 세계 좌표에서 상기 DVS 이벤트()의 (3D) 깊이이고, 는 프레임 및 프레임 사이의 세계 좌표들에 기초한 복수의 가능한 벡터 변환들 중 하나인 방법.10. The method of claim 9,
Wherein the step of estimating the transform comprises:
And estimating the transform based on the transform, Is an index, Is a detected DVS event, DVS event ( (Scalar), < / RTI > Is a frame, Is a frame index, Is a camera projection model for DVS, Is the reciprocal of the camera projection model for DVS, Is a camera projection model The detected event ( ), ≪ / RTI > Lt; RTI ID = 0.0 > DVS < / RTI & (3D) depth, Frame And frame And one of a plurality of possible vector transformations based on the world coordinates between.
상기 DVS의 상기 검출된 관성 움직임들을 사용한 상기 추정된 변환에 기초하여, 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 상기 포즈에서의 상기 추정된 변화를 정정하는 단계를 더 포함하는 방법.14. The method of claim 13,
Further comprising correcting the estimated change in the pose of the camera between the first frame and the second frame based on the estimated transform using the detected inertial motions of the DVS.
상기 카메라의 상기 변환을 추정하는 단계는 복수의 프레임 통합 시간 동안 상기 제 1 및 제 2 프레임들에 대한 상기 카메라의 상기 변환을 추정하는 단계를 포함하고,
제 2 통합 시간에 대응하는 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 포즈에서의 상기 변화의 추정에 기초하여, 제 1 통합 시간에 대응하는 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 포즈에서의 상기 변화의 추정을 정정하고, 상기 제 1 통합 시간은 상기 제 2 통합 시간 보다 긴 단계를 더 포함하는 방법.14. The method of claim 13,
Wherein estimating the transform of the camera comprises estimating the transform of the camera for the first and second frames during a plurality of frame integration times,
Based on an estimation of the change in the pose of the camera between the first frame and the second frame corresponding to a second integration time, Correcting an estimate of the change in a pose of the camera, wherein the first integration time is longer than the second integration time.
카메라 프로젝션 모델의 상기 변환을 추정하는 단계는 복수의 프레임 통합 시간 동안 제 1 및 제 2 프레임들에 대한 상기 카메라의 상기 변환을 추정하는 단계를 포함하고,
상기 DVS의 상기 관성 움직임들을 검출하는 단계는 각각의 상기 복수의 프레임 통합 시간 동안 상기 제 1 및 제 2 프레임들 사이에서 상기 세계 좌표들에 대한 상기 DVS의 관성 움직임들을 검출하는 단계를 포함하는 방법.14. The method of claim 13,
Wherein estimating the transform of the camera projection model comprises estimating the transform of the camera for the first and second frames during a plurality of frame integration times,
Wherein detecting the inertial movements of the DVS comprises detecting inertial movements of the DVS for the world coordinates between the first and second frames during each of the plurality of frame integration times.
추정된 깊이에 기초하여 상기 DVS의 카메라의 변환을 추정하고 제 1 프레임 동안 검출된 복수의 DVS 이벤트 중 적어도 하나는 적어도 두 프레임 통합 시간들에 대한 제 2 프레임 동안 검출된 DVS 이벤트에 대응하도록 카메라 프로젝션 모델 내의 신뢰 수준 값들을 매칭하고, 상기 제 2 프레임은 각 프레임 통합 시간에 대해 상기 제 1 프레임 다음에 오는 변환 추정기; 및
추정된 변환에 기초하여 복수의 프레임 통합 시간 중 적어도 둘에 대해 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 포즈에서의 변화를 추정하기 위한 카메라 포즈 추정기를 포함하고, 상기 카메라 포즈 추정기는 추가적으로 제 2 프레임 통합 시간에 대해 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 상기 포즈에서의 상기 변화의 추정에 기초하여 제 1 프레임 통합 시간에 대해 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 상기 포즈에서의 상기 변화의 추정을 정정하고 상기 제 1 프레임 통합 시간은 상기 제 2 프레임 통합 시간보다 긴 다이나믹 비전 센서 포즈 추정 시스템.A DVS for detecting DVS events and forming frames based on the number of accumulated events;
Estimating a transformation of the camera of the DVS based on the estimated depth and determining at least one of a plurality of DVS events detected during the first frame to correspond to a DVS event detected during a second frame for at least two frame integration times. A confidence estimator for comparing confidence level values in the model, the second frame being for each frame integration time following the first frame; And
And a camera pose estimator for estimating a change in a pose of the camera between the first frame and the second frame for at least two of the plurality of frame integration times based on the estimated transformation, Further comprising, for a first frame integration time, a first frame integration time based on an estimation of the change in the pose of the camera between the first frame and the second frame, Correcting an estimate of the change in the pose of the camera and the first frame integration time being longer than the second frame integration time.
각각의 적어도 둘의 프레임 통합 시간들 동안 상기 제 1 및 제 2 프레임들 사이에서 세계 좌표들에 대한 상기 DVS의 관성 움직임들을 검출하기 위한 관성 측정부(IMU)를 더 포함하되,
상기 카메라 포즈 추정기는, 추가적으로 상기 추정된 변환 및 상기 DVS의 상기 검출된 관성 움직임들에 기초하여 상기 복수의 프레임 통합시간 중 적어도 둘에 대한 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 포즈에서의 상기 변화를 추정하는 다이나믹 비전 센서 포즈 추정 시스템. 18. The method of claim 17,
Further comprising an inertial measurement unit (IMU) for detecting inertial movements of the DVS for world coordinates between the first and second frames during each of at least two frame integration times,
Wherein the camera pose estimator is further configured to determine a pose of the camera between the first frame and the second frame for at least two of the plurality of frame integration times based on the estimated motion and the detected inertial motions of the DVS. And estimates the change in the dynamic vision sensor pose.
상기 카메라 포즈 추정기는 추가적으로 상기 DVS의 상기 검출된 관성 움직임들을 이용한 각각의 프레임 통합 시간 동안 상기 추정된 변환에 기초하여 생성된 상기 제 1 프레임 및 상기 제 2 프레임 사이에서 상기 카메라의 상기 포즈에서의 상기 추정된 변화를 정정하는 다이나믹 비전 센서 포즈 추정 시스템.19. The method of claim 18,
Wherein the camera pose estimator is further operative to determine, for each frame integration time using the detected inertial movements of the DVS, the difference between the first frame and the second frame generated based on the estimated transformation, A dynamic vision sensor pose estimation system for correcting an estimated change.
상기 변환 추정기는,
에 기초하여 각각의 프레임 통합시간에 대한 변환을 추정하고, 는 인덱스이고, 는 검출된 DVS 이벤트이고, 는 DVS 이벤트()에 대한 신뢰 수준 값(스칼라) 이고, 는 프레임 이고, 는 프레임 인덱스이고, 는 DVS에 대한 카메라 프로젝션 모델이고, 은 DVS에 대한 카메라 프로젝션 모델의 역수 이고, 는 카메라 프로젝션 모델() 내의 검출된 이벤트()에 대응하는 벡터고, 는 세계 좌표에서 상기 DVS 이벤트()의 (3D) 깊이이고, 는 프레임 및 프레임 사이의 세계 좌표들에 기초한 복수의 가능한 벡터 변환들 중 하나인 다이나믹 비전 센서 포즈 추정 시스템.18. The method of claim 17,
Wherein the conversion estimator comprises:
Estimates the transform for each frame aggregation time based on the frame aggregation time, Is an index, Is a detected DVS event, DVS event ( (Scalar), < / RTI > Is a frame, Is a frame index, Is a camera projection model for DVS, Is the reciprocal of the camera projection model for DVS, Is a camera projection model The detected event ( ), ≪ / RTI > Lt; RTI ID = 0.0 > DVS < / RTI & (3D) depth, Frame And frame Wherein the dynamic vision sensor pose estimator is one of a plurality of possible vector transforms based on world coordinates between the input vectors.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662437027P | 2016-12-20 | 2016-12-20 | |
US62/437,027 | 2016-12-20 | ||
US15/458,016 US10510160B2 (en) | 2016-12-20 | 2017-03-13 | Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking |
US15/458,016 | 2017-03-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180071962A true KR20180071962A (en) | 2018-06-28 |
KR102568695B1 KR102568695B1 (en) | 2023-08-23 |
Family
ID=62561826
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170173113A KR102568695B1 (en) | 2016-12-20 | 2017-12-15 | Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking |
Country Status (3)
Country | Link |
---|---|
US (2) | US10510160B2 (en) |
KR (1) | KR102568695B1 (en) |
CN (1) | CN108205679B (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11915448B2 (en) | 2021-02-26 | 2024-02-27 | Samsung Electronics Co., Ltd. | Method and apparatus with augmented reality pose determination |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10257456B2 (en) * | 2017-09-07 | 2019-04-09 | Samsung Electronics Co., Ltd. | Hardware friendly virtual frame buffer |
CN108961318B (en) * | 2018-05-04 | 2020-05-15 | 上海芯仑光电科技有限公司 | Data processing method and computing device |
US11202006B2 (en) | 2018-05-18 | 2021-12-14 | Samsung Electronics Co., Ltd. | CMOS-assisted inside-out dynamic vision sensor tracking for low power mobile platforms |
CN110660098B (en) * | 2018-06-28 | 2022-08-12 | 北京京东叁佰陆拾度电子商务有限公司 | Positioning method and device based on monocular vision |
CN109544590B (en) * | 2018-11-27 | 2020-05-15 | 上海芯仑光电科技有限公司 | Target tracking method and computing device |
KR20210101286A (en) | 2018-12-13 | 2021-08-18 | 프로페시 | How to track objects in a scene |
CN109697726B (en) * | 2019-01-09 | 2020-09-18 | 厦门大学 | Event camera-based end-to-end target motion estimation method |
EP3693698A1 (en) * | 2019-02-05 | 2020-08-12 | Leica Geosystems AG | Measuring device with event-based camera |
CN110296717B (en) * | 2019-06-21 | 2020-08-28 | 上海芯仑光电科技有限公司 | Event data stream processing method and computing device |
CN112304321B (en) * | 2019-07-26 | 2023-03-28 | 北京魔门塔科技有限公司 | Vehicle fusion positioning method based on vision and IMU and vehicle-mounted terminal |
KR20210031269A (en) | 2019-09-11 | 2021-03-19 | 삼성전자주식회사 | Electronic device and operating method for training an image recognition model |
US11430150B2 (en) | 2020-01-03 | 2022-08-30 | Samsung Electronics Co., Ltd. | Method and apparatus for processing sparse points |
WO2021177187A1 (en) * | 2020-03-05 | 2021-09-10 | ソニーグループ株式会社 | Image processing device and image processing method |
CN112312017B (en) * | 2020-10-29 | 2022-04-12 | 维沃移动通信有限公司 | Shooting control method and electronic equipment |
CN112666550B (en) * | 2020-12-25 | 2024-01-16 | 北京灵汐科技有限公司 | Moving object detection method and device, fusion processing unit and medium |
CN112729294B (en) * | 2021-04-02 | 2021-06-25 | 北京科技大学 | Pose estimation method and system suitable for vision and inertia fusion of robot |
CN113298014B (en) * | 2021-06-09 | 2021-12-17 | 安徽工程大学 | Closed loop detection method, storage medium and equipment based on reverse index key frame selection strategy |
CN113739819B (en) * | 2021-08-05 | 2024-04-16 | 上海高仙自动化科技发展有限公司 | Verification method, verification device, electronic equipment, storage medium and chip |
CN114137247B (en) * | 2021-11-30 | 2024-01-19 | 上海科技大学 | Speed sensing method, device, equipment and medium based on event camera |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160058427A (en) * | 2014-11-17 | 2016-05-25 | 삼성전자주식회사 | Method and device for analyzing motion |
KR20160090843A (en) * | 2013-11-25 | 2016-08-01 | 퀄컴 인코포레이티드 | Power efficient use of a depth sensor on a mobile device |
US9489735B1 (en) * | 2015-09-17 | 2016-11-08 | Qualcomm Incorporated | Multiplexed temporal calibration for event-based cameras |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7536030B2 (en) * | 2005-11-30 | 2009-05-19 | Microsoft Corporation | Real-time Bayesian 3D pose tracking |
US9123135B2 (en) * | 2012-06-14 | 2015-09-01 | Qualcomm Incorporated | Adaptive switching between vision aided INS and vision only pose |
US9589326B2 (en) | 2012-11-29 | 2017-03-07 | Korea Institute Of Science And Technology | Depth image processing apparatus and method based on camera pose conversion |
KR101362183B1 (en) * | 2012-11-29 | 2014-02-13 | 한국과학기술연구원 | Depth image noise removal apparatus and method based on camera pose |
US9251590B2 (en) * | 2013-01-24 | 2016-02-02 | Microsoft Technology Licensing, Llc | Camera pose estimation for 3D reconstruction |
KR102022970B1 (en) | 2013-04-30 | 2019-11-04 | 삼성전자주식회사 | Method and apparatus for sensing spatial information based on vision sensor |
EP2983131A1 (en) * | 2014-08-06 | 2016-02-10 | Thomson Licensing | Method and device for camera calibration |
US10260862B2 (en) * | 2015-11-02 | 2019-04-16 | Mitsubishi Electric Research Laboratories, Inc. | Pose estimation using sensors |
-
2017
- 2017-03-13 US US15/458,016 patent/US10510160B2/en active Active
- 2017-12-15 KR KR1020170173113A patent/KR102568695B1/en active IP Right Grant
- 2017-12-19 CN CN201711372041.3A patent/CN108205679B/en active Active
-
2019
- 2019-10-09 US US16/597,846 patent/US10733760B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160090843A (en) * | 2013-11-25 | 2016-08-01 | 퀄컴 인코포레이티드 | Power efficient use of a depth sensor on a mobile device |
KR20160058427A (en) * | 2014-11-17 | 2016-05-25 | 삼성전자주식회사 | Method and device for analyzing motion |
US9489735B1 (en) * | 2015-09-17 | 2016-11-08 | Qualcomm Incorporated | Multiplexed temporal calibration for event-based cameras |
Non-Patent Citations (1)
Title |
---|
Elias Mueggler 등, Event-based, 6-DOF Pose Tracking for High-Speed Maneuvers, IEEE IROS 2014(2014.09.14.) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11915448B2 (en) | 2021-02-26 | 2024-02-27 | Samsung Electronics Co., Ltd. | Method and apparatus with augmented reality pose determination |
Also Published As
Publication number | Publication date |
---|---|
US20180174323A1 (en) | 2018-06-21 |
US20200043196A1 (en) | 2020-02-06 |
CN108205679B (en) | 2023-07-21 |
US10733760B2 (en) | 2020-08-04 |
KR102568695B1 (en) | 2023-08-23 |
CN108205679A (en) | 2018-06-26 |
US10510160B2 (en) | 2019-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102568695B1 (en) | Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking | |
CN109348125B (en) | Video correction method, video correction device, electronic equipment and computer-readable storage medium | |
US9781570B2 (en) | Method and apparatus for estimating location of electronic device | |
US9560271B2 (en) | Removing unwanted objects from photographed image | |
US10397895B2 (en) | Range finding base station selection method and apparatus | |
US20160112701A1 (en) | Video processing method, device and system | |
CN104519239A (en) | Method and device for video anti-shaking | |
KR20150129423A (en) | Electronic Device And Method For Recognizing Gestures Of The Same | |
WO2014125398A1 (en) | Object detection using difference of image frames | |
JP5960375B2 (en) | Motion blur sensing visual pose tracking | |
US9684970B2 (en) | Fast adaptive estimation of motion blur for coherent rendering | |
US10863095B2 (en) | Imaging apparatus, imaging method, and imaging program | |
US20200090309A1 (en) | Method and device for denoising processing, storage medium, and terminal | |
WO2015078189A1 (en) | Interface adjustment method and mobile device | |
EP3139129B1 (en) | Mobile device, control method, and non-transitory storage medium | |
US11842515B2 (en) | Information processing device, information processing method, and image capturing apparatus for self-position-posture estimation | |
US20210366423A1 (en) | Display control device, imaging device, display control method, and display control program | |
CN112541418A (en) | Method, apparatus, device, medium, and program product for image processing | |
US10606419B2 (en) | Touch screen control | |
EP3627817A1 (en) | Image processing method and terminal | |
WO2021075317A1 (en) | Ar system and terminal | |
KR20150004633A (en) | Method for controlling an integrated display and an electronic device thereof | |
US20230139889A1 (en) | Control device, imaging apparatus, control method, and control program | |
US20230145728A1 (en) | Method and system for detecting hand gesture, and computer readable storage medium | |
US20210368102A1 (en) | Control device of imaging device, imaging device, control method of imaging device, and control program of imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |