CN106062821A - 用于不受限制的slam的基于传感器的相机运动检测 - Google Patents
用于不受限制的slam的基于传感器的相机运动检测 Download PDFInfo
- Publication number
- CN106062821A CN106062821A CN201580010148.6A CN201580010148A CN106062821A CN 106062821 A CN106062821 A CN 106062821A CN 201580010148 A CN201580010148 A CN 201580010148A CN 106062821 A CN106062821 A CN 106062821A
- Authority
- CN
- China
- Prior art keywords
- angle
- motion
- sensor
- rotary motion
- slam
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 234
- 238000001514 detection method Methods 0.000 title claims description 34
- 238000013507 mapping Methods 0.000 claims abstract description 49
- 238000000034 method Methods 0.000 claims abstract description 47
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 6
- 238000007689 inspection Methods 0.000 claims 3
- 230000000007 visual effect Effects 0.000 abstract description 3
- 230000004807 localization Effects 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 17
- 238000013519 translation Methods 0.000 description 17
- 230000007704 transition Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000011084 recovery Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001212 derivatisation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 210000000162 simple eye Anatomy 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明呈现用于基于以下操作而进行单眼视觉同时定位与地图绘制SLAM的技术:在相机执行全景SLAM的同时使用至少一个运动传感器在所述相机的移动中检测平移运动,并且初始化三维地图以用于追踪有限特征。运动传感器可以包含一或多个传感器,包含惯性(陀螺仪、加速计)、磁性(指南针)、视觉(相机)或构建到移动装置中的任何其它传感器。
Description
相关案件的交叉参考
本申请案是专利合作条约申请案并且主张2014年3月14日递交的标题为“用于不受限制的SLAM的基于传感器的相机运动检测(SENSOR-BASED CAMERA MOTION DETECTIONFOR UNCONSTRAINED SLAM)”的第61/953,122号美国临时申请案以及2015年3月12日递交的标题为“用于不受限制的SLAM的基于传感器的相机运动检测(SENSOR-BASED CAMERAMOTION DETECTION FOR UNCONSTRAINED SLAM)”的第14/645,675号非临时申请案的权益和优先权,所述申请案以引用的方式并且出于所有目的全文并入本文中。本申请案还以引用的方式全文并入2014年1月9日递交的且标题为“具有常规及全景相机移动的单眼视觉SLAM”的美国申请案14/151,766。
技术领域
本文中所揭示的标的物通常涉及位置检测并且确切地说涉及同时定位与地图绘制(SLAM)。
背景技术
视觉同时定位与地图绘制(VSLAM)系统可以处理耦合到装置的单个相机的输入并且随着相机的移动连续地累积环境的图(也称为模型)。视觉SLAM系统同时追踪相对于图的装置的位置及定向(姿态)。视觉SLAM系统可以不同模式操作以用于追踪装置并且基于装置的移动构造所述图。举例来说,虽然装置经历包含平移运动的一般运动,但是装置可过渡到一般运动模式并且构造用于一般运动的图。类似地,当装置仅旋转而未从一个位置移动到另一个位置时,装置可切换到仅旋转模式并且构造仅旋转图。
本发明的某些方面论述用于稳健地从仅旋转模式切换到一般运动模式的技术。
发明内容
本文中所揭示的标的物通常涉及相机运动检测并且确切地说涉及同时定位与地图绘制(SLAM)。
本发明的各方面提供用于稳健地检测一般和仅旋转相机运动之间的过渡的技术和对应的全景/3D追踪和地图绘制模式。不正确的过渡可能通过错误地测量的特征破坏3D和全景图并且引起追踪失败。与例如模型选择算法的现有仅视觉方法相比,本发明的各方面可以使用一或多个传感器,包含惯性(陀螺仪、加速计)、磁性(指南针)和视觉(相机)传感器。
本发明的某些方面使用3DOF旋转运动模型在从全景图中追踪相机时检测从仅旋转模式到一般运动模式的过渡。在仅旋转模式时,视觉全景图追踪器将平移运动编码为其旋转运动估计中的额外的虚拟旋转。同时,测量来自运动传感器的旋转。视差角度通过计算可以在确定平移运动中使用的视觉与运动传感器旋转估计之间的差异衍生。可靠地确定视差角度且因此确定平移运动允许触发新3D地图的初始化,其允许全部6DOF中的相机的连续追踪。
本发明的方面描述用于在追踪全景同时定位与地图绘制(SLAM)模式中的装置时检测平移运动的实例方法、设备、非暂时性计算机可读媒体和装置,检测平移运动包含确定装置的基于视觉的旋转运动角度,其中基于视觉的旋转运动角度通过以下项确定:在多个关键帧上执行图像处理;在所述多个关键帧之间确定装置的基于传感器的旋转运动角度,其中基于传感器的旋转运动角度是使用耦合到装置的一或多个运动传感器确定的;确定装置的视差角度,其中视差角度通过比较基于视觉的旋转运动角度与基于传感器的旋转运动角度确定;将视差角度与阈值进行比较;以及基于高于所述阈值的视差角度检测平移运动。在某些方面,运动传感器可以包含陀螺仪、加速计、磁力计、相机或用于检测运动的任何其它合适的传感器。
在某些方面,非暂时性计算机可读储存媒体可以包含可由处理器执行的指令以用于执行如本文所述的同时定位与地图绘制(SLAM)的方面。此外,用于在全景同时定位与地图绘制(SLAM)模式中追踪装置时检测平移运动的装置或设备可以包含用于存储图和其它数据结构的存储器、耦合到装置/设备以用于获得关于物理场景的信息的一或多个相机,以及耦合到存储器并且经配置以执行本文中描述的本发明的方面的一或多个处理器。
本发明的方面进一步包含使用所述多个关键帧之间的至少视差角度确定平移运动。本发明的某些方面还可以包含确定相对于装置的一或多个特征的深度信息,方法是使用至少平移运动三角计算一或多个特征与装置的距离。并且,本发明的某些方面进一步包含至少基于平移运动的检测初始化三维(3D)图以用于追踪一般运动模式中的装置。某些方面可以包含基于检测平移运动切换到六个自由度(6DOF)SLAM地图绘制。本发明的某些方面包含至少基于平移运动的检测使用两个关键帧初始化三维(3D)图以用于使用3D地图的立体初始化追踪装置。在本发明的某些方面,基于视觉的旋转运动角度和基于传感器的旋转运动角度是针对在第一时间处采集的参考关键帧与在第二时间处采集的当前关键帧之间的运动检测的。
前文已经相当广泛地概述了实例的特征和技术优点,以便使以下的具体实施方式可以得到更好理解。将在下文中描述额外特征和优点。所揭示的概念和具体实例可以容易地用作用于修改或设计用于执行本发明的相同目的的其它结构的基础。此类等效构造不脱离所附权利要求书的精神和范围。当结合附图考虑时,关于本发明的组织和操作方法两者的被认为是本文中所揭示的概念的特性的特征连同相关联的优点一起将从以下描述得到更好理解。图式中的每一者都仅出于说明和描述的目的提供且并不提供为对权利要求书的限制的界定。
附图说明
本发明的各方面借助于实例来说明。参考图式提供以下描述,其中相同的参考标号始终用以指代相同的元件。尽管本文中描述一或多种技术的各种细节,但其它技术也是可能的。在一些情况下,以框图形式示出熟知结构和装置以便有助于描述各种技术。
可参照说明书及图式的剩余部分来实现对由本发明提供的实例的性质及优点的进一步理解,其中贯穿若干图式使用类似参考标号来指代类似组件。在一些情况下,子标签与参考标号相关联以表示多个类似组件中的一者。当在无说明书的情况下将参考标号与现有子标签进行参考时,参考标号是指全部此类类似组件。
图1是根据本发明的某些方面的系统的框图。
图2说明根据本发明的某些方面用于产生例子SLAM系统的图的流程图。
图3说明根据本发明的某些方面在时间t处包含有限3D特征的全局SLAM图表示。
图4说明根据本发明的某些方面在时间t+1处包含有限3D特征和无限3D特征的全局SLAM图表示。
图5说明根据本发明的某些方面在时间t+2处包含有限3D特征和无限3D特征的全局SLAM图表示。
图6说明根据本发明的某些方面在时间t+3处包含有限3D特征和无限3D特征的全局SLAM图表示。
图7说明根据本发明的某些方面在时间t+4处包含有限3D特征和无限3D特征的全局SLAM图表示。
图8说明根据本发明的某些方面在时间t+5处包含有限3D特征和无限3D特征的全局SLAM图表示。
图9是说明根据本发明的某些方面的实例平移SLAM模块的方面的框图。
图10说明用于执行根据本发明的一或多个方面的方法的流程图。
具体实施方式
现将关于形成本文的一部分的附图来描述若干说明性实施例。虽然下文描述可以实施本发明的一或多个方面的特定实施例,但可以使用其它实施例,且可以在不脱离本发明的范围或所附权利要求书的精神的情况下进行各种修改。
现将关于形成本文的一部分的附图来描述若干说明性实施例。虽然下文描述可以实施本发明的一或多个方面的特定实施例,但可以使用其它实施例,且可以在不脱离本发明的范围或所附权利要求书的精神的情况下进行各种修改。
词语“示范性”或“实例”在本文中是指“充当实例、例子或说明”。本文中描述为“示范性”或描述为“实例”的任何方面或实施例未必应被解释为比其它方面或实施例优选或有利。
虽然不限于,但是本发明的方面涉及同时定位与地图绘制(SLAM)系统,例如视觉SLAM(VSLAM)和空中协作视觉同时定位与地图绘制(C-VSLAM)。SLAM系统可以处理单个相机的输入并且随着相机移动而连续地累积环境的图(也称为模型)。环境的图可表示环境的某些方面,例如,三维(3D)特征。视觉SLAM系统可以经配置以同时追踪相对于图的相机的位置及定向(姿态)。某些优化SLAM系统可从地图绘制中解耦追踪并且异步地运行这些任务。在某些实施方案中,追踪和地图绘制功能可以使用可以在多核处理器上平行执行的单独的处理线程执行。基于关键帧的SLAM系统从传入相机图像流或视频内容中分开地选择帧并且使用这些帧用于地图绘制(例如,以扩展所述图)和追踪。此类谨慎地选择的相机图像帧可被称为关键帧。
具有六个自由度(6DOF)的SLAM系统采用一般相机运动(包含平移和任选地旋转的运动)且应用运动恢复结构技术以创建3D特征图。运动恢复结构技术可以包含从二维关键帧中提取关于环境的3D信息。来自多个相机视点的观察的3D地图特征的稳固三角测量需要由平移或一般相机运动引起的足够的视差。视差角度是在由两个视点之间的装置的平移运动引起的两个视点之间的角度。如本文所述,6DOF运动和一般运动可互换使用而不会偏离本发明的范围。
相比之下,全景SLAM系统采用仅旋转相机运动且在三个自由度(3DOF)中追踪相机。因为没有观察到视差,所以特征点不是三角形的且因此可以仅描述为射线或不含深度信息的特征。如本文所述,此类射线点特征被称作无限特征,并且包含深度信息的来自6DOFSLAM的3D点特征被称作有限特征。如本文所述,全景SLAM可被称为3DOFSLAM并且全景旋转可被称为3DOF旋转,并且可互换使用而不会偏离本发明的范围。
不受限制的SLAM(USLAM)系统处理一般和仅旋转相机运动这两者。取决于当前相机运动,这些SLAM系统应用运动恢复结构或全景追踪和地图绘制技术中的任一者,产生一组3D和全景图。一般相机运动被绘制成由具有允许全部6DOF中的相机的追踪的有限深度的特征组成的3D地图。相比之下,仅旋转相机运动被绘制成由具有允许仅随着3DOF旋转追踪相机的有限深度的特征组成的全景图。USLAM也可被称作混合SLAM(HSLAM),并且在整个本说明书中这些术语可互换使用而不脱离本发明的范围。
取决于用户执行的相机运动,USLAM地图绘制和追踪允许用户在一般运动与纯旋转运动之间无缝地切换。在一个实施例中,USLAM地图绘制利用6DOF和全景关键帧以估计三维(3D)图的新的部分。组合6DOF和全景信息的此类图可被称为全局SLAM图。因此,全局SLAM图可以被描述为一或多个一般运动图和全景图的容器。全局SLAM图也可以被称为混合图,并且可与全局SLAM图互换使用而不偏离本发明的范围。
USLAM系统通常旨在每当可能的时候将一般运动图和全景图合并到具有普通坐标系(包含普通标尺)的较大图中。举例来说,USLAM系统可以图对之间的足够的重叠合并一般运动图与全景图。一般而言,全局SLAM图可通常包含不连接的若干图,意味着个体3D/全景图之间的空间变换是未知的(或仅部分地已知的)。
根据本发明的某些方面,在全景SLAM模式中操作的装置可以经历平移运动。在某些实例中,平移运动可以是由装置的用户引起的例如水平移动等无意运动的结果。传统上,此类平移运动引起在全景SLAM中追踪特征的误差和损失。
本发明的方面描述用于稳健地检测平移运动和仅旋转运动模式与一般运动模式以及对应的全景/3D追踪和地图绘制模式之间的转换的技术。不正确的过渡可能通过错误地测量的特征破坏3D和全景图并且引起追踪失败。与例如模型选择算法等现有仅视觉方法相比,本发明的方面使用一或多个传感器,包含惯性(陀螺仪、加速计)、磁性(指南针)、视觉(相机)或任何其它传感器。
如下文中以进一步的细节所描述,在某些方面,USLAM系统经配置以处理旋转远离场景的绘制的部分(也称为从6DOF到全景地图绘制的过渡)。检测到这些旋转并且选择用于累积包含无限特征的全景图的特殊“全景”(也称为3DOF)关键帧。全景图注册为3D地图的一部分。在一些实例中,全景关键帧使用最后一个一般运动关键帧作为基础以随着相机旋转远离场景的绘制的部分构造全景图。
USLAM系统支持从全景图过渡到另一3D地图。远离场景的所绘制部分的相机平移是通过将视觉和运动传感器姿态进行比较、随后将新3D地图(与其它3D地图不一致)初始化来检测,所述新3D地图被添加到全局SLAM图。
具体而言,描述了使用3DOF旋转运动模型用于在从全景图中追踪相机时检测从仅旋转到一般运动的过渡的技术。在两个相机视点之间检测的平移运动的检测可以通过比较使用图像处理技术和传感器采集的旋转角度来执行。使用图像处理检测的也被称作基于视觉旋转运动角度的旋转角度可以包含由于平移运动引入的虚拟角度分量。另一方面,也被称作基于传感器的旋转运动角度的来自传感器的旋转角度表示两个相机视图之间的装置的实际(或接近实际)旋转。视差角度,也就是说通过平移运动引入的两个视点之间的角度,可以通过比较基于视觉的旋转运动角度与基于传感器的旋转运动角度来计算。关键帧可以使用视差和覆盖率试探法来选择。视差角度取决于平移运动的基线和场景深度且因此可用于确定平移运动。两个视图之间的所确定的平移运动用于三角测量通常在两个视图中观察到的特征,因此确定特征的深度。两个相机视图被选择为6DOF关键帧且与三角形有限特征一起添加到新3D地图。继而,新3D地图被添加到全局SLAM图。因此,可靠地确定视差角度允许稳健地将新3D地图初始化,这允许在全部6DOF中连续地追踪相机。
本文中描述的技术使得能够使用在全景SLAM模式中操作时检测到的平移运动用额外的6DOF图填充全局SLAM图,增强全局SLAM图的质量。此外,技术可防止由于全景SLAM模式中的平移运动造成的追踪的特征的损失,方法是适当地检测平移运动且使用6DOF SLAM继续追踪。
图1是说明其中可实践本发明的方面的系统的框图。系统可以是装置100,所述装置可以包含一或多个通用处理器161、图像处理模块171、追踪模块181、地图绘制模块180和存储器164,所述地图绘制模块包含6DOF SLAM模块173、3DOF SLAM模块175和地图绘制模式切换模块179。装置100还可以包含通过软件接口、硬件接口或其某一组合直接或间接地耦合追踪模块181、图像处理模块171和地图绘制模块180(6DOF SLAM模块173、3DOF SLAM模块175和地图绘制模式切换模块179)的一或多个总线177或信号线。为了清楚起见,模块170、171、173、175、179、180和181与处理器161和/或硬件162单独地说明,但是可以基于软件165和固件163中的指令在处理器161和/或硬件162中组合和/或实施(或在处理器161和/或硬件162上执行)。控制单元160可以经配置以实施用于执行如下文所述的USLAM的方法。举例来说,控制单元160可经配置以实施图2-10中所描述的移动装置100的功能。在某些实施例中,软件165或固件163指令可以存储在非暂时性计算机可读媒体上。
装置100可以是移动装置、无线装置、蜂窝电话、扩增实境装置(AR)、个人数字助理、可穿戴式装置(例如,眼镜、手表、头饰、头戴式装置(HMD)或类似身体附接装置)、移动计算机、平板电脑、个人计算机、膝上型计算机、数据处理装置/系统,或具有处理能力的任何类型的装置。
在一个实施例中,装置100是移动/便携式平台。装置100可以包含用于捕获图像的装置,例如,相机114,并且还可以包含运动传感器111,例如,加速计、陀螺仪、电子指南针或其它类似运动传感元件。此类运动传感器111可以用于确定基于传感器的旋转运动角度且因此确定与装置100相关联的平移运动。
装置100还可在正向或后向相机(例如,相机114)上捕获图像。装置100可进一步包含用户接口150,所述用户接口包含用于显示扩增实境图像的装置,例如,显示器112。用户接口150还可以包含虚拟或物理键盘、小键盘152或用户可以将信息输入到移动装置100中的其它输入装置。如果需要,通过触摸屏/传感器将虚拟小键盘集成到显示器112中可免除键盘或小键盘152。用户接口150还可以包含麦克风154和扬声器156,例如,前提是装置100是移动平台,例如,蜂窝电话。装置100可以包含与本发明无关的其它元件,例如,卫星定位系统接收器、电力装置(例如,电池),以及通常与便携式和非便携式电子装置相关联的其它组件。
装置100可充当移动或无线装置并且可通过无线网络经由基于或另外支持任何合适的无线通信技术的一或多个无线通信链路来通信。举例来说,在一些方面中,装置100可为客户端或服务器并且可与无线网络相关联。在一些方面中,网络可包括人体局域网或个人局域网(例如,超宽带网络)。在一些方面中,网络可包括局域网或广域网。无线装置可支持或以其它方式使用多种无线通信技术、协议或标准中的一或多者,例如,3G、LTE、高级LTE、4G、CDMA、TDMA、OFDM、OFDMA、WiMAX和Wi-Fi。类似地,无线装置可支持或以其它方式使用多种对应调制或多路复用方案中的一或多者。移动无线装置可以无线方式与其它移动装置、蜂窝电话、其它有线及无线计算机、互联网网站等通信。
如上文所述,装置100可以是便携式电子装置(例如,智能手机、专用扩增实境(AR)装置、游戏装置或具有AR处理和显示能力的其它装置)。实施本文所描述的AR系统的装置可用于多种环境中(例如,商场、街道、办公室、家庭,或用户可使用其装置的任何地方)。用户可以在多种情况中与其装置100的多个特征介接。在AR情境中,用户可使用其装置来通过其装置的显示器观察现实世界的表示。用户可通过使用其装置的相机与其带有AR功能的装置相互作用以接收现实世界图像/视频且以将额外的或替代信息叠加到装置上的所显示的现实世界图像/视频上的方式来处理图像。当用户在其装置上观察AR实施时,可在装置显示器上实时替换或更改现实世界对象或场景。虚拟对象(例如,文本、图像、视频)可插入到装置显示器上描绘的场景的表示中。
根据本发明的各方面,USLAM系统170可以使用从非暂时性计算机可读媒体中取回的指令来执行。在一个实施方案中,指令作为软件165存储在存储器164中。指令可以使用一或多个处理器161执行。
在某些实施例中,USLAM系统170的组件可以包含(1)地图绘制模块180,(2)追踪模块181和(3)由地图绘制模块180和追踪模块181共享的全局SLAM图数据结构。另外,USLAM系统170可以包含图像处理模块171。
在一个实施例中,USLAM系统170维持可以实施为具有有限和无限特征的图的数据库的全局SLAM图。全局SLAM图166的部分可以在存储器165中缓冲。图数据库可以包含多个3D地图。在某些实施方案中,在任何给定时间点处,可以激活3D地图中的仅一者。
追踪模块181处理在帧速率下来自相机的视频流并且追踪相对于激活的3D地图的一般和仅旋转相机运动这两者。通用姿态估计器组合有限和无限3D地图特征这两者的测量结果,并且自动计算6DOF或3DOF姿态。6DOF姿态确定相对于3D地图的相机图像的3DOF旋转(也称为定向)和3DOF位置(也称为平移)。3DOF姿态仅确定相对于3D地图的3DOF旋转。在某些实施方案中,追踪模块181还选择传递到地图绘制模块180的关键帧。对应于所计算的姿态的DOF计数,这些关键帧可被称为6DOF关键帧或3DOF关键帧。
地图绘制模块180基于通过追踪模块181选择的6DOF和全景关键帧扩展和精炼全局SLAM图。关键帧可以使用视差和覆盖率试探法来选择。视差是在两个相机帧的观察方向之间(例如,在当前帧与现有关键帧之间)到通常观察的场景几何形状(也称为有限3D地图特征)上的角度。覆盖率是由有限特征突起覆盖的帧面积比。
地图绘制模块180可以包含6DOF SLAM模块173、全景SLAM模块175和地图绘制模式切换模块179。6DOF SLAM模块173和全景SLAM模块175可以存取和更新存储在存储器164中的全局SLAM图166。
在一些实施例中,6DOF SLAM模块173可以产生具有来自所捕获图像的有限特征的关键帧。6DOF SLAM模块173可以在确定所捕获图像满足从已经与全局SLAM图相关联的先前关键帧的阈值平移之后产生关键帧。如上文所论述,6DOF SLAM模块173可以产生包含从两个或两个以上关键帧(例如,关键帧对,或大于一对关键帧)中三角测量的3D特征点的图并且在全局SLAM图165中插入图。
在某些其它实施例中,全景SLAM模块175创建具有无限特征的全景图。在某些其它实施例中,全景SLAM模块175还可以将多个所捕获图像缝合在一起到通过仅旋转相机运动获取的图像的粘性集合中。使用3DOF SLAM的USLAM系统170(例如,通过全景SLAM模块175的旋转追踪)可以计算与6DOF SLAM的6DOF(即,通过6DOF SLAM模块173计算的)相比的三个旋转自由度(3DOF)。全景SLAM模块175可以使用相对旋转使旋转关键帧彼此相关。USLAM系统170可以在不满足最小阈值视差或平移时绕过或跳过特征点三角测量。举例来说,当相机的位置尚未改变且由于先前关键帧仅已发生纯旋转时,将不满足最小阈值视差或平移。
本发明的某些方面描述用于在以全景SLAM模式操作时基于在相机的移动中检测平移运动的单眼VSLAM的技术。平移运动可以使用来自运动传感器111的旋转运动计算。运动传感器111可以包含例如加速计、陀螺仪等惯性传感器和例如磁力计等磁传感器。此外,运动传感器还可包含相机传感器和用于确定运动的相关联的硬件和/或软件逻辑。基于在执行全景SLAM时检测平移运动,可以初始化由6DOF关键帧和有限图特征组成的新3D地图,产生到6DOF SLAM的切换且相对于新3D地图连续追踪相机。
根据某些实施例,平移运动的检测通过地图绘制模式切换模块179执行。两个相机视图之间的平移运动的检测可以通过比较使用图像处理技术和传感器采集的旋转角度来执行。使用图像处理检测的也被称作基于视觉旋转运动角度的旋转角度可以包含由于平移运动引入的虚拟角度分量。另一方面,来自传感器的也被称作基于传感器的旋转运动角度的旋转角度表示在两个相机视图之间的装置的实际旋转。视差角度,也就是说通过平移运动引入的两个视点之间的角度,可以通过比较基于视觉的旋转运动角度与基于传感器的旋转运动角度来计算。随后,可以使用视差角度计算平移运动。在某些方面,高于某一阈值的平移运动(通过视差角度指示)可用作从全景SLAM地图绘制切换到6DOF SLAM地图绘制的指示。
从全景SLAM地图绘制切换到6DOF SLAM地图绘制,其中平移运动是可供使用的,允许使全局SLAM图丰富,方法是包含用于点特征的深度,否则的话将不具有与它们相关联的此类深度信息。
图2说明根据本发明的某些方面的不受限制的SLAM系统170的流程图。在图2中,标记为202和204的框表示3D地图。每个3D地图可以被当作包括多个全景和一般运动图的容器处理。当系统启动时,使用一或多个初始化方法,第一3D地图得到初始化(框106),所述初始化方法例如(a)使用至少两个关键帧(用户执行平移/一般相机运动)的立体初始化,(b)检测已知的追踪目标或任何其它合适的方法。
随后,取决于通过用户执行的相机运动可以执行不同地图绘制模式:在一般相机运动的阶段期间通过6DOF SLAM模块173执行总体6DOF地图绘制210,并且在纯旋转相机运动的阶段期间通过全景SLAM模块175执行3DOF地图绘制112。对应地,地图绘制引擎可以:
a.当检测到纯旋转运动时(使用基于视觉的方法)从6DOF地图绘制210过渡到3DOF地图绘制212;以及
b.当检测到一般运动时(使用基于视觉的方法)从3DOF地图绘制212过渡到6DOF地图绘制210并且相机朝向已知的图区域移动(已经以3D绘制的场景的部分)。
在某些实例中,当检测到一般运动时(使用视觉和运动传感器)地图绘制模块180从3DOF地图绘制212过渡到3D地图初始化208并且相机朝向未知的图区域(未以3D绘制的场景的部分)移动。下文中进一步详细描述了从3DOF地图绘制212到3D地图初始化208的过渡。
类似于先前相对于框206、210和212描述的过程,对于未知的图区域3D可以执行图初始化208和(6DOF和3DOF)地图绘制。对新3D地图204进行初始化并且地图绘制模块180可以执行用于一般运动的6DOF地图绘制214和用于纯旋转运动的3DOF地图绘制216,且二者之间的过渡随着过渡的进行在已知的图区域内。
图3说明在时间t处包含有限3D特征306的全局SLAM图表示。有限特征可以通过6DOF SLAM模块173检测且存储为3D地图的一部分。框302和304表示随时间推移与相机的不同位置和定向相关联的关键帧。虚线框302表示在过去的时间t-1处出现的关键帧,而实线框304表示在时间t处的当前帧。图3说明用于一般相机运动的6DOF地图绘制,而相机姿态完全限制在6DOF地图绘制内。在对场景的新的部分成像的同时当6DOF关键帧产生足够视差到现有关键帧时选择6DOF关键帧。足够视差是6DOF地图绘制110的稳固特征三角测量所希望的。在一个实施例中,当将6DOF关键帧插入到3D地图中时,添加新的有限图特征。
图4说明根据本发明的某些方面在时间t+1处包含有限3D特征306和无限特征410的全局SLAM图表示的部分。
框302、304和408表示随时间推移与相机的不同位置和定向相关联的关键帧。虚线框302和304表示在过去的时间t-1和t处出现的关键帧,而实线框408表示在时间t+1处的当前帧。当系统检测到纯旋转相机运动时,选择构成新全景图且界定其旋转中心的参考全景关键帧408。应注意参考全景关键帧408具有6DOF姿态且因此相对于3D地图是完全局部的。纯旋转相机运动可以基于追踪6DOF姿态的历史检测。举例来说,如果当前帧相对于包含于6DOF帧历史中的帧示出了低视差和足够的角度差异,那么可以假定纯旋转。在某些实施方案中,作为插入参考全景关键帧的一部分,可将一或多个新无限图特征插入在图中。
图5说明根据本发明的某些方面在时间t+2处包含有限3D特征306和无限特征410的全局SLAM图表示的部分。框302、304、408和512表示随时间推移与相机的不同位置和定向相关联的关键帧。虚线框302、304和408表示在过去的时间t-1、t和t+1处出现的关键帧,而实线框表示在时间t+2处的当前帧512。
在执行连续纯旋转相机运动时,全景模块175继续基于低覆盖率和足够的旋转选择依赖性全景关键帧512。低覆盖率指示相机继续探索未被进行地图绘制的场景区域。旋转可以计算为当前帧的观察方向与当前全景图的关键帧姿态之间的差异角度。这些关键帧被称作依赖性关键帧,因为它们采用来自参考全景关键帧的其3D位置。在某些实施方案中,作为插入全景关键帧的一部分,可将一或多个新无限图特征插入在3D地图中。
图6说明根据本发明的某些方面在时间t+3处包含有限3D特征306和无限特征410的全局SLAM图表示的部分。虚线框302、304和其它未标号的框表示在过去的时间t-1、t、t+1和t+2处出现的关键帧,而实线框表示在时间t+3处的当前帧614。如图6中所示,如果相机从全景中心移开并且回到已经已知的3D地图区域使得可以估计完整的6DOF姿态,那么系统针对已经初始的3D地图202(如参考图2所描述)从3DOF地图绘制212切换到6DOF地图绘制210。
图7说明根据本发明的某些方面在时间t+4处包含有限3D特征306和无限特征410的全局SLAM图表示的部分。虚线框302、304和716表示在过去的时间t-1、t、t+1、t+2和t+3处出现的关键帧,而实线框718表示在时间t+4处的当前帧。当相机装置远离全景中心朝向未知的场景区域平移时,一旦发现两个关键帧提供足够的视差,则初始化新3D地图(框208)。
在某些实施例中,装置的相机平移通过比较针对参考关键帧716(例如,全景图的参考关键帧)与当前帧718之间的运动的从视觉和惯性/磁传感器中独立地且同时地估计的两个3DOF旋转来确定。视觉旋转(也称为3DOF姿态)是从全景图的无限特征中估计的。因为全景图追踪并不允许测量平移,所以所得旋转估计包含虚拟旋转。从运动传感器中估计的传感器3DOF旋转表示关键帧(716和718)之间的装置的真实(或接近真实)旋转。基于传感器的旋转运动角度可以使用定制传感器融合框架计算或可以使用通过现代移动OS平台提供的API呼叫检索。
根据本发明的各方面,并不从一或多个传感器中直接地估计平移,而是实际上确定旋转运动,且接着用于估计平移运动。通过不依赖于直接地衍生自一或多个传感器的平移运动,本发明的方面避免了加速计偏移的众所周知的问题。换句话说,从惯性/磁传感器中估计3DOF旋转与估计完整6DOF姿态相比更稳固。
为了确定相机平移,地图绘制模式切换模块179可以检测针对参考关键帧716与当前帧718之间的旋转的视觉和传感器3DOF旋转估计之间的差异。如使用实验所确定的,所得差异旋转角度大致对应于用于视觉旋转的估计的图像特征的平均视差角度。因此,地图绘制模式切换模块179可以确定方便的且可配置的阈值视差角度偏移以触发从3DOF全景到6DOF一般地图绘制和追踪的过渡。阈值可以确保在随后的图初始化步骤中的稳固的特征三角测量。
在图8中,在时间t+5处,新的3D地图可以得到初始化,如先前相对于框208所描述。一旦已经触发过渡,则从不同视图中创建允许用于6DOF中的相机装置的连续追踪的新3D地图。新3D地图通过从2D观察中三角测量有限3D特征而从一对关键帧(例如,用于旋转比较的参考帧和当前帧)中初始化。为此任务,可以使用任何立体初始化方法(例如宽基线匹配结合5点算法)。应注意“新”3D地图(锯齿)720和“旧”3D地图(锯齿)306可以是不连接的。两个图之间的空间变换可以仅部分地已知的,例如,两个3D地图中的每一个可具有不同标尺。新3D地图720被添加到全局SLAM图并且设置为“激活的”。如通过框822所显示,额外的一般运动可以用于通过有限3D特征进一步优化新3D地图720。
图9是说明根据本发明的某些方面的实例平移SLAM模块的方面的框图。地图绘制模式切换模块179可以包含基于视觉的旋转运动确定器模块902、基于传感器的旋转角度确定器模块904、视差角度确定器模块906、平移运动确定器模块908、SLAM切换模块910和深度确定模块912。地图绘制模式切换模块179的组件可以耦合到图像处理模块171、运动传感器模块111、3DOF SLAM模块175和6DOF SLAM模块173。图9中所描述的模块可以基于软件165和固件163中的指令使用图1中所描述的组件组合和/或实施,例如,处理器161和/或硬件162。在某些实施例中,软件165或固件163指令可以存储在非暂时性计算机可读媒体上。
在某些实施方案中,在仅旋转模式中操作时,图像处理模块171可以从相机114中采集若干图像或关键帧以用于进一步处理。图1的追踪模块181可以使用关键帧针对全景图追踪装置。另外,地图绘制模块180可以检测额外的无限特征并且将这些特征插入到3D地图中。
基于视觉的旋转运动确定器902可以从图像处理模块171接收关键帧并且使用图像处理技术针对在两个关键帧之间装置所经历的旋转确定基于视觉的旋转运动角度。由于装置所经历的平移运动,被称作虚拟角度的额外的旋转角度分量可以编码为基于视觉的旋转运动角度的一部分。本质上,在全景模式时SLAM系统期望仅旋转运动并且假定装置经历仅旋转运动来计算基于视觉的旋转运动角度。因此,任何平移运动错误地编码为基于视觉旋转运动的一部分。在某些实例中,平移运动可以由于在全景SLAM模式中在用户的一部分上的无意的水平移动。
同时,基于传感器的旋转运动确定器904可以在计算基于视觉的旋转运动角度的相同周期中确定基于传感器的旋转运动角度。举例来说,如果基于视觉的旋转运动角度是针对关键帧对(包括参考关键帧和当前关键帧)计算的,那么在采集参考关键帧和当前关键帧的时间处基于传感器的旋转运动角度也是使用传感器读数计算的。基于传感器的旋转运动角度表示关键帧之间的装置的实际(或接近实际)旋转角度。
视差角度确定器模块906通过比较基于传感器的旋转运动角度与基于视觉的旋转运动角度确定视差角度。视差角度,也就是说通过平移运动引入的在两个视点之间的角度,也表示基线和场景深度之间的差异。在某些实施例中,视差角度是针对阈值角度比较的。如果视差角度低于或等于阈值,那么视差角度可以忽略为噪声。
如果视差角度高于阈值,那么平移运动被确定为平移运动确定器模块908的一部分。平移运动确定器模块908使用视差角度确定平移运动。一旦确定平移运动,则深度确定器模块912可以确定相对于装置的一或多个特征的深度,方法是使用平移运动三角计算一或多个特征与装置的距离。SLAM切换模块910可以将地图绘制模块180从全景SLAM模块175切换到6DOF SLAM模块173。在某些实例中,当相机移动到激活的3D地图区域外部的新区域时,新3D地图也可以在切换到6DOF SLAM 173之前初始化。
图10说明用于执行根据本发明的一或多个方面的方法的流程图。根据一或多个方面,在图10中说明的流程图1000中描述的方法和/或方法步骤中的任一者和/或全部可通过装置100和/或在装置100中实施,图1中更详细地描述所述装置的组件。在一个实施例中,下文相对于图10所描述的方法步骤中的一或多个通过移动装置的处理器(例如处理器161或另一处理器)实施。另外或替代地,本文中所描述的方法和/或方法步骤中的任一个和/或全部可实施在计算机可读指令中,例如存储在计算机可读媒体(例如存储器164或另一计算机可读媒体)上的计算机可读指令。
在框1002处,装置的组件确定多个关键帧之间的装置的基于视觉的旋转运动角度,其中基于视觉的旋转运动角度通过在多个关键帧上执行图像处理来确定。
在框1004处,装置的组件确定多个关键帧之间的装置的基于传感器的旋转运动角度,其中基于传感器的旋转运动角度使用耦合到装置的一或多个运动传感器确定。所述一或多个传感器可以包含构建到装置中的惯性(陀螺仪、加速计)、磁性(指南针)和/或视觉(相机)传感器。
在框1006处,装置的组件确定装置的视差角度,其中视差角度通过比较基于视觉的旋转运动角度与基于传感器的旋转运动角度来确定。在某些方面,基于视觉的旋转运动角度和基于传感器的旋转运动角度是针对在第一时间处采集的参考关键帧与在第二时间处采集的当前关键帧之间的运动检测的。
在框1008处,装置的组件将视差角度与阈值进行比较。所述阈值可以是可配置的。
在框1010处,如果视差角度高于所述阈值,那么装置的组件检测平移运动。在某些实施方案中,如果视差角度等于或低于所述阈值,那么视差角度的改变可以被确定为是可忽略的。
在框1012处,装置的组件使用视差角度确定平移运动。另外,一旦确定视差角度,则装置的方面可以确定相对于装置的一或多个特征,方法是使用至少平移运动三角计算距离装置的一或多个特征的距离。
装置的组件可以至少基于平移运动的检测进一步初始化三维(3D)图以用于追踪在一般运动模式中的装置。装置的组件还可以切换到六个自由度(6DOF)SLAM地图绘制。在一个方面中,初始化三维(3D)图以用于追踪装置可以包括至少基于平移运动的检测使用两个关键帧的3D地图的立体初始化。
应了解,图10中所说明的特定步骤提供根据本发明的方面在操作模式之间切换的特定方法。步骤的其它顺序还可相应地在替代实施例中执行。举例来说,替代实施方案可以不同顺序执行上文所概述的步骤。为了说明,用户可以选择从第三操作模式变为第一操作模式,或在其之间的任何组合。此外,图10中说明的个体步骤可以包含可以个体步骤适合的各种顺序执行的多个子步骤。此外,可取决于特定应用而添加或移除额外步骤。所属领域的一般技术人员将认识到和理解所述过程的多个变体、更改和替代方案。
Claims (27)
1.一种用于在追踪全景同时定位与地图绘制SLAM模式中的装置时检测平移运动的方法,所述方法包括:
确定所述装置的基于视觉的旋转运动角度,其中所述基于视觉的旋转运动角度通过在多个关键帧上执行图像处理确定;
在所述多个关键帧之间确定所述装置的基于传感器的旋转运动角度,其中所述基于传感器的旋转运动角度是使用耦合到所述装置的一或多个运动传感器确定的;
确定所述装置的视差角度,其中所述视差角度通过比较所述基于视觉的旋转运动角度与所述基于传感器的旋转运动角度确定;
将所述视差角度与阈值进行比较;以及
基于所述视差角度高于所述阈值检测所述平移运动。
2.根据权利要求1所述的方法,其进一步包括在所述多个关键帧之间使用至少所述视差角度确定所述平移运动。
3.根据权利要求2所述的方法,其进一步包括确定相对于所述装置的一或多个特征的深度信息,方法是使用至少所述平移运动三角计算所述一或多个特征与所述装置的距离。
4.根据权利要求1所述的方法,其进一步包括至少基于所述平移运动的检测初始化三维3D地图以用于追踪在所述一般运动模式中的所述装置。
5.根据权利要求1所述的方法,其进一步包括基于检测平移运动切换到六个自由度6DOF SLAM地图绘制。
6.根据权利要求1所述的方法,其进一步包括至少基于所述平移运动的检测使用两个关键帧初始化三维3D地图以用于使用所述3D地图的立体初始化追踪所述装置。
7.根据权利要求1所述的方法,其中所述基于视觉的旋转运动角度和所述基于传感器的旋转运动角度是针对在第一时间处采集的参考关键帧与在第二时间处采集的当前关键帧之间的运动检测的。
8.根据权利要求1所述的方法,其中所述运动传感器包含陀螺仪、加速计或磁力计中的一或多个。
9.一种用于在追踪全景同时定位与地图绘制SLAM模式中的装置时检测平移运动的装置,所述装置包括:
存储器;
相机,其耦合到所述装置以用于获得关于所述物理场景的信息;以及
处理器,其耦合到所述存储器且经配置以:
确定所述装置的基于视觉的旋转运动角度,其中所述基于视觉的旋转运动角度通过在多个关键帧上执行图像处理确定;
在所述多个关键帧之间确定所述装置的基于传感器的旋转运动角度,其中所述基于传感器的旋转运动角度是使用耦合到所述装置的一或多个运动传感器确定的;
确定所述装置的视差角度,其中所述视差角度通过比较所述基于视觉的旋转运动角度与所述基于传感器的旋转运动角度确定;
将所述视差角度与阈值进行比较;以及
基于所述视差角度高于所述阈值检测所述平移运动。
10.根据权利要求11所述的装置,其进一步包括所述处理器经配置以在所述多个关键帧之间使用至少所述视差角度确定所述平移运动。
11.根据权利要求10所述的装置,其进一步包括所述处理器经配置以确定相对于所述装置的一或多个特征的深度信息,方法是使用至少所述平移运动三角计算一或多个特征与所述装置的距离。
12.根据权利要求9所述的装置,其进一步包括所述处理器至少基于所述平移运动的检测初始化三维3D地图以用于追踪在所述一般运动模式中的所述装置。
13.根据权利要求9所述的装置,其进一步包括所述处理器切换到六个自由度6DOFSLAM地图绘制。
14.根据权利要求9所述的装置,其进一步包括所述处理器至少基于所述平移运动的检测使用两个关键帧初始化三维3D地图以用于使用所述3D地图的立体初始化追踪所述装置。
15.根据权利要求9所述的装置,其进一步包括所述处理器至少基于所述平移运动的检测初始化三维3D地图以通过使用已知的追踪目标追踪所述装置。
16.根据权利要求9所述的装置,其中所述基于视觉的旋转运动角度和所述基于传感器的旋转运动角度是针对在第一时间处采集的参考关键帧与在第二时间处采集的当前关键帧之间的运动检测的。
17.根据权利要求9所述的装置,其中所述运动传感器包含陀螺仪、加速计或磁力计中的一或多个。
18.一种非暂时性计算机可读储存媒体,其中所述非暂时性计算机可读储存媒体包括可由处理器执行的指令以用于执行同时定位与地图绘制SLAM,所述指令包括进行以下项的指令:
确定所述装置的基于视觉的旋转运动角度,其中所述基于视觉的旋转运动角度通过在多个关键帧上执行图像处理确定;
在所述多个关键帧之间确定所述装置的基于传感器的旋转运动角度,其中所述基于传感器的旋转运动角度是使用耦合到所述装置的一或多个运动传感器确定的;
确定所述装置的视差角度,其中所述视差角度通过比较所述基于视觉的旋转运动角度与所述基于传感器的旋转运动角度确定;
将所述视差角度与阈值进行比较;以及
基于所述视差角度高于所述阈值检测所述平移运动。
19.根据权利要求18所述的非暂时性计算机可读储存媒体,其进一步包括在所述多个关键帧之间使用至少所述视差角度确定所述平移运动。
20.根据权利要求19所述的非暂时性计算机可读储存媒体,其进一步包括所述处理器经配置以确定相对于所述装置的一或多个特征的深度信息,方法是使用至少所述平移运动三角计算所述一或多个特征与所述装置的所述距离。
21.根据权利要求18所述的非暂时性计算机可读储存媒体,其中所述基于视觉的旋转运动角度和所述基于传感器的旋转运动角度是针对在第一时间处采集的参考关键帧与在第二时间处采集的当前关键帧之间的运动检测的。
22.根据权利要求18所述的非暂时性计算机可读储存媒体,其中所述运动传感器包含陀螺仪、加速计或磁力计中的一或多个。
23.一种设备,其包括:
用于确定所述装置的基于视觉的旋转运动角度的装置,其中所述基于视觉的旋转运动角度通过在多个关键帧上执行图像处理确定;
用于在所述多个关键帧之间确定所述装置的基于传感器的旋转运动角度的装置,其中所述基于传感器的旋转运动角度是使用耦合到所述装置的一或多个运动传感器确定的;
用于确定所述装置的视差角度的装置,其中所述视差角度通过比较所述基于视觉的旋转运动角度与所述基于传感器的旋转运动角度确定;
用于将所述视差角度与阈值进行比较的装置;以及
用于基于所述视差角度高于所述阈值检测所述平移运动的装置。
24.根据权利要求23所述的设备,其进一步包括用于在所述多个关键帧之间使用至少所述视差角度确定所述平移运动的装置。
25.根据权利要求23所述的设备,其进一步包括确定相对于所述装置的一或多个特征的深度信息,方法是使用至少所述平移运动三角计算所述一或多个特征与所述装置的所述距离。
26.根据权利要求23所述的设备,其中所述基于视觉的旋转运动角度和所述基于传感器的旋转运动角度是针对在第一时间处采集的参考关键帧与在第二时间处采集的当前关键帧之间的运动检测的。
27.根据权利要求23所述的设备,其中所述运动传感器包含陀螺仪、加速计或磁力计中的一或多个。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461953122P | 2014-03-14 | 2014-03-14 | |
US61/953,122 | 2014-03-14 | ||
US14/645,675 | 2015-03-12 | ||
US14/645,675 US9390344B2 (en) | 2014-01-09 | 2015-03-12 | Sensor-based camera motion detection for unconstrained slam |
PCT/US2015/020320 WO2015138822A1 (en) | 2014-03-14 | 2015-03-13 | Sensor-based camera motion detection for unconstrained slam |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106062821A true CN106062821A (zh) | 2016-10-26 |
CN106062821B CN106062821B (zh) | 2018-01-05 |
Family
ID=54069199
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580010148.6A Expired - Fee Related CN106062821B (zh) | 2014-03-14 | 2015-03-13 | 用于不受限制的slam的基于传感器的相机运动检测 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9390344B2 (zh) |
EP (1) | EP3117400B1 (zh) |
JP (1) | JP6228320B2 (zh) |
KR (1) | KR20160111008A (zh) |
CN (1) | CN106062821B (zh) |
WO (1) | WO2015138822A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108846867A (zh) * | 2018-08-29 | 2018-11-20 | 安徽云能天智能科技有限责任公司 | 一种基于多目全景惯导的slam系统 |
CN109345588A (zh) * | 2018-09-20 | 2019-02-15 | 浙江工业大学 | 一种基于Tag的六自由度姿态估计方法 |
CN109584289A (zh) * | 2017-09-28 | 2019-04-05 | 百度(美国)有限责任公司 | 适应地图创建中状态转换的系统和方法 |
CN111371982A (zh) * | 2018-12-25 | 2020-07-03 | 北京初速度科技有限公司 | 一种数据同步方法及处理器、车载终端 |
CN112189335A (zh) * | 2018-05-18 | 2021-01-05 | 三星电子株式会社 | 用于低功率移动平台的cmos辅助内向外动态视觉传感器跟踪 |
CN115620154A (zh) * | 2022-12-19 | 2023-01-17 | 江苏星湖科技有限公司 | 一种全景地图叠加替换方法、系统 |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9674507B2 (en) | 2013-04-30 | 2017-06-06 | Qualcomm Incorporated | Monocular visual SLAM with general and panorama camera movements |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9964409B1 (en) * | 2014-05-27 | 2018-05-08 | Apple Inc. | Localized map generation |
JP6775969B2 (ja) * | 2016-02-29 | 2020-10-28 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10593116B2 (en) | 2016-10-24 | 2020-03-17 | Snap Inc. | Augmented reality object manipulation |
US10242503B2 (en) | 2017-01-09 | 2019-03-26 | Snap Inc. | Surface aware lens |
EP3571665B1 (en) | 2017-01-23 | 2023-06-07 | Oxford University Innovation Limited | Determining the location of a mobile device |
EP3571664B1 (en) | 2017-01-23 | 2021-05-12 | Oxford University Innovation Limited | Determining the location of a mobile device |
KR102647351B1 (ko) | 2017-01-26 | 2024-03-13 | 삼성전자주식회사 | 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치 |
SE546370C2 (en) * | 2017-02-27 | 2024-10-15 | Katam Tech Ab | Improved forest surveying |
US10097757B1 (en) * | 2017-03-24 | 2018-10-09 | Fotonation Limited | Method for determining bias in an inertial measurement unit of an image acquisition device |
KR101941852B1 (ko) * | 2017-04-05 | 2019-01-24 | 충북대학교 산학협력단 | 그래프 slam을 위한 키프레임 추출방법 및 이를 이용한 slam 장치 |
US10990829B2 (en) | 2017-04-28 | 2021-04-27 | Micro Focus Llc | Stitching maps generated using simultaneous localization and mapping |
US11449208B2 (en) * | 2017-07-06 | 2022-09-20 | Varian Medical Systems International Ag | Interactive and intuitive method to shape 3D dose distribution during optimization of IMRT plans |
US10373362B2 (en) | 2017-07-06 | 2019-08-06 | Humaneyes Technologies Ltd. | Systems and methods for adaptive stitching of digital images |
US11257248B2 (en) * | 2017-08-01 | 2022-02-22 | Sony Corporation | Information processing device, information processing method, recording medium, and image capturing apparatus for self-position-posture estimation |
KR102671902B1 (ko) * | 2017-09-22 | 2024-06-03 | 에스케이텔레콤 주식회사 | 지도 생성 장치 및 방법 |
CN107767425A (zh) * | 2017-10-31 | 2018-03-06 | 南京维睛视空信息科技有限公司 | 一种基于单目vio的移动端AR方法 |
CA3093180C (en) | 2018-03-28 | 2023-02-28 | Telefonaktiebolaget Lm Ericsson (Publ) | Head-mounted display and method to reduce visually induced motion sickness in a connected remote display |
CN108563723A (zh) * | 2018-03-30 | 2018-09-21 | 中国地质大学(武汉) | 基于MapGIS的南海可燃冰地质模型三维可视化系统 |
EP3599544A1 (en) * | 2018-07-25 | 2020-01-29 | Nokia Technologies Oy | An apparatus, method, computer program for enabling access to mediated reality content by a remote user |
US11030813B2 (en) | 2018-08-30 | 2021-06-08 | Snap Inc. | Video clip object tracking |
CN111091602B (zh) * | 2018-10-24 | 2023-03-28 | 舜宇光学(浙江)研究院有限公司 | Slam后端优化方法、优化装置和电子设备 |
US10885657B2 (en) | 2018-10-31 | 2021-01-05 | Disney Enterprises, Inc. | Configuration for indicating image capture device position |
US11176737B2 (en) | 2018-11-27 | 2021-11-16 | Snap Inc. | Textured mesh building |
US10902634B2 (en) * | 2018-12-04 | 2021-01-26 | Here Global B.V. | Method and apparatus for providing feature triangulation |
CN113330484A (zh) | 2018-12-20 | 2021-08-31 | 斯纳普公司 | 虚拟表面修改 |
US10991117B2 (en) * | 2018-12-23 | 2021-04-27 | Samsung Electronics Co., Ltd. | Performing a loop closure detection |
US10984575B2 (en) | 2019-02-06 | 2021-04-20 | Snap Inc. | Body pose estimation |
CN110163968B (zh) * | 2019-05-28 | 2020-08-25 | 山东大学 | Rgbd相机大型三维场景构建方法及系统 |
US11189098B2 (en) | 2019-06-28 | 2021-11-30 | Snap Inc. | 3D object camera customization system |
KR102570009B1 (ko) * | 2019-07-31 | 2023-08-23 | 삼성전자주식회사 | Ar 객체 생성 방법 및 전자 장치 |
CN110610520B (zh) * | 2019-08-29 | 2022-03-29 | 中德(珠海)人工智能研究院有限公司 | 一种基于双球幕相机的视觉定位方法及系统 |
US11232646B2 (en) | 2019-09-06 | 2022-01-25 | Snap Inc. | Context-based virtual object rendering |
CN110617814A (zh) * | 2019-09-26 | 2019-12-27 | 中国科学院电子学研究所 | 单目视觉和惯性传感器融合的远距离测距系统及方法 |
CN110617813B (zh) * | 2019-09-26 | 2021-06-08 | 中国科学院电子学研究所 | 单目视觉信息和imu信息相融合的尺度估计系统及方法 |
TWI730482B (zh) * | 2019-10-31 | 2021-06-11 | 大陸商南京深視光點科技有限公司 | 平面動態偵測系統及偵測方法 |
US11263817B1 (en) | 2019-12-19 | 2022-03-01 | Snap Inc. | 3D captions with face tracking |
US11227442B1 (en) | 2019-12-19 | 2022-01-18 | Snap Inc. | 3D captions with semantic graphical elements |
CN111862148B (zh) * | 2020-06-05 | 2024-02-09 | 中国人民解放军军事科学院国防科技创新研究院 | 实现视觉跟踪的方法、装置、电子设备及介质 |
US11615592B2 (en) | 2020-10-27 | 2023-03-28 | Snap Inc. | Side-by-side character animation from realtime 3D body motion capture |
US11660022B2 (en) | 2020-10-27 | 2023-05-30 | Snap Inc. | Adaptive skeletal joint smoothing |
US11734894B2 (en) | 2020-11-18 | 2023-08-22 | Snap Inc. | Real-time motion transfer for prosthetic limbs |
US11748931B2 (en) | 2020-11-18 | 2023-09-05 | Snap Inc. | Body animation sharing and remixing |
US11450051B2 (en) | 2020-11-18 | 2022-09-20 | Snap Inc. | Personalized avatar real-time motion capture |
CN113628279B (zh) * | 2021-07-29 | 2023-10-31 | 成都易瞳科技有限公司 | 一种全景视觉slam建图方法 |
US11880947B2 (en) | 2021-12-21 | 2024-01-23 | Snap Inc. | Real-time upper-body garment exchange |
CN115423930B (zh) * | 2022-07-28 | 2023-09-26 | 荣耀终端有限公司 | 一种图像采集方法及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103477277A (zh) * | 2011-04-12 | 2013-12-25 | 富士胶片株式会社 | 成像装置 |
CN103500452A (zh) * | 2013-10-12 | 2014-01-08 | 杭州师范大学 | 基于空间关系和图像分析的景区景物移动增强现实方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000097637A (ja) * | 1998-09-24 | 2000-04-07 | Olympus Optical Co Ltd | 姿勢位置検出装置 |
JP2000115639A (ja) * | 1998-10-06 | 2000-04-21 | Ricoh Co Ltd | 画像入力装置及びその方法 |
EP2237227A1 (en) | 2009-04-01 | 2010-10-06 | Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO | Video sequence processing method and system |
US9635251B2 (en) * | 2010-05-21 | 2017-04-25 | Qualcomm Incorporated | Visual tracking using panoramas on mobile devices |
JP5577931B2 (ja) * | 2010-08-06 | 2014-08-27 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
AU2011305154B2 (en) * | 2010-09-24 | 2015-02-05 | Irobot Corporation | Systems and methods for VSLAM optimization |
US20120300020A1 (en) * | 2011-05-27 | 2012-11-29 | Qualcomm Incorporated | Real-time self-localization from panoramic images |
US9674507B2 (en) | 2013-04-30 | 2017-06-06 | Qualcomm Incorporated | Monocular visual SLAM with general and panorama camera movements |
-
2015
- 2015-03-12 US US14/645,675 patent/US9390344B2/en active Active
- 2015-03-13 KR KR1020167024806A patent/KR20160111008A/ko not_active Application Discontinuation
- 2015-03-13 EP EP15715527.6A patent/EP3117400B1/en not_active Not-in-force
- 2015-03-13 JP JP2016555674A patent/JP6228320B2/ja not_active Expired - Fee Related
- 2015-03-13 CN CN201580010148.6A patent/CN106062821B/zh not_active Expired - Fee Related
- 2015-03-13 WO PCT/US2015/020320 patent/WO2015138822A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103477277A (zh) * | 2011-04-12 | 2013-12-25 | 富士胶片株式会社 | 成像装置 |
CN103500452A (zh) * | 2013-10-12 | 2014-01-08 | 杭州师范大学 | 基于空间关系和图像分析的景区景物移动增强现实方法 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109584289A (zh) * | 2017-09-28 | 2019-04-05 | 百度(美国)有限责任公司 | 适应地图创建中状态转换的系统和方法 |
CN109584289B (zh) * | 2017-09-28 | 2023-06-13 | 百度(美国)有限责任公司 | 用于对移动系统执行定位和地图创建的系统和方法 |
CN112189335A (zh) * | 2018-05-18 | 2021-01-05 | 三星电子株式会社 | 用于低功率移动平台的cmos辅助内向外动态视觉传感器跟踪 |
CN112189335B (zh) * | 2018-05-18 | 2023-05-23 | 三星电子株式会社 | 用于低功率移动平台的cmos辅助内向外动态视觉传感器跟踪 |
CN108846867A (zh) * | 2018-08-29 | 2018-11-20 | 安徽云能天智能科技有限责任公司 | 一种基于多目全景惯导的slam系统 |
CN109345588A (zh) * | 2018-09-20 | 2019-02-15 | 浙江工业大学 | 一种基于Tag的六自由度姿态估计方法 |
CN111371982A (zh) * | 2018-12-25 | 2020-07-03 | 北京初速度科技有限公司 | 一种数据同步方法及处理器、车载终端 |
CN111371982B (zh) * | 2018-12-25 | 2021-11-30 | 北京初速度科技有限公司 | 一种数据同步方法及处理器、车载终端 |
CN115620154A (zh) * | 2022-12-19 | 2023-01-17 | 江苏星湖科技有限公司 | 一种全景地图叠加替换方法、系统 |
Also Published As
Publication number | Publication date |
---|---|
KR20160111008A (ko) | 2016-09-23 |
JP6228320B2 (ja) | 2017-11-08 |
CN106062821B (zh) | 2018-01-05 |
US9390344B2 (en) | 2016-07-12 |
EP3117400B1 (en) | 2018-08-29 |
WO2015138822A1 (en) | 2015-09-17 |
EP3117400A1 (en) | 2017-01-18 |
JP2017518547A (ja) | 2017-07-06 |
US20150262029A1 (en) | 2015-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106062821A (zh) | 用于不受限制的slam的基于传感器的相机运动检测 | |
US11481982B2 (en) | In situ creation of planar natural feature targets | |
US10852847B2 (en) | Controller tracking for multiple degrees of freedom | |
CN104104862B (zh) | 图像处理装置和图像处理方法 | |
JP6359644B2 (ja) | コンピュータビジョンアプリケーション初期化を容易にするための方法 | |
US10438373B2 (en) | Method and system for determining a pose of camera | |
CN106255939B (zh) | 世界锁定显示质量反馈 | |
EP3550527B1 (en) | Information processing device, information processing method and program | |
EP2915140B1 (en) | Fast initialization for monocular visual slam | |
TW201835723A (zh) | 圖形處理方法和裝置、虛擬實境系統和計算機儲存介質 | |
CN109671141B (zh) | 图像的渲染方法和装置、存储介质、电子装置 | |
CN112148189A (zh) | 一种ar场景下的交互方法、装置、电子设备及存储介质 | |
KR20160094190A (ko) | 시선 추적 장치 및 방법 | |
WO2022022449A1 (zh) | 用于空间定位的方法和装置 | |
US9536351B1 (en) | Third person view augmented reality | |
JP2023126474A (ja) | 拡張現実のためのシステムおよび方法 | |
JP6621565B2 (ja) | 表示制御装置、表示制御方法、及びプログラム | |
KR20210046759A (ko) | 이미지 디스플레이 방법, 장치 및 시스템 | |
KR101473234B1 (ko) | 신체 트래킹에 기반한 영상 디스플레이 방법 및 시스템 | |
CN109920519A (zh) | 处理影像数据的方法、装置及设备 | |
CN106125940A (zh) | 虚拟现实交互界面管理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180105 |
|
CF01 | Termination of patent right due to non-payment of annual fee |