CN110660134A - 三维地图构建方法、三维地图构建装置及终端设备 - Google Patents
三维地图构建方法、三维地图构建装置及终端设备 Download PDFInfo
- Publication number
- CN110660134A CN110660134A CN201910911462.1A CN201910911462A CN110660134A CN 110660134 A CN110660134 A CN 110660134A CN 201910911462 A CN201910911462 A CN 201910911462A CN 110660134 A CN110660134 A CN 110660134A
- Authority
- CN
- China
- Prior art keywords
- image
- processed
- dimensional map
- target
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请适用于信息处理技术领域,提供了三维地图构建方法、三维地图构建装置、终端设备及计算机可读存储介质,该三维地图构建方法,包括:获取至少一帧待处理图像;若所述至少一帧待处理图像中存在目标处理图像,则在所述目标处理图像中确定目标物体所在的第一区域,其中,所述目标处理图像为所述至少一帧待处理图像中存在所述目标物体的图像;获取所述至少一帧待处理图像中,除所述第一区域之外的其他区域的图像数据;根据获取的所述图像数据构建目标三维地图。通过上述方法,能够解决三维地图中存在干扰物体,例如各种运动物体,从而降低了三维地图的精确度的问题。
Description
技术领域
本申请属于信息处理技术领域,尤其涉及三维地图构建方法、三维地图构建装置、终端设备及计算机可读存储介质。
背景技术
随着技术的不断发展,诸如三维街景展示、自动驾驶导航以及三维楼盘展示等三维地图应用已经进入到人们的视野。而发明人发现,在实际构建三维地图的过程中,在进行图像数据采集以用于三维地图构建时,对应的环境中往往存在一些干扰物体,如各种运动物体,从而降低了三维地图的精确度,影响了三维地图的呈现效果,从而影响了用户对三维地图的使用,用户体验较差。
发明内容
本申请实施例提供了三维地图构建方法、三维地图构建装置、终端设备及计算机可读存储介质,可以解决三维地图中存在干扰物体,例如各种运动物体,从而降低了三维地图的精确度,影响了三维地图的呈现效果的问题。
第一方面,本申请实施例提供了一种三维地图构建方法,包括:
获取至少一帧待处理图像;
若上述至少一帧待处理图像中存在目标处理图像,则在上述目标处理图像中确定目标物体所在的第一区域,其中,上述目标处理图像为上述至少一帧待处理图像中存在上述目标物体的图像;
获取上述至少一帧待处理图像中,除上述第一区域之外的其他区域的图像数据;
根据获取的上述图像数据构建目标三维地图。
第二方面,本申请实施例提供了一种三维地图构建装置,包括:
第一获取模块,用于获取至少一帧待处理图像;
确定模块,用于若上述至少一帧待处理图像中存在目标处理图像,则在上述目标处理图像中确定目标物体所在的第一区域,其中,上述目标处理图像为上述至少一帧待处理图像中存在上述目标物体的图像;
第二获取模块,用于获取上述至少一帧待处理图像中,除上述第一区域之外的其他区域的图像数据;
构建模块,用于根据获取的上述图像数据构建目标三维地图。
第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器、显示器以及存储在上述存储器中并可在上述处理器上运行的计算机程序,其特征在于,上述处理器执行上述计算机程序时实现如第一方面上述的三维地图构建方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,上述计算机可读存储介质存储有计算机程序,上述计算机程序被处理器执行时实现如第一方面上述的三维地图构建方法。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中上述的三维地图构建方法。
本申请实施例与现有技术相比存在的有益效果是:本申请实施例中,若上述至少一帧待处理图像中存在目标处理图像,则在上述目标处理图像中确定目标物体所在的第一区域,可以识别出用于构建三维地图的图像中的各种干扰物体,例如各种运动物体(如车辆、行人、动物等等),并可以识别出各个干扰物体所在的区域,从而可以获取上述至少一帧待处理图像中,除上述第一区域之外的其他区域的图像数据,并根据获取的上述图像数据构建目标三维地图。本申请实施例中,通过区分干扰物体所在的图像区域和非干扰物体所在的图像区域,可以有针对性地进行图像处理,从而构建所需的目标三维地图,避免了三维地图中的干扰物体对非干扰物体的遮挡,提高了三维地图的精确度,使得目标三维地图中所呈现的信息更符合用户的需要,进而提升了用户体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例提供的一种三维地图构建方法的流程示意图;
图2是本申请一实施例提供的步骤S104的一种流程示意图;
图3是本申请一实施例提供的步骤S203的一种流程示意图;
图4是本申请一实施例提供的一种三维地图构建装置的结构示意图;
图5是本申请实施例提供的终端设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
本申请实施例提供的三维地图构建方法可以应用于手机、平板电脑、可穿戴设备、车载设备、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)、服务器等终端设备上,本申请实施例对终端设备的具体类型不作任何限制。
具体地,图1示出了本申请实施例提供的第一种三维地图构建方法的流程图,该三维地图构建方法应用于终端设备,包括:
步骤S101,获取至少一帧待处理图像。
本申请实施例中,上述待处理图像的来源可以有多种,上述待处理图像的获取方法在此不做限制。示例性的,上述待处理图像可以是用户通过终端设备的一个或多个相机拍摄的图像;或者,可以是终端设备中的相机所采集预览画面中的至少一帧预览图像;或者,也可以是终端设备本地所保存的图像;或者,还可以是在线的视频或本地保存的视频中的至少一帧图像,或者,可以是终端设备通过预设接口或者预设通信方式等获取到的图像等等。
此外,本申请实施例中,各个待处理图像还可以分别对应各自的深度信息和/或惯性测量单元(Inertial measurement unit,IMU)信息。其中,上述深度信息和/或惯性测量单元(Inertial measurement unit,IMU)信息可以通过相应的传感器进行采集或者计算得到。例如,上述深度信息可以通过红绿蓝(RGB)双目相机获取到;或者,通过结构光的方式获取到,或者,也可以通过飞行时间(Time of flight,TOF)方式获取到。上述IMU信息可以通过惯性测量单元获取到,其中,上述惯性测量单元可以指测量物体三轴姿态角(或角速率)以及加速度的装置。一般的,一个IMU包含三个单轴的加速度计和三个单轴的陀螺。当然,终端设备中的IMU的具体组成可以根据实际应用场景进行调整。各个上述待处理图像所分别对应的深度信息和/或惯性测量单元(Inertial measurement unit,IMU)信息,可以用于后续构建上述目标三维地图,以及确定各个待处理图像所对应的位姿等。
步骤S102,若上述至少一帧待处理图像中存在目标处理图像,则在上述目标处理图像中确定目标物体所在的第一区域,其中,上述目标处理图像为上述至少一帧待处理图像中存在上述目标物体的图像。
本申请实施例中,上述目标物体可以指预设的干扰物体,例如,运动物体等等。其中,上述运动物体指可以运动的物体。
例如,在一种具体示例中,在采集用于构建街景三维地图的待处理图像时,待处理图像中可能出现如车辆、来往的行人等运动物体,这些运动物体在部分待处理图像中,会遮挡住部分街景,并且,通过这些待处理图像构建得到的街景三维地图中,也会出现这些运动物体。因此,本申请实施例中,若上述至少一帧待处理图像中存在目标处理图像,则在上述目标处理图像中确定目标物体所在的第一区域,可以识别出用于构建三维地图的图像中的各种干扰物体,例如各种运动物体(如车辆、行人、动物等等),并可以识别出各个干扰物体所在的区域,从而可以在后续有针对性地进行图像处理。
其中,检测上述至少一帧待处理图像中是否存在目标处理图像的具体方式可以有多种,在此不做限制。例如,可以通过基于深度学习的目标跟踪算法对每一帧待处理图像进行目标跟踪,从而识别出待处理图像中的目标物体,并检测得到各个目标物体所在的第一区域。上述第一区域的形状和大小可以根据应用场景进行设置。在一些实施例中,上述第一区域可以是能够包含上述目标物体的最小矩形框区域,当然,上述第一区域也可以是其他形状,以及其他大小。
需要说明的是,本申请实施例中,上述目标物体的个数在此不做限制,上述目标物体可以有零个、一个或者多个,当上述目标物体有多个时,可以通过标签(例如数字、字母等编号)标识各个上述目标物体,其中,不同的目标物体对应不同的标签。
在一些实施例中,上述若上述至少一帧待处理图像中存在目标处理图像,则在上述目标处理图像中确定目标物体所在的第一区域,包括:
通过目标跟踪算法,检测上述至少一帧待处理图像中是否存在目标处理图像,若上述至少一帧待处理图像中存在目标处理图像,则在上述目标处理图像中确定目标物体所在的第一区域,并通过标签标识各个上述目标物体,其中,不同的目标物体对应不同的标签。
示例性的,上述目标跟踪算法可以包括诸如基于马尔科夫决策的多目标跟踪算法、基于最小代价流优化的多目标跟踪算法以及基于检测可信度的粒子滤波算法等算法中的一种或多种。当然,上述目标跟踪算法还可以是其他能够实现目标跟踪的算法,在此不作限定。
上述标签可以是用户或者开发者预先确定的,也可以是目标跟踪算法在运行过程中生成的。示例性的,上述标签可以是字母、数字等编号。本申请实施例中,通过上述标签,可以区分各个目标物体,以用于确定同一目标物体在不同待处理图像中分别对应的第一区域。
步骤S103,获取上述至少一帧待处理图像中,除上述第一区域之外的其他区域的图像数据。
本申请实施例中,将上述至少一帧待处理图像中包括目标物体的图像部分与不包括目标物体的图像部分区分开来,可以在后续有针对性地分别进行处理,从而避免了干扰物体对非干扰物体的图像数据的干扰。
步骤S104,根据获取的上述图像数据构建目标三维地图。
本申请实施例中,构建上述目标三维地图的具体方式可以有多种。例如,可以根据获取到的上述图像数据,通过即时定位与地图构建(simultaneous localization andmapping,SLAM)算法或者structure from motion(SFM)算法进行建图,从而获得上述目标三维地图,以及估计出每一帧待处理图像的位姿。其中,上述SLAM算法可以包括ORB-SLAM、VI ORB-SLAM等多种具体算法。此时,构建得到的上述目标三维地图中不包含目标物体。
此外,在一些实施例中,为了获得较为完整的目标三维地图,也可以对存在上述目标物体的目标处理图像中,上述目标物体所在的第一区域进行处理,以将上述第一区域替换为相应的非目标物体图像区域,并根据替换了第一区域之后的待处理图像和上述图像数据,构建得到上述目标三维地图。其中,具体的构建方式可以有多种,例如,可以根据上述图像数据,获得第一三维地图,并获得各个上述待处理图像的位姿;然后根据替换了第一区域之后的待处理图像及其位姿,获得第二三维地图;合并上述第一三维地图和上述第二三维地图,获得目标三维地图。或者,也可以直接根据上述图像数据和替换了第一区域之后的待处理图像,通过SLAM算法构建上述目标三维地图。
在一些实施例中,上述目标三维地图可以是点云地图的形式,上述点云地图的点云密度可以根据具体算法和数据来确定。例如,具体的,可以通过单目摄像头获取上述待处理图像,并通过IMU获取各个上述待处理图像所对应的IMU信息;在构建上述目标三维地图过程中,可以获取待处理图像和各个上述待处理图像所对应的IMU信息,利用DirectSparse Visual-Inertial Odometry(VI-DSO)框架,通过待处理图像中每个像素的投影光度误差建立视觉误差项,并通过IMU预积分对每帧待处理图像的位姿进行约束,优化得到点云地图和每帧待处理图像的位姿,此时,上述点云地图可以为稀疏点云地图(点密度小于预设密度)。或者,也可以根据通过单目摄像头获得的待处理图像和各个待处理图像所对应的深度信息,得到点云地图和每帧待处理图像的位姿,此时,上述点云地图可以是稠密点云地图(点密度大于预设密度)。
通过根据获取的上述图像数据构建目标三维地图,可以使得目标三维地图中,不再包含目标物体,避免待处理图像中的目标物体对构建得到的目标三维地图的负面影响,从而提升了三维地图的呈现效果。
可选的,如图2所示,在一些实施例中,上述步骤S104具体可以包括以下步骤:
步骤S201,对于每一个第一图像,获取对应的第二图像,其中,上述第一图像为目标处理图像集合中的任一帧图像,上述第二图像为上述至少一帧待处理图像中,除上述第一图像之外的一帧图像,且上述第二图像中与上述第一图像中的第一区域相关联的第二区域不包含上述目标物体,上述目标处理图像集合为由上述目标处理图像构成的集合;
步骤S202,将上述第二图像中,上述第二区域的图像覆盖到上述第一图像中的对应图像区域,并对图像覆盖后的上述对应图像区域进行预设处理,获得第三图像;
步骤S203,根据上述图像数据和上述第三图像,构建目标三维地图。
需要说明的是,本申请实施例中,可以有一帧或者多帧上述第一图像。当存在多帧上述第一图像时,可以分别针对每一帧第一图像,执行获取对应的第二图像的步骤以及后续步骤,以获得每一帧第一图像所分别对应的第三图像,并根据上述图像数据和各个上述第三图像,构建目标三维地图。
其中,获取对应的第二图像的具体方式可以有多种。例如,在一种实施例中,对于上述第一图像中的目标物体,若查找到另一待处理图像,使得上述目标物体在上述第二图像中的位置相对于在第一图像中的位置的移动距离超过了预设距离阈值,或者,上述目标物体在上述第二图像中的位置位于与上述第一区域相对应的第二区域之外,则可以认为该另一待处理图像为相对于上述第一图像符合预设条件的第二图像。需要说明的是,上述目标物体在第一图像中的位置可以指示上述目标物体在上述第一图像中的场景中的位置,而非上述目标物体对应的像素点在上述第一图像中的坐标位置;类似地,上述目标物体在第二图像中的位置可以指示上述目标物体在上述第二图像中的场景中的位置,而非上述目标物体对应的像素点在上述第二图像中的坐标位置。
其中,示例性的,可以基于上述至少一帧待处理图像所对应的时间先后顺序,向上述第一图像之前或者之后查找第二图像。当然,也可以基于其他顺序,查找上述第二图像,例如,可以在获取到所有的待处理图像之后,再检测各个第一图像所分别对应的第二图像。
本申请实施例中,与第一区域相关联的第二区域可以指上述第二区域对应的场景与上述第一区域对应的场景相同;或者,上述第二区域对应的场景包含上述第一区域所对应的场景。在一些实施例中,上述第二区域对应的场景包括但不限于上述第一区域所对应的场景,相应的,上述第二区域的图像覆盖到上述第一图像中的对应图像区域时,上述对应图像区域也会大于上述第一区域。
在一些实施例中,上述图像覆盖后的上述对应图像区域大于上述第一区域,此时,上述对应图像区域范围可以包括但不限于上述第一区域。其中,上述对应图像区域中,可以不仅仅包括目标物体,而还可以存在与除上述第一区域之外的其他区域的一部分重合区域,此时,可以通过这一部分重合区域,来确定图像覆盖后的上述对应图像区域的准确性,并可以用于后续将第三图像与上述第一区域之外的其他区域的图像数据进行匹配,以及相应特征点的初步对齐。
本申请实施例中,对图像覆盖后的上述对应图像区域进行预设处理可以使得上述图像覆盖后的上述对应图像区域更好地与第一图像进行匹配,更准确地与上述第一图像进行融合。其中,示例性的,上述预设处理可以包括根据上述第一图像的第一位姿和上述第二图像的第二位姿,和/或,上述第二区域的像素值与上述对应图像区域的像素值的差异,对图像覆盖后的上述对应图像区域进行优化,例如,可以根据上述第一图像的第一位姿和上述第二图像的第二位姿获得仿射变换矩阵,并通过上述仿射变换矩阵对上述图像覆盖后的上述对应图像区域进行优化,也可以调整图像覆盖后的上述对应图像区域,以使得上述第二区域的像素值与上述对应图像区域的像素值的差异最小。此外,在获得优化结果后,还可以对上述优化结果中,上述图像覆盖所产生的图像区域边缘进行滤波处理,以使得上述图像覆盖所产生的图像区域边缘更平滑,其中,上述滤波处理可以是中值滤波、高斯滤波、均值滤波等等。
需要说明的是,本申请实施例中,上述第三图像可以仅包括对图像覆盖后的上述对应图像区域进行预设处理后得到的图像,也可以包括除对图像覆盖后的上述对应图像区域进行预设处理后得到的图像之外的其他图像,在此不做限定。在一些实施例中,上述第三图像仅包括对图像覆盖后的上述对应图像区域进行预设处理后得到的图像。此时,上述第三图像的数据量较小,同时,若上述图像覆盖后的上述对应图像区域大于上述第一区域,则上述第三图像也可以实现与上述其他区域的图像数据进行匹配,以及相应特征点的初步对齐,进而可以满足后续根据上述图像数据和上述第三图像,构建目标三维地图的精度要求。
示例性的,本申请实施例中,可以同时根据上述图像数据和上述第三图像,构建目标三维地图,也可以是根据上述图像数据构建第一三维地图,并根据上述第三图像构建第二三维地图之后,再将第一三维地图与第二三维地图进行合并,得到目标三维地图。
本申请实施例中,由于将上述第二图像中,上述第二区域的图像覆盖到上述第一图像中的对应图像区域,并对图像覆盖后的上述对应图像区域进行预设处理,获得第三图像,可以使得用于构建上述目标三维地图的图像信息更为完整,相应的,构建得到的目标三维地图也更为完整和准确。
可选的,在一些实施例中,如图3所示,上述步骤S203具体可以包括:
步骤S301,根据上述图像数据,获得第一三维地图,并获得各个上述待处理图像的位姿;
步骤S302,根据与上述第三图像相对应的待处理图像的位姿,确定上述第三图像的第三位姿;
步骤S303,根据上述第三图像和上述第三图像的第三位姿,获得第二三维地图;
步骤S304,合并上述第一三维地图和上述第二三维地图,获得目标三维地图。
其中,示例性的,具体可以通过SLAM算法或者SFM算法,根据上述图像数据,获得第一三维地图,并获得各个上述待处理图像的位姿;此时,由于上述待处理图像中的数据较为全面,因此估计获得的各个待处理图像的位姿也较为准确,因此根据各个待处理图像的位姿,确定的第三图像的位姿也较为准确。需要说明的是,在本申请的其他一些实施例中,也可以根据上述第三图像,通过SLAM算法等方式,估计得到上述第三图像的位姿。在获得上述第三图像的位姿之后,可以通过SLAM算法或者SFM算法,根据上述第三图像和上述第三图像的第三位姿,获得第二三维地图。
本申请实施例中,可以根据上述第一三维地图和上述第二三维地图之间,特征点之间的匹配关系,合并上述第一三维地图和上述第二三维地图。
在一些实施例中,上述图像覆盖后的上述对应图像区域大于上述第一区域。此时,上述对应图像区域中,可以不仅仅包括目标物体,而还可以存在与除上述第一区域之外的其他区域的一部分重合区域,这一部分重合区域在第一三维地图和第二三维地图中,对应相同的三维区域;并且,上述第三图像的位姿与上述待处理图像中的部分图像位姿相同。因此,基于该相同的三维区域和位姿,可以实现上述第一三维地图和上述第二三维地图中部分特征点的初步对齐,再基于Iterative Closest Point(ICP)等配准算法,可以将第一三维地图和上述第二三维地图中的点云进行对齐,从而合并上述第一三维地图和上述第二三维地图。在一些实施例中,在合并上述第一三维地图和上述第二三维地图之后,还可以删除合并后的三维地图中,与其他特征点存在预设匹配关系的特征点,从而获得上述目标三维地图。
可选的,在一些实施例中,上述将上述第二图像中,上述第二区域的图像覆盖到上述第一图像中的对应图像区域,并对图像覆盖后的上述对应图像区域进行预设处理,获得第三图像,包括:
将上述第二图像中,上述第二区域的图像覆盖到上述第一图像中的对应图像区域;
根据上述第一图像的第一位姿和上述第二图像的第二位姿,和/或,上述第二区域的像素值与上述对应图像区域的像素值的差异,对图像覆盖后的上述对应图像区域进行优化,获得优化结果;
对上述优化结果中,上述图像覆盖所产生的图像区域边缘进行滤波处理,获得第三图像。
其中,上述第一图像的第一位姿和上述第二图像的第二位姿,可以根据步骤S301得到,因此,相应的,根据上述第一图像的第一位姿和上述第二图像的第二位姿对图像覆盖后的上述对应图像区域进行优化的步骤可以在步骤S301之后。
本申请实施例中,上述第二区域的像素值与上述对应图像区域的像素值的差异可以包括上述第二区域的各个像素点分别与上述对应图像区域的对应像素点之间的像素值之间的差异。由于上述第一位姿和上述第二位姿可能不同,因此,上述第二区域的图像覆盖到上述第一图像中的对应图像区域时,可能并不能完全匹配,因此,需要根据上述第一图像的第一位姿和上述第二图像的第二位姿,和/或,上述第二区域的像素值与上述对应图像区域的像素值的差异,对图像覆盖后的上述对应图像区域进行优化,使得上述图像覆盖后的上述对应图像区域的大小和位置更准确。
其中,对图像覆盖后的上述对应图像区域进行优化的方式可以有多种。在一些实施例中,可以根据上述第一图像的第一位姿和上述第二图像的第二位姿获得仿射变换矩阵,并通过上述仿射变换矩阵对上述图像覆盖后的上述对应图像区域进行优化;也可以调整图像覆盖后的上述对应图像区域,以使得上述第二区域的像素值与上述对应图像区域的像素值的差异最小。此外,也可以通过特征点匹配等方式,对图像覆盖后的上述对应图像区域进行优化,具体的优化方式在此不做限定。
示例性的,上述滤波处理可以包括中值滤波、均值滤波以及高斯滤波等等中的一种。本申请实施例中,通过对上述优化结果中,上述图像覆盖所产生的图像区域边缘进行滤波处理,可以去除一定的图像噪声,使得上述图像覆盖所产生的图像区域边缘更平滑。
可选的,在一些实施例中,上述对于每一个第一图像,获取对应的第二图像,包括:
对于每一个第一图像,若存在另一待处理图像,使得上述第一图像与上述另一待处理图像中,上述目标物体的相对移动距离超过预设距离阈值,则确定上述另一待处理图像为对应的第二图像。
本申请实施例中,上述另一待处理图像的采集时间可以相对于上述第一图像的采集时间更早,此时可以根据上述目标物体的运动的反向方向,查找对应的第二图像。上述预设距离阈值可以根据上述目标物体的大小和/或上述第一区域的尺寸等等来确定。示例性的,在一些实施例中,可以根据上述另一待处理图像中的目标物体的指定特征点,以及上述第一图像中的目标物体的指定特征点,来判断上述第一图像与上述另一待处理图像中,上述目标物体的相对移动距离是否超过预设距离阈值。需要说明的是,本申请实施例中,上述相对移动距离可以指示上述目标物体在相应的图像中的移动距离。
可选的,在一些实施例中,上述对于每一个第一图像,若存在另一待处理图像,使得上述第一图像与上述另一待处理图像中,上述目标物体的相对移动距离超过预设距离阈值,则确定上述另一待处理图像为对应的第二图像,包括:
对于每一个第一图像,获取上述第一图像的第一位姿,并获取上述另一待处理图像的第三位姿;
根据上述第一位姿和上述第三位姿,计算上述第一图像的第一区域中的第一特征点投影到上述另一待处理图像的投影位置,并获取上述另一待处理图像中,与上述第一特征点相关联的第二特征点;
计算上述投影位置与上述第二特征点之间的相对距离,若上述相对距离超过预设距离阈值,则确定上述另一待处理图像为对应的第二图像。
其中,上述第一图像的第一位姿和上述另一待处理图像的第三位姿,可以根据步骤S301得到,因此,相应的,获取上述第一图像的第一位姿,并获取上述另一待处理图像的第三位姿的步骤可以在步骤S301之后。
本申请实施例中,根据上述第一位姿和上述第三位姿,可以得到上述第一图像与上述第二图像的相对位姿,从而获得上述第一特征点与上述第二特征点之间的投影变换矩阵,以计算得到上述第一图像的第一区域中的第一特征点投影到另一待处理图像的投影位置。上述第二特征点与上述第一特征点可以对应同一目标物体的同一特征。此时,计算上述投影位置与上述第二特征点之间的相对距离,则可以认为第一图像与上述另一待处理图像中,上述目标物体的相对移动距离超过预设距离阈值,从而确定上述另一待处理图像为对应的第二图像。
本申请实施例中,若上述至少一帧待处理图像中存在目标处理图像,则在上述目标处理图像中确定目标物体所在的第一区域,可以识别出用于构建三维地图的图像中的各种干扰物体,例如各种运动物体(如车辆、行人、动物等等),并可以识别出各个干扰物体所在的区域,从而可以获取上述至少一帧待处理图像中,除上述第一区域之外的其他区域的图像数据,并根据获取的上述图像数据构建目标三维地图。本申请实施例中,通过区分干扰物体所在的图像区域和非干扰物体所在的图像区域,可以有针对性地进行图像处理,从而构建所需的目标三维地图,避免了三维地图中的干扰物体对非干扰物体的遮挡,提高了三维地图的精确度,使得目标三维地图中所呈现的信息更符合用户的需要,进而提升了用户体验。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例上述的三维地图构建方法,图4示出了本申请实施例提供的一种三维地图构建装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图4,该三维地图构建装置4包括:
第一获取模块401,用于获取至少一帧待处理图像;
确定模块402,用于若上述至少一帧待处理图像中存在目标处理图像,则在上述目标处理图像中确定目标物体所在的第一区域,其中,上述目标处理图像为上述至少一帧待处理图像中存在上述目标物体的图像;
第二获取模块403,用于获取上述至少一帧待处理图像中,除上述第一区域之外的其他区域的图像数据;
构建模块404,用于根据获取的上述图像数据构建目标三维地图。
可选的,上述构建模块404具体包括:
第一获取单元,用于对于每一个第一图像,获取对应的第二图像,其中,上述第一图像为目标处理图像集合中的任一帧图像,上述第二图像为上述至少一帧待处理图像中,除上述第一图像之外的一帧图像,且上述第二图像中与上述第一图像中的第一区域相关联的第二区域不包含上述目标物体,上述目标处理图像集合为由上述目标处理图像构成的集合;
第一处理单元,用于将上述第二图像中,上述第二区域的图像覆盖到上述第一图像中的对应图像区域,并对图像覆盖后的上述对应图像区域进行预设处理,获得第三图像;
构建单元,用于根据上述图像数据和上述第三图像,构建目标三维地图。
可选的,上述构建单元具体包括:
第一构建子单元,用于根据上述图像数据,获得第一三维地图,并获得各个上述待处理图像的位姿;
确定子单元,用于根据与上述第三图像相对应的待处理图像的位姿,确定上述第三图像的第三位姿;
第二构建子单元,用于根据上述第三图像和上述第三图像的第三位姿,获得第二三维地图;
合并子单元,用于合并上述第一三维地图和上述第二三维地图,获得目标三维地图。
可选的,上述第一处理单元具体包括:
覆盖子单元,用于将上述第二图像中,上述第二区域的图像覆盖到上述第一图像中的对应图像区域;
优化子单元,用于根据上述第一图像的第一位姿和上述第二图像的第二位姿,和/或,上述第二区域的像素值与上述对应图像区域的像素值的差异,对图像覆盖后的上述对应图像区域进行优化,获得优化结果;
滤波子单元,用于对上述优化结果中,上述图像覆盖所产生的图像区域边缘进行滤波处理,获得第三图像。
可选的,第一获取单元具体用于:
对于每一个第一图像,若存在另一待处理图像,使得上述第一图像与上述另一待处理图像中,上述目标物体的相对移动距离超过预设距离阈值,则确定上述另一待处理图像为对应的第二图像。
可选的,第一获取单元具体包括:
获取子单元,用于对于每一个第一图像,获取上述第一图像的第一位姿,并获取上述另一待处理图像的第三位姿;
第一计算子单元,用于根据上述第一位姿和上述第三位姿,计算上述第一图像的第一区域中的第一特征点投影到上述另一待处理图像的投影位置,并获取上述另一待处理图像中,与上述第一特征点相关联的第二特征点;
第二计算子单元,用于计算上述投影位置与上述第二特征点之间的相对距离,若上述相对距离超过预设距离阈值,则确定上述另一待处理图像为对应的第二图像。
可选的,上述确定模块402具体用于:
通过目标跟踪算法,检测上述至少一帧待处理图像中是否存在目标处理图像,若上述至少一帧待处理图像中存在目标处理图像,则在上述目标处理图像中确定目标物体所在的第一区域,并通过标签标识各个上述目标物体,其中,不同的目标物体对应不同的标签。
本申请实施例中,若上述至少一帧待处理图像中存在目标处理图像,则在上述目标处理图像中确定目标物体所在的第一区域,可以识别出用于构建三维地图的图像中的各种干扰物体,例如各种运动物体(如车辆、行人、动物等等),并可以识别出各个干扰物体所在的区域,从而可以获取上述至少一帧待处理图像中,除上述第一区域之外的其他区域的图像数据,并根据获取的上述图像数据构建目标三维地图。本申请实施例中,通过区分干扰物体所在的图像区域和非干扰物体所在的图像区域,可以有针对性地进行图像处理,从而构建所需的目标三维地图,避免了三维地图中的干扰物体对非干扰物体的遮挡,提高了三维地图的精确度,使得目标三维地图中所呈现的信息更符合用户的需要,进而提升了用户体验。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将上述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
图5为本申请一实施例提供的终端设备的结构示意图。如图5所示,该实施例的终端设备5包括:至少一个处理器50(图5中仅示出一个)处理器、存储器51以及存储在上述存储器51中并可在上述至少一个处理器50上运行的计算机程序52,上述处理器50执行上述计算机程序52时实现上述任意各个三维地图构建方法实施例中的步骤。
上述终端设备5可以是可穿戴设备、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。该终端设备可包括,但不仅限于,处理器50、存储器51。本领域技术人员可以理解,图5仅仅是终端设备5的举例,并不构成对终端设备5的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入设备、输出设备、网络接入设备等。其中,上述输入设备可以包括键盘、触控板、指纹采集传感器(用于采集用户的指纹信息和指纹的方向信息)、麦克风、摄像头等,输出设备可以包括显示器、扬声器等。
所称处理器50可以是中央处理单元(Central Processing Unit,CPU),该处理器50还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
上述存储器51在一些实施例中可以是上述终端设备5的内部存储单元,例如终端设备5的硬盘或内存。上述存储器51在另一些实施例中也可以是上述终端设备5的外部存储设备,例如上述终端设备5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,上述存储器51还可以既包括上述终端设备5的内部存储单元也包括外部存储设备。上述存储器51用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如上述计算机程序的程序代码等。上述存储器51还可以用于暂时地存储已经输出或者将要输出的数据。
另外,尽管未示出,上述终端设备5还可以包括网络连接模块,如蓝牙模块Wi-Fi模块、蜂窝网络模块等等,在此不再赘述。
本申请实施例中,上述处理器50执行上述计算机程序52以实现上述任意各个三维地图构建方法实施例中的步骤时,若所述至少一帧待处理图像中存在目标处理图像,则在所述目标处理图像中确定目标物体所在的第一区域,可以识别出用于构建三维地图的图像中的各种干扰物体,例如各种运动物体(如车辆、行人、动物等等),并可以识别出各个干扰物体所在的区域,从而可以获取上述至少一帧待处理图像中,除上述第一区域之外的其他区域的图像数据,并根据获取的上述图像数据构建目标三维地图。本申请实施例中,通过区分干扰物体所在的图像区域和非干扰物体所在的图像区域,可以有针对性地进行图像处理,从而构建所需的目标三维地图,避免了三维地图中的干扰物体对非干扰物体的遮挡,提高了三维地图的精确度,使得目标三维地图中所呈现的信息更符合用户的需要,进而提升了用户体验。
本申请实施例还提供了一种计算机可读存储介质,上述计算机可读存储介质存储有计算机程序,上述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时实现可实现上述各个方法实施例中的步骤。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,上述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,上述计算机程序包括计算机程序代码,上述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。上述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/网络设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/网络设备实施例仅仅是示意性的,例如,上述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上上述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种三维地图构建方法,其特征在于,包括:
获取至少一帧待处理图像;
若所述至少一帧待处理图像中存在目标处理图像,则在所述目标处理图像中确定目标物体所在的第一区域,其中,所述目标处理图像为所述至少一帧待处理图像中存在所述目标物体的图像;
获取所述至少一帧待处理图像中,除所述第一区域之外的其他区域的图像数据;
根据获取的所述图像数据构建目标三维地图。
2.如权利要求1所述的三维地图构建方法,其特征在于,所述根据获取的所述图像数据构建目标三维地图,包括:
对于每一个第一图像,获取对应的第二图像,其中,所述第一图像为目标处理图像集合中的任一帧图像,所述第二图像为所述至少一帧待处理图像中,除所述第一图像之外的一帧图像,且所述第二图像中与所述第一图像中的第一区域相关联的第二区域不包含所述目标物体,所述目标处理图像集合为由所述目标处理图像构成的集合;
将所述第二图像中,所述第二区域的图像覆盖到所述第一图像中的对应图像区域,并对图像覆盖后的所述对应图像区域进行预设处理,获得第三图像;
根据所述图像数据和所述第三图像,构建目标三维地图。
3.如权利要求2所述的三维地图构建方法,其特征在于,所述根据所述图像数据和所述第三图像,构建目标三维地图,包括:
根据所述图像数据,获得第一三维地图,并获得各个所述待处理图像的位姿;
根据与所述第三图像相对应的待处理图像的位姿,确定所述第三图像的第三位姿;
根据所述第三图像和所述第三图像的第三位姿,获得第二三维地图;
合并所述第一三维地图和所述第二三维地图,获得目标三维地图。
4.如权利要求3所述的三维地图构建方法,其特征在于,所述将所述第二图像中,所述第二区域的图像覆盖到所述第一图像中的对应图像区域,并对图像覆盖后的所述对应图像区域进行预设处理,获得第三图像,包括:
将所述第二图像中,所述第二区域的图像覆盖到所述第一图像中的对应图像区域;
根据所述第一图像的第一位姿和所述第二图像的第二位姿,和/或,所述第二区域的像素值与所述对应图像区域的像素值的差异,对图像覆盖后的所述对应图像区域进行优化,获得优化结果;
对所述优化结果中,所述图像覆盖所产生的图像区域边缘进行滤波处理,获得第三图像。
5.如权利要求3所述的三维地图构建方法,其特征在于,所述对于每一个第一图像,获取对应的第二图像,包括:
对于每一个第一图像,若存在另一待处理图像,使得所述第一图像与所述另一待处理图像中,所述目标物体的相对移动距离超过预设距离阈值,则确定所述另一待处理图像为对应的第二图像。
6.如权利要求5所述的三维地图构建方法,其特征在于,所述对于每一个第一图像,若存在另一待处理图像,使得所述第一图像与所述另一待处理图像中,所述目标物体的相对移动距离超过预设距离阈值,则确定所述另一待处理图像为对应的第二图像,包括:
对于每一个第一图像,获取所述第一图像的第一位姿,并获取所述另一待处理图像的第三位姿;
根据所述第一位姿和所述第三位姿,计算所述第一图像的第一区域中的第一特征点投影到所述另一待处理图像的投影位置,并获取所述另一待处理图像中,与所述第一特征点相关联的第二特征点;
计算所述投影位置与所述第二特征点之间的相对距离,若所述相对距离超过预设距离阈值,则确定所述另一待处理图像为对应的第二图像。
7.如权利要求1至6任意一项所述的三维地图构建方法,其特征在于,所述若所述至少一帧待处理图像中存在目标处理图像,则在所述目标处理图像中确定目标物体所在的第一区域,包括:
通过目标跟踪算法,检测所述至少一帧待处理图像中是否存在目标处理图像,若所述至少一帧待处理图像中存在目标处理图像,则在所述目标处理图像中确定目标物体所在的第一区域,并通过标签标识各个所述目标物体,其中,不同的目标物体对应不同的标签。
8.一种三维地图构建装置,其特征在于,包括:
第一获取模块,用于获取至少一帧待处理图像;
确定模块,用于若所述至少一帧待处理图像中存在目标处理图像,则在所述目标处理图像中确定目标物体所在的第一区域,其中,所述目标处理图像为所述至少一帧待处理图像中存在所述目标物体的图像;
第二获取模块,用于获取所述至少一帧待处理图像中,除所述第一区域之外的其他区域的图像数据;
构建模块,用于根据获取的所述图像数据构建目标三维地图。
9.一种终端设备,包括存储器、处理器、显示器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的三维地图构建方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的三维地图构建方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910911462.1A CN110660134B (zh) | 2019-09-25 | 2019-09-25 | 三维地图构建方法、三维地图构建装置及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910911462.1A CN110660134B (zh) | 2019-09-25 | 2019-09-25 | 三维地图构建方法、三维地图构建装置及终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110660134A true CN110660134A (zh) | 2020-01-07 |
CN110660134B CN110660134B (zh) | 2023-05-30 |
Family
ID=69039087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910911462.1A Active CN110660134B (zh) | 2019-09-25 | 2019-09-25 | 三维地图构建方法、三维地图构建装置及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110660134B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109920055A (zh) * | 2019-03-08 | 2019-06-21 | 视辰信息科技(上海)有限公司 | 三维视觉地图的构建方法、装置与电子设备 |
CN110047142A (zh) * | 2019-03-19 | 2019-07-23 | 中国科学院深圳先进技术研究院 | 无人机三维地图构建方法、装置、计算机设备及存储介质 |
CN110097045A (zh) * | 2018-01-31 | 2019-08-06 | 株式会社理光 | 一种定位方法、定位装置及可读存储介质 |
WO2019169540A1 (zh) * | 2018-03-06 | 2019-09-12 | 斯坦德机器人(深圳)有限公司 | 紧耦合视觉slam的方法、终端及计算机可读存储介质 |
-
2019
- 2019-09-25 CN CN201910911462.1A patent/CN110660134B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110097045A (zh) * | 2018-01-31 | 2019-08-06 | 株式会社理光 | 一种定位方法、定位装置及可读存储介质 |
WO2019169540A1 (zh) * | 2018-03-06 | 2019-09-12 | 斯坦德机器人(深圳)有限公司 | 紧耦合视觉slam的方法、终端及计算机可读存储介质 |
CN109920055A (zh) * | 2019-03-08 | 2019-06-21 | 视辰信息科技(上海)有限公司 | 三维视觉地图的构建方法、装置与电子设备 |
CN110047142A (zh) * | 2019-03-19 | 2019-07-23 | 中国科学院深圳先进技术研究院 | 无人机三维地图构建方法、装置、计算机设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
侯荣波等: "基于ORB-SLAM的室内机器人定位和三维稠密地图构建", 《计算机应用》 * |
Also Published As
Publication number | Publication date |
---|---|
CN110660134B (zh) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110322500B (zh) | 即时定位与地图构建的优化方法及装置、介质和电子设备 | |
US11668571B2 (en) | Simultaneous localization and mapping (SLAM) using dual event cameras | |
CN110246147B (zh) | 视觉惯性里程计方法、视觉惯性里程计装置及移动设备 | |
JP6844043B2 (ja) | 視覚測位方法、装置、電子機器およびシステム | |
CN108028871B (zh) | 移动设备上的无标记的多用户多对象增强现实 | |
US9270891B2 (en) | Estimation of panoramic camera orientation relative to a vehicle coordinate frame | |
US10937214B2 (en) | System and method for merging maps | |
CN109934065B (zh) | 一种用于手势识别的方法和装置 | |
CN111833447A (zh) | 三维地图构建方法、三维地图构建装置及终端设备 | |
KR102169309B1 (ko) | 정보 처리장치 및 그 제어방법 | |
CN110349212B (zh) | 即时定位与地图构建的优化方法及装置、介质和电子设备 | |
KR20200037502A (ko) | 포즈 정보를 출력하는 방법 및 장치 | |
EP4151951B1 (en) | Vehicle localization method and device, electronic device and storage medium | |
Jang et al. | Camera orientation estimation using motion-based vanishing point detection for advanced driver-assistance systems | |
CN116643291A (zh) | 一种视觉与激光雷达联合剔除动态目标的slam方法 | |
CN113610702B (zh) | 一种建图方法、装置、电子设备及存储介质 | |
CN110673607A (zh) | 动态场景下的特征点提取方法、装置、及终端设备 | |
CN115082978A (zh) | 面部姿态的检测装置、方法、图像处理系统及存储介质 | |
US9135715B1 (en) | Local feature cameras for structure from motion (SFM) problems with generalized cameras | |
JP2014102805A (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN110660134B (zh) | 三维地图构建方法、三维地图构建装置及终端设备 | |
CN111339226B (zh) | 一种基于分类检测网络构建地图方法及装置 | |
CN112037261A (zh) | 一种图像动态特征去除方法及装置 | |
CN113850881A (zh) | 图像生成方法、装置、设备及可读存储介质 | |
CN116164746A (zh) | 基于vo的位姿解算方法、装置、设备及产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |