CN108537214B - 一种室内语义地图的自动化构建方法 - Google Patents
一种室内语义地图的自动化构建方法 Download PDFInfo
- Publication number
- CN108537214B CN108537214B CN201810901173.9A CN201810901173A CN108537214B CN 108537214 B CN108537214 B CN 108537214B CN 201810901173 A CN201810901173 A CN 201810901173A CN 108537214 B CN108537214 B CN 108537214B
- Authority
- CN
- China
- Prior art keywords
- information
- image
- position information
- images
- semantic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010276 construction Methods 0.000 title claims abstract description 13
- 238000000034 method Methods 0.000 claims abstract description 52
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 8
- 238000007476 Maximum Likelihood Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种室内语义地图的自动化构建方法,应用于摄像装置、位置确定装置以及计算装置构成的系统中,所述摄像装置用于获取场景中多幅图像的特征点信息,所述位置确定装置用于确定初始全局位置信息,所述方法包括所述计算装置执行的:基于所述场景中多幅图像的特征点信息和所述初始全局位置信息,确定对应的目标场景图;基于所述目标场景图,计算每幅所述图像的优化全局位姿信息和语义方向;根据所述优化全局位姿信息和所述语义方向估计图像中的实体在所述室内语义地图中的位置信息;根据所述位置信息将所述图像中的实体在室内语义地图中进行标记。本发明能够提高场景图的精确度,并能够保证图像中的实体标记在室内语义地图的精确度。
Description
技术领域
本发明涉及移动计算和图像信息处理领域,特别是指一种室内语义地图的自动化构建方法。
背景技术
近年来,语义地图重建成为了计算机视觉和移动计算的研究热点之一。语义地图被广泛应用于机器人、导航和人机交互等领域。室内语义地图包含空间属性信息,如建筑物的平面结构,房间分布等,还包括语义属性信息,如各个房间的号码、逻辑功能、房间内一般实体的位置信息等。语义地图重建的目标是精确地在地图上标记语义信息。
现有技术中,通常基于运动信号或视觉信息进行室内空间语义地图的重建。其中运动信号指的是用户在室内的运动轨迹,该方法通过采集大量用户在室内空间的运动轨迹,来学习和推理室内空间的语义信息,并将语义信息标记在室内空间的语义地图上。然而,这种方法仅关注识别和分类特定的室内空间内的语义信息,例如房间号码、商店店名等。基于视觉信息的方法通过采集大量的视觉信息,即图像,然后采用恢复室内空间的三维模型来学习和推理室内空间的语义信息,并将语义信息标记在室内语义地图上。这种方法能够标记丰富的语义信息,但对室内空间的纹理较为敏感,且计算复杂度较高。
发明内容
有鉴于此,本发明的目的在于提出一种室内语义地图的自动化构建方法。
基于上述目的本发明提供的一种室内语义地图的自动化构建方法,应用于摄像装置、位置确定装置以及计算装置构成的系统中,所述摄像装置用于获取场景中多幅图像的特征点信息,所述位置确定装置用于确定图像的初始全局位置信息,所述方法包括所述计算装置执行的:
基于所述场景中多幅图像的特征点信息和所述初始全局位置信息,确定对应的目标场景图;
基于所述目标场景图,计算每幅所述图像的优化全局位姿信息和语义方向;
根据所述优化全局位姿信息和所述语义方向估计所述图像中的实体在所述室内语义地图上的位置信息;
根据所述位置信息将所述实体在所述室内语义地图中进行标记。
在一实施例中,所述基于所述场景中多幅图像的特征点信息和初始全局位置信息,确定对应的目标场景图,包括:
确定所述多幅图像中的实体的特征点信息;
基于所述特征点信息进行特征点匹配;
将相同特征点信息的数量超过设定数量阈值的特征点对应的图像进行聚类,并分别生成对应的场景图,作为目标场景图;
在一实施例中,所述生成对应的场景图,包括:
基于图像的所述初始全局位置信息验证所生成的场景图,得到目标场景图。
在一实施例中,所述确定对应的目标场景图之后,所述方法还包括:
确定图像中的实体的语义信息;
基于所述语义信息将各目标场景图分别划分为至少一个子场景图。
在一实施例中,所述基于所述目标场景图,计算每幅所述图像的优化全局位姿信息,包括:
计算各幅所述图像的初始全局姿态信息;
计算各所述子场景图中的每对图像之间的相对位置信息和相对姿态信息;
基于所述相对位置信息对所述初始全局位置信息进行优化,得到优化全局位置信息,基于所述相对姿态信息对所述初始全局姿态信息进行优化,得到优化全局姿态信息,所述优化全局位置信息及所述优化全局姿态信息构成所述优化全局位姿信息。
在一实施例中,所述计算各所述子场景图中的每对图像之间的相对位置信息和相对姿态信息,包括:
基于所述子场景图中的实体在两幅图像上的投影,确定所述两幅图像之间的相对位置信息和相对姿态信息。
在一实施例中,所述相对位置信息和所述相对姿态信息通过对极几何算法进行计算得到。
在一实施例中,计算语义方向,包括:
确定拍摄所述图像的摄像头的视角及焦距;
基于所述视角及所述焦距,计算所述图像中的实体与所述摄像头之间的语义方向。
在一实施例中,所述根据所述优化全局位姿信息和所述语义方向估计所述图像中的实体在所述室内语义地图中的位置信息,包括:
基于所述优化全局位姿信息和各摄像头与实体之间的语义方向估计所述图像中的实体在室内语义地图中的位置区域;
基于各所述位置区域的交集确定所述图像中的实体在所述室内语义地图中的位置信息。
在一实施例中,所述基于各估计位置区域的交集确定估计位置信息,包括:
将所述交集的重心位置确定为所述位置信息。
从上面所述可以看出,本发明提供的室内语义地图的自动化构建方法,基于图像的特征点信息及初始全局位置信息来确定场景图,能够提高场景图的精确度,通过对图像的初始全局位姿信息进行优化,能够保证图像中的实体标记在室内语义地图的精确度,而且成本较低。
附图说明
图1为本发明实施例示出的一种室内语义地图的自动化构建方法的流程图;
图2A为本发明实施例示出的另一种室内语义地图的自动化构建方法的流程图;
图2B为本发明实施例示出的另一种室内语义地图的自动化构建方法的场景图;
图3A为本发明实施例示出的另一种室内语义地图的自动化构建方法的流程图;
图3B为本发明实施例示出的另一种室内语义地图的自动化构建方法的场景图;
图4A为本发明实施例示出的另一种室内语义地图的自动化构建方法的流程图;
图4B为本发明实施例示出的另一种室内语义地图的自动化构建方法的场景图;
图5A为本发明实施例示出的另一种室内语义地图的自动化构建方法的流程图;
图5B为本发明实施例示出的另一种室内语义地图的自动化构建方法的场景图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
图1是本发明实施例示出的一种室内语义地图的自动化构建方法的流程图,该方法应用于摄像装置、位置确定装置以及计算装置构成的系统中,其中摄像装置用于拍摄场景中的图像,可以为摄像头,并可以获取多幅图像的特征点信息;位置确定装置用于确定图像的初始全局位置信息,可以为惯性传感器;计算装置可以为计算机,用于执行下述步骤101-104;如图1所示,该大规模室内语义地图的自动化构建方法可以包括以下步骤101-104:
步骤101、基于场景中多幅图像的特征点信息和初始全局位置信息,确定对应的目标场景图。
其中,场景可以为室内空间,例如楼层、房间等,实体可以为场景中的物体,例如办公桌、沙发、电器等,本实施例可以通过位于不同位置的多个摄像头拍摄场景的多幅图像。场景图用于描述室内空间中的实体之间的位置关系及其语义信息。场景图中可以包括室内空间的多幅图像,图像以顶点的方式存在于场景图中,相邻的两幅图像之间通过边进行连接,边表示的是该两幅图像的重合度。
对于同一场景,可以对应多个场景图,例如,该场景中朝向相反的图像,由于不存在重合的地方,因而位于不同的场景图中。在一个实例中,对于一个房间,所拍摄的图像都是朝南和朝北的图像,那么可以基于朝南的图像生成一幅场景图,基于朝北的图像生成另一幅场景图。
本公开步骤中,可以通过现有技术中的PoseNET(一种视觉定位模型,能够通过一张彩色图像定位位姿信息),或PDR(Pedestrian Dead Reckoning,行人航位推算)方法来确定图像的全局位置信息,为了与后续步骤中优化的全局位置信息相区分,将本步骤中的全局位置信息称为初始全局位置信息。
步骤102、基于目标场景图,计算每幅图像的优化全局位姿信息和语义方向。
在一实施例中,优化全局位姿信息可以包括优化全局位置信息及优化全局姿态信息,即优化过了的全局位置信息及全局姿态信息。
语义方向,指的是摄像头与图像中的实体之间的方向。
位置信息,指的是图像中的实体位于室内语义地图中的位置。
步骤103、根据优化全局位姿信息和语义方向估计图像中的实体在室内语义地图中的位置信息。
步骤104、根据位置信息将实体在室内语义地图中进行标记。
现有技术中,通常基于图像的特征点信息来生成场景图,这种方法可能导致的问题是,位于不同空间中的相似实体的图像出现在同一场景图中,例如同款办公桌,位于不同的办公室内,但是由于办公桌高度相似,因而生成在了同一场景图中。为了提高场景图的精确度,本实施例中,不仅基于图像的特征点信息,还结合图像的初始全局位置信息来确定对应的场景图,从而保证同一场景图中的图像都来自同一场景。
图2A是根据本发明实施例示出的另一种室内语义地图的自动化构建方法的流程图;本实施例利用本公开实施例提供的上述方法,以如何基于获取的场景中多幅图像的特征点信息和初始全局位置信息,确定对应的场景图为例并结合图2B进行示例性说明,如图2A所示,包括如下步骤201-206:
步骤201、确定多幅图像中的实体的特征点信息。
本公开步骤中,首先确定实体的特征点信息,特征点可以为实体上的任一点。本实施例中可以通过现有技术中的Colmap方法来确定特征点,在此不再赘述。
步骤202、根据特征点信息计算特征描述子信息,并根据特征描述子信息进行特征点匹配。
本公开步骤中,将各实体的特征描述子信息进行匹配,例如相似度超过设定相似度阈值的特征点认为是相似特征点,或相近特征点。
步骤203、将相同特征点信息的数量超过设定数量阈值的特征点对应的图像进行聚类,并分别生成对应的场景图,作为目标场景图。
举例而言,在一场景中,包含三种实体:桌子、椅子和电脑。那么,所拍摄的该场景的图像中,显然包括桌子的图像的相同或相近特征点信息的数量能够超过设定数量阈值,包括椅子的图像的相同或相近特征点信息的数量能够超过设定数量阈值,包括电脑的图像的相同或相近特征点信息的数量能够超过设定数量阈值,那么可以分别将包含桌子的图像进行聚类,生成一场景图,将包含椅子的图像进行聚类,生成另一场景图,将包含电脑的图像进行聚类,生成另一场景图。如果有的图像包含一种以上的实体,例如既包含椅子又包含电脑,那么显然该图像既存在于椅子聚类生成的场景图中,也存在于电脑聚类所生成的场景图中。
为了进一步确保场景图的精确性,还可以通过下述步骤对场景图进行验证,这种情况下将步骤203得到的场景图作为初始场景图。
步骤204、基于图像的初始全局位置信息验证所生成的场景图,得到目标场景图。
本公开步骤中可以通过现有技术中的PoseNET或PDR方法来确定图像的初始全局位置信息,然后基于初始全局位置信息验证生成的场景图,能够得到更精确的目标场景图。
举例而言,在步骤101的场景图所包含的五幅图像中,有四幅椅子图像的全局位置信息是房间101,而另一幅椅子图像的全局位置信息是房间102,那么即使这些椅子的特征点信息的相似度超过设定阈值,验证结果也是该房间102的椅子图像不属于该场景图,那么从该场景图中将房间102的椅子图像剔除。也就是说,属于同一场景图的图像的全局位置信息应该是相同的。
步骤205、确定图像中实体的语义信息。
本公开步骤中,通过YOLOv2算法来识别图像中的实体,得到实体的语义信息,该语义信息可以为实体的名称,例如办公桌、笔记本。
步骤206、基于语义信息将各个目标场景图分别划分为多个子场景图。
本公开步骤中,基于识别出的实体的名称将目标场景图划分为多个子场景图。
在一个场景图内,包含相同实体的图像被划分到同一子场景图中。如图2B所示,在左下方子场景图中,图像均含有桌子实体,在右下方子场景图中,图像均含有椅子实体。由于很多情况下,只需将特定实体在室内语义地图中进行定位标记即可,因而将目标场景图划分为子场景图,在后续步骤中只针对性的基于包含特定实体的子场景图进行定位即可,从而提高定位的精度和效率。
图3A是根据本发明实施例示出的另一种室内语义地图的自动化构建方法的流程图;本实施例利用本公开实施例提供的上述方法,以如何计算每幅图像的优化全局信息为例并结合图3B进行示例性说明,如图3A所示,包括如下步骤301-303:
步骤301、计算各幅图像的初始全局姿态信息。
本公开步骤中,可以通过现有技术中的PoseNet或PDR方法来计算图像的初始全局位置信息和初始全局姿态信息,这些方法为现有技术,在此不再赘述。
步骤302、计算各子场景图中的每对图像之间的相对位置信息和相对姿态信息。
本公开步骤中,通过2D-2D对极几何方法计算每幅子场景图中的任意两幅图像之间的相对位置信息和相对姿态信息。
对于2D-2D方法,可以这样理解,在室内空间中,给定两台摄像机和,在室内空间指定任意一点p,点p在两个摄像机所拍摄的图像上的投影分别为沿着线的点和沿着线的点。那么,这两幅图像之间的空间关系,即旋转矩阵和平移向量可以通过下列公式1进行计算:
公式1
这里以和来表示相对位置信息和相对姿态信息,也就是说可以基于所述子场景图中的实体在两幅图像上的投影,确定所述两幅图像之间的相对位置信息和相对姿态信息。
步骤303、通过相对位置信息对初始全局位置信息进行优化,得到优化全局位置信息,并通过相对姿态信息对初始全局姿态信息进行优化,得到优化全局姿态信息。
本实施例中,将求取优化全局位置信息和优化全局姿态信息的过程转换为最大似然估计问题进行计算,具体而言,给定幅图像,及第幅图像在坐标系下的全局位置信息,以及第幅图像在世界坐标系下的全局姿态信息,得到和。定义和分别为图像在图像坐标系下的相对位置信息和相对姿态信息。定义和分别为相对位置信息的观测数量,,和相对姿态信息的观测数量,其中和分别为实体在局部坐标系下的位置信息和姿态信息。那么最大似然估计问题的目标是在观测值为和下得到最优的和。为了简化该问题,本实施例通过最小化如下目标函数求解和,其中位置信息和姿态信息是独立的:
公式2
进一步地,本章使用Gaussian模型来简化公式2,得到:
公式3
对上述公式3进行求解,得到最优全局位置信息和最优全局姿态信息。
如图3B所示,在一实例中,假设有三幅图像1、2和3,每一幅图像的初始全局位置信息(在图3B中由带有向左斜线的圆圈1、2和3进行表示)通过PoseNet或PDR算法估计得到。每两幅图像之间的相对位置信息和相对姿态信息由2D-2D对极几何算法得到。通过使用每对图像的相对位置信息和相对姿态信息,可以构建出多边形约束,即图3B中由虚线连接的三个三角形,然后,根据每一幅图像的观测位置,即初始全局位置(在图3B中由带有向左斜线的圆圈1、2和3进行表示)和相对位姿信息(相对位置信息和相对姿态信息)能够计算出其他两个图像的可能位置(在图3B中由与带有向左斜线的圆圈1虚线连接的空白圆圈2和3,与带有向左斜线的圆圈2虚线连接的空白圆圈1和3,以及与带有向左斜线的圆圈3虚线连接的空白圆圈1和2进行表示)。最后,这三个位置的重心被用来估计图像的位置(在图3B中由带有向右斜线的圆圈进行表示),即优化过后的全局位姿信息,也就是说通过相对位姿信息对初始全局位姿信息进行优化,得到优化全局位姿信息。其中,图3中所示的带有横线的圆圈为图像的真实位置,可以看出,经过优化,优化全局位置信息更接近真实位置,也就是说精确度更高。
如前文所述,图像的初始全局位置信息和初始全局姿态信息由算法PoseNet或PDR得到。然而,在实际应用中,由于图像数据和惯性传感器存在数据噪音,这种方式获得的图像的位置存在误差,甚至误差可达几米。为了提高图像位置信息的精度,本实施例通过将上述问题转换为最大似然估计问题,来优化图像的位置精度。
图4A是根据一示例性实施例示出的另一种室内语义地图的自动化构建方法的流程图;本实施例利用本公开实施例提供的上述方法,以如何基于所述场景图,计算语义方向为例并结合图4B进行示例性说明,如图4A所示,包括如下步骤:
步骤401、确定拍摄图像的摄像头的视角及焦距。
步骤402、基于视角及焦距,计算图像中的实体与摄像头之间的语义方向。
本实施例中,假定实体P和摄像头C之间的语义方向为1的方向。如图4B所示,该算法的目标是计算FOE,即1。给定摄像头的视角AOB为,焦距为D。那么线段AB的长度可基于图像的像素计算得到。因此, 1可以通过下列方法进行计算:
首先,线段OD的长度为。
然后,计算2和3:
,。
最后,1=2+3。
从而,计算得到实体和摄像头之间的语义方向。
图5A是根据一示例性实施例示出的另一种室内语义地图的自动化构建方法的流程图;本实施例利用本公开实施例提供的上述方法,以如何基于所述场景图,计算语义方向为例并结合图5B进行示例性说明,如图5A所示,包括如下步骤:
步骤501、基于优化全局位置信息、优化全局姿态信息、以及各摄像头与实体之间的语义方向估计位置区域。
步骤502、基于各估计位置区域的交集确定图像中的实体在室内语义地图中的位置信息。
本实施例中,通过下述公式4的优化方程L来确定估计位置信息:
公式4
其中,为图像的数量,为图像的图像方向,即初始全局姿态信息,为图像在图像坐标系下得到的图像方向,即根据初始全局姿态信息及相对姿态信息得到的估计姿态信息,为实体和摄像头之间的方向(由和语义方向计算得到),为实体和摄像头之间的估计方向(由.和语义方向得到)。
由于公式4是非凸的,凸优化方法并不能够直接来求解该方程。因此,本实施例提出了一种启发式方法来计算语义位置。该方法的核心思想是确定由、1和三个摄像头()确定的区域的交集,即图5B中的区域II。具体而言,实体和摄像头之间的语义方向已在上一步骤中计算得到,从而可以估计出每一幅图像和语义方向组成的区域,在图5B中即每个摄像头上的两条虚线组成的角的方向,其中区域指的是实体V0可能在室内空间的位置。例如对于摄像头C1,区域I为所估计出的实体V0可能在室内空间的位置。之后,通过选取使得公式4最小化的区域作为实体的估计位置区域。最后,区域的重心位置即为实体在室内语义地图上的估计位置。
通过上述方法能够获得实体在室内语义地图上的精确位置,并且该算法能够有效滤除噪声点,并且对室内场景的结构和纹理特征是鲁棒性的。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明它们没有在细节中提供。
另外,为简化说明和讨论,并且为了不会使本发明难以理解,在所提供的附图中可以示出或可以不示出与集成电路(IC)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本发明难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本发明的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本发明的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本发明。因此,这些描述应被认为是说明性的而不是限制性的。
尽管已经结合了本发明的具体实施例对本发明进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态RAM(DRAM))可以使用所讨论的实施例。
本发明的实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本发明的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种室内语义地图的自动化构建方法,其特征在于,应用于摄像装置、位置确定装置以及计算装置构成的系统中,所述摄像装置用于获取场景中多幅图像的特征点信息,所述位置确定装置用于确定图像的初始全局位置信息,所述方法包括所述计算装置执行的:
基于所述场景中多幅图像的特征点信息和所述初始全局位置信息,确定对应的目标场景图;
基于所述目标场景图,计算每幅所述图像的优化全局位姿信息和语义方向;
根据所述优化全局位姿信息和所述语义方向估计所述图像中的实体在所述室内语义地图中的位置信息;
根据所述位置信息将所述实体在所述室内语义地图中进行标记;所述基于所述场景中多幅图像的特征点信息和所述初始全局位置信息,确定对应的目标场景图,包括:
确定所述多幅图像中的实体的特征点信息;
基于所述特征点信息进行特征点匹配;
将相同特征点信息的数量超过设定数量阈值的特征点对应的图像进行聚类,并分别生成对应的场景图,作为目标场景图;
所述确定对应的目标场景图之后,所述方法还包括:
确定图像中的实体的语义信息;
基于所述语义信息将各目标场景图分别划分为至少一个子场景图;
所述基于所述目标场景图,计算每幅所述图像的优化全局位姿信息,包括:
计算各幅所述图像的初始全局姿态信息;
计算各所述子场景图中的每对图像之间的相对位置信息和相对姿态信息;
基于所述相对位置信息对所述初始全局位置信息进行优化,得到优化全局位置信息,基于所述相对姿态信息对所述初始全局姿态信息进行优化,得到优化全局姿态信息,所述优化全局位置信息及所述优化全局姿态信息构成所述优化全局位姿信息。
2.根据权利要求1所述的方法,其特征在于,所述生成对应的场景图,包括:
基于图像的所述初始全局位置信息验证所生成的场景图,得到目标场景图。
3.根据权利要求1所述的方法,其特征在于,所述计算各所述子场景图中的每对图像之间的相对位置信息和相对姿态信息,包括:
基于所述子场景图中的实体在两幅图像上的投影,确定所述两幅图像之间的相对位置信息和相对姿态信息。
4.根据权利要求1所述的方法,其特征在于,所述相对位置信息和所述相对姿态信息通过对极几何算法进行计算得到。
5.根据权利要求1所述的方法,其特征在于,计算语义方向,包括:
确定拍摄所述图像的摄像头的视角及焦距;
基于所述视角及所述焦距,计算所述图像中的实体与所述摄像头之间的语义方向。
6.根据权利要求1所述的方法,其特征在于,所述根据所述优化全局位姿信息和所述语义方向估计所述图像中的实体在所述室内语义地图中的位置信息,包括:
基于所述优化全局位姿信息和各摄像头与实体之间的语义方向估计所述图像中的实体在室内语义地图中的位置区域;
基于各所述位置区域的交集确定所述图像中的实体在所述室内语义地图中的位置信息。
7.根据权利要求6所述的方法,其特征在于,所述基于各估计位置区域的交集确定估计位置信息,包括:
将所述交集的重心位置确定为所述位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810901173.9A CN108537214B (zh) | 2018-08-09 | 2018-08-09 | 一种室内语义地图的自动化构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810901173.9A CN108537214B (zh) | 2018-08-09 | 2018-08-09 | 一种室内语义地图的自动化构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108537214A CN108537214A (zh) | 2018-09-14 |
CN108537214B true CN108537214B (zh) | 2019-01-01 |
Family
ID=63488230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810901173.9A Active CN108537214B (zh) | 2018-08-09 | 2018-08-09 | 一种室内语义地图的自动化构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108537214B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109492065B (zh) * | 2018-10-26 | 2021-07-20 | 桂林电子科技大学 | 一种室内语义地图时空关系的抽取方法 |
CN109584302B (zh) * | 2018-11-27 | 2023-12-01 | 北京旷视科技有限公司 | 相机位姿优化方法、装置、电子设备和计算机可读介质 |
CN111241875A (zh) * | 2018-11-28 | 2020-06-05 | 驭势科技(北京)有限公司 | 基于视觉的自动化标志牌语义建图定位方法及系统 |
CN111105459B (zh) * | 2019-12-24 | 2023-10-20 | 广州视源电子科技股份有限公司 | 描述子地图生成方法、定位方法、装置、设备和存储介质 |
CN112284402B (zh) * | 2020-10-15 | 2021-12-07 | 广州小鹏自动驾驶科技有限公司 | 一种车辆定位的方法和装置 |
CN113052152B (zh) * | 2021-06-02 | 2021-07-30 | 中国人民解放军国防科技大学 | 一种基于视觉的室内语义地图构建方法、装置及设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6282317B1 (en) * | 1998-12-31 | 2001-08-28 | Eastman Kodak Company | Method for automatic determination of main subjects in photographic images |
CN103712617B (zh) * | 2013-12-18 | 2016-08-24 | 北京工业大学 | 一种基于视觉内容的多层语义地图的创建方法 |
CN106767812B (zh) * | 2016-11-25 | 2017-12-08 | 郭得科 | 一种基于语义信息提取的室内语义地图更新方法与系统 |
CN111542860B (zh) * | 2016-12-30 | 2024-08-27 | 辉达公司 | 用于自主车辆的高清地图的标志和车道创建 |
CN107833250B (zh) * | 2017-10-24 | 2020-05-05 | 北京易达图灵科技有限公司 | 语义空间地图构建方法及装置 |
-
2018
- 2018-08-09 CN CN201810901173.9A patent/CN108537214B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN108537214A (zh) | 2018-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537214B (zh) | 一种室内语义地图的自动化构建方法 | |
CN110568447B (zh) | 视觉定位的方法、装置及计算机可读介质 | |
Toft et al. | Long-term visual localization revisited | |
CN112785702B (zh) | 一种基于2d激光雷达和双目相机紧耦合的slam方法 | |
CN110702111B (zh) | 使用双事件相机的同时定位与地图创建(slam) | |
CN108765498B (zh) | 单目视觉跟踪方法、装置及存储介质 | |
Chen et al. | Rise of the indoor crowd: Reconstruction of building interior view via mobile crowdsourcing | |
US10354129B2 (en) | Hand gesture recognition for virtual reality and augmented reality devices | |
US10254845B2 (en) | Hand gesture recognition for cursor control | |
CN111060115A (zh) | 一种基于图像边缘特征的视觉slam方法及系统 | |
JP2022539422A (ja) | 視覚標識に基づき標識マップを構築する方法、装置 | |
CN103858148A (zh) | 用于移动设备的平面映射和跟踪 | |
US10250801B2 (en) | Camera system and image-providing method | |
CN110363817A (zh) | 目标位姿估计方法、电子设备和介质 | |
CN109902675B (zh) | 物体的位姿获取方法、场景重构的方法和装置 | |
WO2022237026A1 (zh) | 平面信息检测方法及系统 | |
CN114266823A (zh) | 一种结合SuperPoint网络特征提取的单目SLAM方法 | |
JP6922348B2 (ja) | 情報処理装置、方法、及びプログラム | |
WO2023284358A1 (zh) | 相机标定方法、装置、电子设备及存储介质 | |
Angladon et al. | The toulouse vanishing points dataset | |
Kim et al. | IMAF: in situ indoor modeling and annotation framework on mobile phones | |
Lee et al. | Event-and Frame-based Visual-Inertial Odometry with Adaptive Filtering based on 8-DOF Warping Uncertainty | |
Liu et al. | Instant SLAM initialization for outdoor omnidirectional augmented reality | |
Shao | A Monocular SLAM System Based on the ORB Features | |
JP6304815B2 (ja) | 画像処理装置ならびにその画像特徴検出方法、プログラムおよび装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |