CN107833250B - 语义空间地图构建方法及装置 - Google Patents

语义空间地图构建方法及装置 Download PDF

Info

Publication number
CN107833250B
CN107833250B CN201711001164.6A CN201711001164A CN107833250B CN 107833250 B CN107833250 B CN 107833250B CN 201711001164 A CN201711001164 A CN 201711001164A CN 107833250 B CN107833250 B CN 107833250B
Authority
CN
China
Prior art keywords
semantic
images
feature
point
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711001164.6A
Other languages
English (en)
Other versions
CN107833250A (zh
Inventor
刘洋
华仁红
陈德
饶杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Yida Tuling Technology Co ltd
Original Assignee
Beijing Yida Tuling Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yida Tuling Technology Co ltd filed Critical Beijing Yida Tuling Technology Co ltd
Priority to CN201711001164.6A priority Critical patent/CN107833250B/zh
Publication of CN107833250A publication Critical patent/CN107833250A/zh
Application granted granted Critical
Publication of CN107833250B publication Critical patent/CN107833250B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明提供一种语义空间地图构建方法及装置,方法包括获取多幅图像的图像数据;若判断获知多幅图像的图像数据中存在特征点和语义特征点,则根据多幅图像的图像数据获取每个特征点的位置、每个特征点的描述信息、每个语义特征的位置和语义信息;根据每个特征点的描述信息对多幅图像间特征点的位置进行匹配,获取图像间的特征点匹配集,根据每幅图像中语义特征点的语义信息对多幅图像间语义特征的位置进行匹配,获取图像间的语义特征匹配点集;根据两个匹配集获取每个特征点和每个语义特征点对应的三维空间位置,并据此和每个语义特征的语义信息构建待建立地图的场景的语义空间地图。本发明构建出了空间地图和语义地图的语义空间地图。

Description

语义空间地图构建方法及装置
技术领域
本发明涉及计算机处理技术领域,特别涉及一种语义空间地图构建方法及装置。
背景技术
现有技术采用运动恢复结构的方法,通过对多幅场景图像进行处理进行三维重建,从而构建出环境的三维空间地图。以上几个步骤仅仅获得了关于相机位姿以及场景中特征点空间位置的一个初始的估计,想要得到最终的关于相机位姿和特征点位置的精确解还需要一个优化的过程,现有技术大多采用光束法平差来进行全局优化。光束法平差过程中将相机位姿和特征点空间位置作为状态向量,将观测值作为约束,构造关于状态向量的目标函数,得到一个最小二乘问题,对该最小二乘问题进行求解,最终得到状态向量的最优解,也即最终输出的空间地图。
现有技术所构建的空间地图,只包含特征点的空间信息,不包含任何的语义信息,使得用户或上层任务无法在语义层面与地图进行交互,因此其价值并不大。
发明内容
本发明提供一种全部或至少部分解决上述技术问题的一种语义空间地图构建方法及装置。
第一方面,本发明提供一种语义空间地图构建方法,包括:
获取多幅图像的图像数据;所述多幅图像是由摄像设备对待建立地图的场景拍摄得到的;
若判断获知所述多幅图像的图像数据中存在特征点和语义特征点,则根据所述多幅图像的图像数据,采用预设检测方法获取每个特征点的位置、每个特征点的描述信息、每个语义特征的位置和每个语义特征的语义信息;
根据所述每个特征点的描述信息对多幅图像间特征点的位置进行匹配,获取图像间的特征点匹配集,并根据每幅图像中语义特征点的语义信息对多幅图像间语义特征的位置进行匹配,获取图像间的语义特征匹配点集;
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置;
根据所述每个特征点、每个语义特征点对应的三维空间位置和每个语义特征的语义信息,构建待建立地图的场景的语义空间地图。
优选的,根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置,包括:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的摄像设备的位姿信息;所述位姿信息包括位置信息和姿态信息;
根据所述每幅图像对应的摄像设备的位姿信息、图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置。
优选的,根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的摄像设备的位姿信息,包括:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的本质矩阵或基础矩阵;
根据每幅图像对应的本质矩阵或基础矩阵,获取每幅图像对应的摄像设备的旋转矩阵和平移矩阵;
根据每幅图像对应的摄像设备的旋转矩阵和平移矩阵,获取每幅图像对应的摄像设备的位姿信息。
优选的,根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的本质矩阵或基础矩阵,包括:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,利用对极几何约束法获取每幅图像对应的本质矩阵或基础矩阵。
优选的,根据所述每幅图像对应的摄像设备的位姿信息、图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置,包括:
根据所述每幅图像对应的摄像设备的位姿信息、图像间的特征点匹配集和图像间的语义特征匹配点集,采用三角测量法获取每个特征点和每个语义特征点对应的三维空间位置。
优选的,根据所述多幅图像的图像数据,采用预设检测方法获取每个特征点的位置、每个特征点的描述信息、每个语义特征的位置和每个语义特征的语义信息,包括:
根据所述多幅图像的图像数据,采用SIFT方法获取每个特征点的位置和每个特征点的特征描述子。
优选的,根据所述多幅图像的图像数据,采用预设检测方法获取每个特征点的位置、每个特征点的描述信息、每个语义特征的位置和每个语义特征的语义信息,包括:
根据所述多幅图像的图像数据,采用Faster-RCNN检测方法获取每个语义特征的位置,采用深度学习的文字识别方法获取每个语义特征的语义信息。
第二方面,本发明还提供一种语义空间地图构建装置,包括:
第一获取单元,用于获取多幅图像的图像数据;所述多幅图像是由摄像设备对待建立地图的场景拍摄得到的;
第二获取单元,用于若判断获知所述多幅图像的图像数据中存在特征点和语义特征点,则根据所述多幅图像的图像数据,采用预设检测方法获取每个特征点的位置、每个特征点的描述信息、每个语义特征的位置和每个语义特征的语义信息;
第三获取单元,用于根据所述每个特征点的描述信息对多幅图像间特征点的位置进行匹配,获取图像间的特征点匹配集,并根据每幅图像中语义特征点的语义信息对多幅图像间语义特征的位置进行匹配,获取图像间的语义特征匹配点集;
第四获取单元,用于根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置;
构建单元,用于根据所述每个特征点、每个语义特征点对应的三维空间位置和每个语义特征的语义信息,构建待建立地图的场景的语义空间地图。
优选的,所述第四获取单元,还用于:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的摄像设备的位姿信息;所述位姿信息包括位置信息和姿态信息;
根据所述每幅图像对应的摄像设备的位姿信息、图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置。
优选的,所述第四获取单元,还用于:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的本质矩阵或基础矩阵;
根据每幅图像对应的本质矩阵或基础矩阵,获取每幅图像对应的摄像设备的旋转矩阵和平移矩阵;
根据每幅图像对应的摄像设备的旋转矩阵和平移矩阵,获取每幅图像对应的摄像设备的位姿信息。
由上述技术方案可知,本发明构建出了分层次的语义空间地图,地图的底层为空间地图,上层为语义地图,用户既可以直接与底层的空间地图进行交互,又可以直接与语义地图进行交互,并自动完成语义地图到空间地图的解析映射,而且语义地图由于形象直观,因此更容易为用户或上层任务所理解。
附图说明
图1为本发明一实施例提供的一种语义空间地图构建方法的流程图;
图2为本发明一实施例提供的一种语义空间地图构建装置的原理框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清除、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明一实施例提供的一种语义空间地图构建方法的流程图。
如图1所示的一种语义空间地图构建方法,包括:
S101、获取多幅图像的图像数据;所述多幅图像是由摄像设备对待建立地图的场景拍摄得到的;
所述多幅图像可以是用摄像设备拍摄视频,然后抽取出视频数据中的序列图像数据。当然,也可以为其他方式采集的图像数据,本发明对此不做限制。所述摄像设备可以为照相机、摄像机以及其他任何可以摄像的设备。
S102、若判断获知所述多幅图像的图像数据中存在特征点和语义特征点,则根据所述多幅图像的图像数据,采用预设检测方法获取每个特征点的位置、每个特征点的描述信息、每个语义特征的位置和每个语义特征的语义信息;
SIFT方法比KAZE方法的实时性强,比ORB的性能稳定,比SURF方法在尺度和旋转不变性等方面强,因此,在一种具体实施例中,根据所述多幅图像的图像数据,采用SIFT方法获取每个特征点的位置和每个特征点的特征描述子(即所述的描述信息)。所述特征点的位置为特征点的像素坐标,采用SIFT方法作为图像特征提取的算法,提高了特征提取的速度,优选采用SIFT-GPU方法。
在一种具体实施例中,根据所述多幅图像的图像数据,采用深度学习方法的物体检测方法,具体为Faster-RCNN检测方法获取每个语义特征的位置,采用深度学习的文字识别方法获取每个语义特征的语义信息。可以理解的是,所述语义特征的位置为语义特征的像素坐标。Faster-RCNN检测方法可以快速提取到图像中语义特征的像素坐标。
SIFT特征(即上述特征点)是通过对环境(待建立地图的场景)的纹理信息进行抽象表达所得到的一种特征,其只包含纹理信息不包含任何语义信息。事实上环境中存在大量的形象直观且包含语义信息的特征,例如环境中固定的树、建筑、标牌等等,将这些包含语义信息的语义特征引入到地图构建的过程中去,可以在传统的空间地图的基础上同时获得环境的语义地图。本步骤中获取每个语义特征的位置和每个语义特征的语义信息,用特征点和语义特征点两者共同结合构建语义空间地图。
S103、根据所述每个特征点的描述信息对多幅图像间特征点的位置进行匹配,获取图像间的特征点匹配集,并根据每幅图像中语义特征点的语义信息对多幅图像间语义特征的位置进行匹配,获取图像间的语义特征匹配点集;
可以理解的是,图像间的特征点匹配集包括不同图像中具有匹配关系的特征点的位置对,图像间的语义特征匹配点集包括不同图像中具有匹配关系的语义特征点的位置对。
根据所述每个特征点的描述信息对多幅图像间特征点的位置进行匹配,获取图像间的特征点匹配集的本质是特征点匹配,就是多维度矢量之间的检索配对,在两幅图像中,特征点匹配就是两幅图像的点集之间多维度矢量点的相似性检索。两点集之间的检索,一般有两种方法,一种是线性扫描,即穷举搜索,将点集1中的某一点与点集2中的所有点逐个作比较,找出距离最近点;另一种是在分别为两组点集建立一定的索引结构,在合理的索引结构中进行搜索,这样可以大大提高检索效率,降低时间损耗。其中,相比于B树、R树,K-D树更适合于在空间中进行点的查询,所以SIFT算法以基于K-D树的结构进行特征点匹配。
与上述SITF特征点匹配类似,本步骤中同样将对语义特征进行匹配。由于环境中存在着许多带有唯一标识牌的物体,本发明将利用这些标识牌上的文字对物体进行匹配。首先,本发明利用深度学习技术对每个物体所对应标识牌上的文字进行识别,物体作为语义特征,文字信息即为该语义特征的语义信息。通过对两两图像中物体的语义特征进行匹配,即可获得图像间的特征匹配点集。
S104、根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置;
值得说明的是,所述每个特征点和每个语义特征点对应的三维空间位置包括每个特征点的三维空间位置和每个语义特征点对应的三维空间位置。
S105、根据所述每个特征点、每个语义特征点对应的三维空间位置和每个语义特征的语义信息,构建待建立地图的场景的语义空间地图。
本发明构建出了分层次的语义空间地图,地图的底层为空间地图,上层为语义地图,用户既可以直接与底层的空间地图进行交互,又可以直接与语义地图进行交互,并自动完成语义地图到空间地图的解析映射,而且语义地图由于形象直观,因此更容易为用户或上层任务所理解。
作为一种优选实施例,所述步骤S104,包括:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的摄像设备的位姿信息;所述位姿信息包括位置信息和姿态信息;
具体地,根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,多视角几何的基本原理获取每幅图像对应的摄像设备的位姿信息。
根据所述每幅图像对应的摄像设备的位姿信息、图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置。在一种具体实施例中,根据所述每幅图像对应的摄像设备的位姿信息、图像间的特征点匹配集和图像间的语义特征匹配点集,采用三角测量法获取每个特征点和每个语义特征点对应的三维空间位置。
可以理解的是,获取了摄像设备的位姿信息即为估计到了相机(摄像设备为相机)运动,在得到运动之后,用相机的运动估计特征点的空间位置。通过单张图像无法获得像素的深度信息,因此本实施例采用三角测量的方法来估计地图点的深度。三角测量是指,通过在两处观察同一个点的夹角,从而确定该点的距离。三角测量最早是由高斯提出并应用于测量学中,它在天文学、地理学的测量中都有应用。在本具体实施例中,利用估计得到的相机的位姿信息,分别对特征点匹配集和语义特征匹配点集进行三角化,则可以分别得到特征点和语义特征点所对应的三维空间位置。
本实施例采用所述图像间的特征点匹配集和图像间的语义特征匹配点集共同获取摄像设备的位姿信息,因此最终获得的每个特征点和每个语义特征点对应的三维空间位置更精确。
作为一种优选实施例,根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的摄像设备的位姿信息,包括:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的本质矩阵或基础矩阵;
根据每幅图像对应的本质矩阵或基础矩阵,获取每幅图像对应的摄像设备的旋转矩阵和平移矩阵;
根据每幅图像对应的摄像设备的旋转矩阵和平移矩阵,获取每幅图像对应的摄像设备的位姿信息。
作为一种优选实施例,根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的本质矩阵或基础矩阵,包括:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,利用视觉几何中的对极几何约束法获取每幅图像对应的本质矩阵或基础矩阵。
作为一种优选实施例,还包括:利用光束法平差进行重构提纯;
所谓的BA(Bundle Adjustment,光束法平差),是指从视觉重建中提炼出最优的3D模型和相机参数(内参数和外参数)。从每一个特征点反射出来的几束光线,在把相机姿态和特征点空间位置做出最优的调整之后,最后收束到相机光心的这个过程,简称为BA。本发明利用BA技术,对得到的语义空间地图进行优化,从而得到了最终所需要的高精度的语义空间地图。
下面提供几个具体实施例说明本发明。
(1)2016年11月,在陕西省西安市电力专科学校进行了本发明所述的构建语义空间地图的实验,该场景为800m*800m大小。实验过程中,首先进行数据采集工作,利用海康相机对全站场景拍摄视频。取得视频数据后,抽取出视频中序列图像数据。然后利用标定板标定出相机的内参数。利用本发明所述方法,对这些图像数据进行离线处理,最终获得了分层次的语义空间地图。对实验结果进行测量评估,所建立的空间地图无论是路径点还是特征点,其位置精度在2cm以内;所建立的语义地图包含了场景内所有的语义设备,并准确的映射到了空间地图层上。
(2)2016年12月,在北京市密云县的中国遥感卫星地面接收站进行了本发明所述的构建语义空间地图的实验,该场景为1000m*1000m大小。实验过程中,首先进行数据采集工作,利用海康相机对全站场景拍摄视频。取得视频数据后,抽取出视频中序列图像数据。然后利用标定板标定出相机的内参数。利用本发明所述方法,对这些图像数据进行离线处理,最终获得了分层次的语义空间地图。对实验结果进行测量评估,所建立的空间地图无论是路径点还是特征点,其位置精度在3cm以内;所建立的语义地图包含了场景内所有的语义设备,并准确的映射到了空间地图层上。
(3)2017年4月,在陕西省富平县330kV变电站进行了本发明所述的构建语义空间地图的实验,该场景为800m*600m左右大小。实验过程中,首先进行数据采集工作,利用海康相机对全站场景拍摄视频。取得视频数据后,抽取出视频中序列图像数据。然后利用标定板标定出相机的内参数。利用本发明所述方法,对这些图像数据进行离线处理,最终获得了分层次的语义空间地图。对实验结果进行测量评估,所建立的空间地图无论是路径点还是特征点,其位置精度在2cm以内;所建立的语义地图包含了场景内所有的语义设备,并准确的映射到了空间地图层上。
图2为本发明一实施例提供的一种语义空间地图构建装置的原理框图。
如图2所示的一种语义空间地图构建装置,包括:
第一获取单元201,用于获取多幅图像的图像数据;所述多幅图像是由摄像设备对待建立地图的场景拍摄得到的;
第二获取单元202,用于若判断获知所述多幅图像的图像数据中存在特征点和语义特征点,则根据所述多幅图像的图像数据,采用预设检测方法获取每个特征点的位置、每个特征点的描述信息、每个语义特征的位置和每个语义特征的语义信息;
第三获取单元203,用于根据所述每个特征点的描述信息对多幅图像间特征点的位置进行匹配,获取图像间的特征点匹配集,并根据每幅图像中语义特征点的语义信息对多幅图像间语义特征的位置进行匹配,获取图像间的语义特征匹配点集;
第四获取单元204,用于根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置;
构建单元205,用于根据所述每个特征点、每个语义特征点对应的三维空间位置和每个语义特征的语义信息,构建待建立地图的场景的语义空间地图。
作为一种优选实施例,所述第四获取单元204,还用于:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的摄像设备的位姿信息;所述位姿信息包括位置信息和姿态信息;
根据所述每幅图像对应的摄像设备的位姿信息、图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置。
作为一种优选实施例,所述第四获取单元204,还用于:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的本质矩阵或基础矩阵;
根据每幅图像对应的本质矩阵或基础矩阵,获取每幅图像对应的摄像设备的旋转矩阵和平移矩阵;
根据每幅图像对应的摄像设备的旋转矩阵和平移矩阵,获取每幅图像对应的摄像设备的位姿信息。
由于本发明的一种语义空间地图构建装置和一种语义空间地图构建方法是一一对应的,因此,对语义空间地图构建装置不再详述。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
以上实施方式仅适于说明本发明,而并非对本发明的限制,有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本发明的范畴,本发明的专利保护范围应由权利要求限定。

Claims (10)

1.一种语义空间地图构建方法,其特征在于,包括:
获取多幅图像的图像数据;所述多幅图像是由摄像设备对待建立地图的场景拍摄得到的;
若判断获知所述多幅图像的图像数据中存在特征点和语义特征点,则根据所述多幅图像的图像数据,采用预设检测方法获取每个特征点的位置、每个特征点的描述信息、每个语义特征的位置和每个语义特征的语义信息;
根据所述每个特征点的描述信息对多幅图像间特征点的位置进行匹配,获取图像间的特征点匹配集,并根据每幅图像中语义特征点的语义信息对多幅图像间语义特征的位置进行匹配,获取图像间的语义特征匹配点集;
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置;
根据所述每个特征点、每个语义特征点对应的三维空间位置和每个语义特征的语义信息,构建待建立地图的场景的语义空间地图。
2.根据权利要求1所述的方法,其特征在于,根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置,包括:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的摄像设备的位姿信息;所述位姿信息包括位置信息和姿态信息;
根据所述每幅图像对应的摄像设备的位姿信息、图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置。
3.根据权利要求2所述的方法,其特征在于,根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的摄像设备的位姿信息,包括:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的本质矩阵或基础矩阵;
根据每幅图像对应的本质矩阵或基础矩阵,获取每幅图像对应的摄像设备的旋转矩阵和平移矩阵;
根据每幅图像对应的摄像设备的旋转矩阵和平移矩阵,获取每幅图像对应的摄像设备的位姿信息。
4.根据权利要求3所述的方法,其特征在于,根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的本质矩阵或基础矩阵,包括:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,利用对极几何约束法获取每幅图像对应的本质矩阵或基础矩阵。
5.根据权利要求2所述的方法,其特征在于,根据所述每幅图像对应的摄像设备的位姿信息、图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置,包括:
根据所述每幅图像对应的摄像设备的位姿信息、图像间的特征点匹配集和图像间的语义特征匹配点集,采用三角测量法获取每个特征点和每个语义特征点对应的三维空间位置。
6.根据权利要求1所述的方法,其特征在于,根据所述多幅图像的图像数据,采用预设检测方法获取每个特征点的位置、每个特征点的描述信息、每个语义特征的位置和每个语义特征的语义信息,包括:
根据所述多幅图像的图像数据,采用SIFT方法获取每个特征点的位置和每个特征点的特征描述子。
7.根据权利要求1所述的方法,其特征在于,根据所述多幅图像的图像数据,采用预设检测方法获取每个特征点的位置、每个特征点的描述信息、每个语义特征的位置和每个语义特征的语义信息,包括:
根据所述多幅图像的图像数据,采用Faster-RCNN检测方法获取每个语义特征的位置,采用深度学习的文字识别方法获取每个语义特征的语义信息。
8.一种语义空间地图构建装置,其特征在于,包括:
第一获取单元,用于获取多幅图像的图像数据;所述多幅图像是由摄像设备对待建立地图的场景拍摄得到的;
第二获取单元,用于若判断获知所述多幅图像的图像数据中存在特征点和语义特征点,则根据所述多幅图像的图像数据,采用预设检测方法获取每个特征点的位置、每个特征点的描述信息、每个语义特征的位置和每个语义特征的语义信息;
第三获取单元,用于根据所述每个特征点的描述信息对多幅图像间特征点的位置进行匹配,获取图像间的特征点匹配集,并根据每幅图像中语义特征点的语义信息对多幅图像间语义特征的位置进行匹配,获取图像间的语义特征匹配点集;
第四获取单元,用于根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置;
构建单元,用于根据所述每个特征点、每个语义特征点对应的三维空间位置和每个语义特征的语义信息,构建待建立地图的场景的语义空间地图。
9.根据权利要求8所述的装置,其特征在于,所述第四获取单元,还用于:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的摄像设备的位姿信息;所述位姿信息包括位置信息和姿态信息;
根据所述每幅图像对应的摄像设备的位姿信息、图像间的特征点匹配集和图像间的语义特征匹配点集,获取每个特征点和每个语义特征点对应的三维空间位置。
10.根据权利要求9所述的装置,其特征在于,所述第四获取单元,还用于:
根据所述图像间的特征点匹配集和图像间的语义特征匹配点集,获取每幅图像对应的本质矩阵或基础矩阵;
根据每幅图像对应的本质矩阵或基础矩阵,获取每幅图像对应的摄像设备的旋转矩阵和平移矩阵;
根据每幅图像对应的摄像设备的旋转矩阵和平移矩阵,获取每幅图像对应的摄像设备的位姿信息。
CN201711001164.6A 2017-10-24 2017-10-24 语义空间地图构建方法及装置 Active CN107833250B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711001164.6A CN107833250B (zh) 2017-10-24 2017-10-24 语义空间地图构建方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711001164.6A CN107833250B (zh) 2017-10-24 2017-10-24 语义空间地图构建方法及装置

Publications (2)

Publication Number Publication Date
CN107833250A CN107833250A (zh) 2018-03-23
CN107833250B true CN107833250B (zh) 2020-05-05

Family

ID=61649140

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711001164.6A Active CN107833250B (zh) 2017-10-24 2017-10-24 语义空间地图构建方法及装置

Country Status (1)

Country Link
CN (1) CN107833250B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830220B (zh) * 2018-06-15 2021-01-05 山东大学 基于深度学习的视觉语义库构建及全局定位方法
CN108920584B (zh) * 2018-06-25 2020-10-30 广州视源电子科技股份有限公司 一种语义栅格地图生成方法及其装置
CN108537214B (zh) * 2018-08-09 2019-01-01 中国人民解放军国防科技大学 一种室内语义地图的自动化构建方法
CN109215117B (zh) * 2018-09-12 2023-02-28 北京航空航天大学青岛研究院 基于ORB与U-net的花卉三维重建方法
CN109785731B (zh) * 2018-12-29 2020-10-09 北京诺亦腾科技有限公司 一种地图构建方法、系统及存储介质
CN112446234A (zh) * 2019-08-28 2021-03-05 北京初速度科技有限公司 一种基于数据关联的位置确定方法及装置
CN110516641B (zh) * 2019-08-30 2022-04-12 苏州大学 一种环境地图的构建方法及相关装置
CN111695622B (zh) * 2020-06-09 2023-08-11 全球能源互联网研究院有限公司 变电作业场景的标识模型训练方法、标识方法及装置
CN114532924B (zh) * 2022-02-25 2023-04-07 深圳市商汤科技有限公司 区域清洁的方法、装置、电子设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105989586A (zh) * 2015-03-04 2016-10-05 北京雷动云合智能技术有限公司 一种基于语义光束平差法的slam方法
CN106780735A (zh) * 2016-12-29 2017-05-31 深圳先进技术研究院 一种语义地图构建方法、装置及一种机器人
CN106970614A (zh) * 2017-03-10 2017-07-21 江苏物联网研究发展中心 改进的栅格拓扑语义环境地图的构建方法
CN107004028A (zh) * 2014-12-19 2017-08-01 高通股份有限公司 可缩放3d地图绘制系统
CN107167139A (zh) * 2017-05-24 2017-09-15 广东工业大学 一种变电站巡检机器人视觉定位导航方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107004028A (zh) * 2014-12-19 2017-08-01 高通股份有限公司 可缩放3d地图绘制系统
CN105989586A (zh) * 2015-03-04 2016-10-05 北京雷动云合智能技术有限公司 一种基于语义光束平差法的slam方法
CN106780735A (zh) * 2016-12-29 2017-05-31 深圳先进技术研究院 一种语义地图构建方法、装置及一种机器人
CN106970614A (zh) * 2017-03-10 2017-07-21 江苏物联网研究发展中心 改进的栅格拓扑语义环境地图的构建方法
CN107167139A (zh) * 2017-05-24 2017-09-15 广东工业大学 一种变电站巡检机器人视觉定位导航方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Semantic Structure from Motion";Sid Yingze Bao and Silvio Savarese;《IEEE Computer Society Conference on Computer Vision and Pattern Recognition》;20111231;第2025-2032页 *
"基于车载相机采集图像的大规模城市街景重建";程敬敬;《中国优秀硕士学位论文全文数据库 基础科学辑》;20130115;第1、15-16、19-26页 *

Also Published As

Publication number Publication date
CN107833250A (zh) 2018-03-23

Similar Documents

Publication Publication Date Title
CN107833250B (zh) 语义空间地图构建方法及装置
EP3502621B1 (en) Visual localisation
Barazzetti et al. Extraction of accurate tie points for automated pose estimation of close-range blocks
Gupta et al. Augmented reality system using lidar point cloud data for displaying dimensional information of objects on mobile phones
Hong et al. Rapid three-dimensional detection approach for building damage due to earthquakes by the use of parallel processing of unmanned aerial vehicle imagery
CN111143489A (zh) 基于图像的定位方法及装置、计算机设备和可读存储介质
CN116071424A (zh) 基于单目视觉的果实空间坐标定位方法
JP6016242B2 (ja) 視点推定装置及びその分類器学習方法
Li et al. VisioMap: Lightweight 3-D scene reconstruction toward natural indoor localization
CN106326395B (zh) 一种局部视觉特征选择方法及装置
Skuratovskyi et al. Outdoor mapping framework: from images to 3d model
JP5975484B2 (ja) 画像処理装置
Ying et al. Fully Convolutional Networks tor Street Furniture Identification in Panorama Images.
SrirangamSridharan et al. Object localization and size estimation from RGB-D images
KR102249380B1 (ko) 기준 영상 정보를 이용한 cctv 장치의 공간 정보 생성 시스템
Ruiz et al. Analysis of three-dimensional object reconstruction algorithms based on multi-camera arrays
Bethmann et al. Multi-image semi-global matching in object space
Yousef et al. An approach-path independent framework for place recognition and mobile robot localization in interior hallways
He et al. A sub-Harris operator coupled with SIFT for fast images matching in low-altitude photogrammetry
Hou et al. A Fusion Method for 2D LiDAR and RGB-D Camera Depth Image Without Calibration
Chen et al. Outdoor scene 3D reconstruction from multiple point cloud
Tao et al. A Fast Registration Method for Building Point Clouds Obtained by Terrestrial Laser Scanner via 2D Feature Points
Fathi et al. Machine vision-based infrastructure as-built documentation using edge points
Semaan et al. A geographic data gathering system for image geolocalization refining
CN117726687A (zh) 一种融合实景三维与视频的视觉重定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant