CN103712617A - 一种基于视觉内容的多层语义地图的创建方法 - Google Patents

一种基于视觉内容的多层语义地图的创建方法 Download PDF

Info

Publication number
CN103712617A
CN103712617A CN201310700792.9A CN201310700792A CN103712617A CN 103712617 A CN103712617 A CN 103712617A CN 201310700792 A CN201310700792 A CN 201310700792A CN 103712617 A CN103712617 A CN 103712617A
Authority
CN
China
Prior art keywords
image
scene
layer
visual
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310700792.9A
Other languages
English (en)
Other versions
CN103712617B (zh
Inventor
杨金福
赵伟伟
解涛
李明爱
高晶钰
张济昭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maowao Technology (tianjin) Co Ltd
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201310700792.9A priority Critical patent/CN103712617B/zh
Publication of CN103712617A publication Critical patent/CN103712617A/zh
Application granted granted Critical
Publication of CN103712617B publication Critical patent/CN103712617B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于视觉内容的多层语义地图的创建方法,包括:将机器人在环境中漫游拍摄的图像集合按照拍摄地点场景进行标注;构建分层词汇树;构建知识拓扑层,为知识拓扑层赋予知识;构建场景拓扑层;构建地点拓扑层。本发明利用视觉传感器对空间构建多层语义地图,在知识拓扑层使用有向图结构存储和查询知识,可以省去知识表达系统中不必要的操作,插入和查询速度快;利用场景拓扑层对环境进行抽象划分,将整个环境抽象成子区域,可减小图像的检索空间和路径搜索空间;利用地点拓扑层对特定的地点图像进行保存,采用图像检索技术即可自定位,不必维护全局的世界坐标系,解决了自定位估计误差累计问题。

Description

一种基于视觉内容的多层语义地图的创建方法
技术领域
本发明属于机器人导航领域,涉及一种利用视觉传感器进行多层语义地图的创建方法,该多层语义地图共有三层,包括特定地点互连信息的拓扑地图、场景互连的拓扑地图和知识拓扑地图。
背景技术
当前,移动机器人被广泛地应用于工业、航空航天、军事和服务等领域。随着社会的发展,人们对机器人的智能性要求也越来越高,服务机器人已成为研究和应用的热点。在人类的一次导航任务中,通常首先思考目标地点,例如“我要找的玩具机器人在什么地方”,然后思考“我现在在什么地方”,接着思考“怎么从我所在地方到玩具机器人所在的地方”。而“地方”、“玩具机器人”等信息就是环境中的语义信息,具有先验知识的人类能通过视觉获得场景中的语义信息。描述某一地点的图像具有明确的语义内容,例如“机器人实验室”、“走廊”、“会议室”等都代表着一定的区域(语义),而不同区域之间通常具有差异性。此外,“玩具机器人”则表示一个物体,人类同样也可以通过视觉方便地获得。具备语义识别能力的人不需要知道环境的世界坐标,仅仅通过对环境的熟悉程度,利用已有的语义信息和大致的空间位置关系,即可找到“玩具机器人”。同样,服务机器人只有具备对语义信息的处理能力,才能更好、更加智能地完成诸如“拿盒牛奶”等事务性导航任务。由此可见,环境中的语义信息对机器人的导航具有很好的指导作用,可以大大地减少机器人路径规划的搜索空间,并实现更加智能的任务操作。
随着计算机视觉领域的物体识别、场景识别、姿态估计以及图像检索等技术的发展,机器人的视觉导航已经成为可能。2006年,D.Nister等在论文“Scalable Recognition with aVocabulary Tree”中提出一种分层词汇树图像检索方法,采用分层词汇树方法对图像内容进行压缩,使用生成的视觉单词向量表示整个图像,并以视觉单词为检索元素,将图像进行倒排索引。该方法可以处理百万数量的图像,而且查询的时间在十毫秒级别,完全可以用于机器人视觉导航中的实时地点识别任务。2007年,F.Fraundorfer等在论文“Topological mapping,localization and navigation using image collections”中将D.Nister提出的分层词汇树图像检索方法用于机器人视觉导航中,机器人漫游过程中拍摄的图像经过分层词汇树视觉单词化之后存入倒排索引数据库,一帧图像代表一个拓扑节点,形成拓扑地图。该方法通过相似地点的查询实现定位,以及图像之间的姿态差进行导航。其不足是,在大范围场景中,需要维护庞大的词汇树和倒排索引数据库,影响拓扑导航的性能。2007年A.Bouguerra等在论文“SemanticKnowledge-Based Execution Monitoring for Mobile Robots”中提出使用视觉传感器获得的语义信息对机器人的定位进行指导的技术,通过视觉传感器识别物体,然后判断物体应该所属的房间。该系统对语义信息的利用仅仅在判断机器人是否到达目标房间,而没有充分考虑语义信息对机器人导航的作用。2008年H.Zender等在论文“Conceptual spatial representations forindoor mobile robots”中提出了一种对机器人所在的室内环境进行分层描述的方法,利用激光传感器实现自定位和几何地图同时构建、场景的识别以及保存机器人漫游中经过的路径构建导航图,和利用视觉传感器进行物体识别获取空间中的语义信息,并将激光和视觉传感器获得的场景和物体语义信息加入到知识表达系统中。该系统侧重获取空间中的语义信息并实现与人的交流,例如告诉人某个地方有什么,哪个区域跟那个区域相连等。在对环境描述以及导航方面,存在一下问题:需要维护一个全局世界坐标系,机器人自定位误差会随着系统运行而累计,会对选择导航图中的节点产生较大影响;该系统通过跟踪人来实现导航,在自主导航能力方面较弱;该系统利用无线网络连接知识表达系统完成语义信息处理,操作复杂,处理速度慢;该系统采用激光传感器,成本也较高。
综上所述,现有技术在室内坏境的多层描述及视觉导航存在以下问题:利用知识表达系统进行语义信息的处理,需要利用网络连接知识库,限制了机器人活动范围,查询和插入知识实时性也受到影响;现有基于图像检索的视觉导航维护一个大的图像检索库,没有利用室内空间中场景的划分构建不同场景的小检索库,提高检索的精度;在自定位方面,通过维护世界坐标系的方法,自定位误差会随着时间而累计;利用激光传感器普遍的比较昂贵。
发明内容
针对现有技术中存在的上述问题,本发明提出一种基于视觉内容的多层语义地图的创建方法。所述多层语义地图共有三层:底层为特定地点互连信息的拓扑地图,中层为场景互连的拓扑地图,高层为知识拓扑地图。
一种基于视觉内容的多层语义地图的创建方法,其特征在于包括以下步骤:
步骤1,将机器人在室内环境中漫游拍摄的图像集合按照拍摄地点场景进行标注。
设所述图像集合为P,每个场景一般不少于50帧图像。对P中的图像进行标注,形成标注文件,标注文件的每一行代表一个图像,行号与图像编号对应,每行内容包括该图像拍摄时机器人所处的场景和图像的内容,图像的内容用于显示图像是什么物体或者什么地点。
步骤2,构建分层词汇树;
步骤2.1,利用OpenCV2.4.4(URL:http://opencv.org/)中的GoodFeatureToTrack检测子获得图像集P中每帧图像的特征点集合,利用OpenCV2.4.4中的SIFT描述子对特征点进行描述获得特征向量集合。
步骤2.2,利用开源库VLFeat0.9.17(URL:http://vlfeat.org/)中C语言接口的层次化整数类型K-Means聚类模块构建多层词汇树,对图像集合的特征向量集合进行训练,得到一棵多层词汇树T。
分层词汇树的分支数为10,层数为4。
步骤3,构建多层语义地图中的知识拓扑层,为知识拓扑层赋予知识。
知识的定义格式为:源语义关联目的语义。
其中,语义和关联所表达的知识在计算机中以有向图的方式表示和存储,源语义位于有向图的源节点,目的语义位于有向图的目的节点,关联位于源节点和目的节点之间的有向边,有向图采用邻接表的方式存储。
步骤4,构建多层语义地图中的场景拓扑层。
场景拓扑层采用无向图表示,在计算机中采用邻接表的方式存储。构建场景拓扑层的方法如下:
步骤4.1,从步骤1形成的标注文件中依次取一帧图像和其所属的场景。
步骤4.2,如果是第一帧图像,则在场景拓扑层加入第一帧图像所在的场景节点;
步骤4.3,如果不是第一帧图像,且当前图像的场景和前一个插入到场景拓扑层中的节点的场景不相同,则查询已经构建的场景拓扑层节点中是否有当前图像的场景,如果没有,则在场景拓扑层中插入当前图像的场景节点,并与前一个插入到场景拓扑层中的节点互连;如果有,则查看该图像场景节点和前一个插入到场景拓扑层中的节点是否已经互连,若没有互连,则为两个场景节点添加一条边;
步骤4.4,如果不是第一帧图像,且该图像的场景和前一个插入到场景拓扑层中的节点的场景相同,则从标注文件取下一帧图像标注,重复步骤4.1~4.4,直到处理完标注文件中的所有图像。
步骤5,构建多层语义地图中的地点拓扑层。
地点拓扑层采用无向图表示,在计算机中采用邻接表的方式存储。构建场景拓扑层的方法如下:
步骤5.1,采用黑白国际象棋棋盘对针孔相机进行标定,得到内参矩阵K。初始化每个场景倒排索引数据库,其中以视觉单词为属性值,图像在地点拓扑层中的位置编号为记录名称构建倒排索引库。
步骤5.2,从图像集合P中顺序取一帧图像和标注文件中取其所属的场景和内容,检测图像的GoodFeatureToTrack特征点,并保存其坐标到坐标集合中,对每一个检测到的特征点进行SIFT描述,得到特征向量集合。
步骤5.3,利用词汇树获取图像SIFT特征向量集合中每个特征向量的视觉单词,构成视觉单词集合。
步骤5.4,如果图像是集合P中的第一帧图像,将当前拍摄图像地点所属的场景、视觉单词集合和对应的坐标集合插入到地点拓扑层中,生成地点拓扑节点;将图像的视觉单词集合、图像在地点拓扑层中的位置编号作为名称,插入到当前图像所在的场景的倒排索引数据库中。
步骤5.5,如果当前图像不是集合P中的第一帧图像,则根据估计当前图像和上一帧插入到地点拓扑层的图像之间的距离判断是否将当前图像作为新的节点插入到地点拓扑层:如果所述距离足够大,将当前拍摄图像地点所属的场景、视觉单词集合和对应的坐标集合插入到地点拓扑层中,生成新的地点拓扑层节点,并与上一帧插入到地点拓扑层的图像所在的拓扑节点互连;将当前图像的视觉单词集合、图像在地点拓扑层中的位置编号作为名称,插入到当前图像所在的场景的倒排索引数据库中;如果所述距离不够大,则抛弃当前图像,转到步骤5.2,直到处理完图像集合P中所有图像。
估计当前图像Ij与插入到地点拓扑层的上一帧图像Ik之间距离的方法如下:
(1)在地点拓扑层中获取图像Ik的视觉单词集合和坐标集合,以Ik为第一帧图像,Ij为第二帧图像,两图像之间相同的视觉单词构成匹配点集合Matches,剔除误匹配点得到新的匹配点集合Matches'。剔除误匹配点的规则为:一个特征点有且只有一个匹配点,且匹配点在各自图像上坐标(uk,vk)和(uj,vj)满足:max(||uk-uj||,||vk-vj||)<thres_dist,thres_dist通常取图像宽高较大值的0.05~0.1倍。
(2)如果Matches'匹配个数小于8,则Ik和Ij之间距离足够远,判断结束;
(3)如果Matches'匹配个数大于等于8,根据更新过的Matches',采用随机采样一致性算法(RANSAC)结构下的8-points算法计算基础矩阵F,剔除不满足极线约束条件mj TFmk=0的匹配点,极限约束示意图如图6所示,通常设置一个较大的阈值,若模||mj TFmk||>3.0,则剔除该匹配点,其中,mj表示匹配点在Ij上坐标,mk表示匹配点在Ik上坐标,采用齐次坐标形式,更新Matches'得到Matches",如果Matches"匹配个数小于8,则Ik和Ij之间距离足够远,判断结束。
(4)如果Matches"匹配个数大于等于8,由E=KTFK得到本质矩阵E。本质矩阵E恢复旋转矩阵R和平移向量的方向t,根据R和t利用标准的三角测量方法计算匹配点Matches"在图像Ik所在的相机坐标系下的3D坐标值构成集合X。利用3D点的坐标集合X中每个点的坐标的x、y、z的绝对值之和构成一个序列arr,并对arr排序,获得3D坐标值集合的距离中值medium。如果medium<thres_motion,则说明两帧图像Ik和Ij之间距离足够大,判断结束,thres_motion为阈值,其值根据场景的大小确定,通常取40~200,medium越大,两帧图像之间距离越小,medium越小,两帧图像之间距离越大;否则两帧图像之间的距离偏小,判断结束。
步骤5.6,计算每个场景倒排索引数据库中每个视觉单词权值,公式如下:
w i j = log ( N if j / n i j )
其中,
Figure BDA0000440958380000042
表示第j个场景倒排索引库中第i个视觉单词的权值,
Figure BDA0000440958380000043
表示第j个场景倒排索引库中共可索引的图像的个数,
Figure BDA0000440958380000044
表示第j个场景倒排索引库中第i个视觉单词可索引的图像个数。
多层语义地图用于机器人视觉导航,可使机器人执行事务性任务;可以将地点拓扑层的每个节点都作为导航入口点;划分场景能缩小图像检索空间和地点拓扑层搜索空间;采用自然场景图像,不需要人工设置标志。
与现有技术相比,本发明具有以下优点:
(1)本发明仅仅利用视觉传感器对室内空间构建多层语义地图,在知识拓扑层使用有向图结构存储和查询知识,可以省去知识表达系统中不必要的操作,插入和查询速度快;
(2)利用场景拓扑层对室内环境进行抽象划分,将整个环境抽象成子区域,可减小图像的检索空间和路径搜索空间;
(3)利用地点拓扑层对特定的地点图像进行保存,采用图像检索技术即可自定位,不必维护全局的世界坐标系,解决了自定位估计误差累计问题。
附图说明
图1为模拟的机器人所在环境示意图,图中虚线表示机器人漫游拍摄图像的路径;
图2为多层语义地图中高层的知识拓扑层对图1模拟环境描述的示意图;
图3为多层语义地图中中层的场景拓扑层对图1模拟环境描述的示意图;
图4为多层语义地图中底层的地点拓扑层对图1模拟环境描述的示意图;
图5为分支数为3、层数为2的分层词汇树示意图;
图6为两帧图像之间的极线约束示意图;
图7为多层语义地图构建方法流程图。
具体实施方式
下面结合附图对本发明做进一步说明。
本发明所述的多层语义地图的创建方法流程图如图7所示,包括以下步骤:
步骤1,标定相机,同时采用避障系统以保证机器人不会发生碰撞。机器人在室内环境中漫游,保存漫游过程中拍摄的图像,并对图像按其所属的场景和图像内容进行标注,形成标注文件。
步骤2,构建分层词汇树。
提取所有图像特征向量集合,使用K-means算法对特征向量集合(根节点)进行聚类形成子特征向量集合(子节点),迭代的对每个子特征向量集合再进行K-means聚类,直到满足深度deepth限制,保存每个节点储存的子节点的聚类中心,即完成分层词汇树的构建。一个特征向量从根节点进入词汇树,在每个节点与该节点保存的聚类中心比较欧式距离,进入欧式距离最近的聚类中心表示子节点,直到到达叶子节点,叶子节点从左到右的编号即为该特征向量的视觉单词。图5所示是一棵简化的3分支、2层的分层词汇树示意图。
步骤3,构建多层语义地图的知识拓扑层。
人为定义语义之间的关联(拓扑的边)和语义知识。在图1所示的模拟环境中,定义规则包括:is_a、has_a、locates_in。定义的知识包括:robot is_a object,object has_a robot,conference_table is_a object,object has_a conference_table,robot locates_in laboratory,labratoryhas_a robot,conference_table locates_in conference_room,conference_room has_aconference_table,labratory is_a area,area has_a laboratory,area has_a conference_room,conference_room is_a area,corridor is_a area,area has_a corridor,如图2所示。
步骤4,构建多层语义地图的场景拓扑层。
顺序提取图像和图像的标注,动态地构造场景拓扑层,构建结构示意图如图3所示。
步骤5,构建多层语义地图的地点拓扑层。
首先为每个场景构建一个倒排索引数据库,然后顺序的提取图像和图像的标注,动态地构造地点拓扑层,构建结构示意图如图4所示。
将创建的多层语义地图应用于机器人视觉导航,包括以下步骤:
步骤1,确定导航在场景拓扑层的目的场景。
步骤2,确定场景拓扑层中的导航路径。
步骤3,确定机器人在地点拓扑层中的起始位置。
步骤4,确定机器人导航终点在地点拓扑层中的节点位置。
步骤5,获得在地点拓扑层中从当前源节点到目的节点之间的一条导航路径。
步骤6,根据步骤5得到的导航路径,指导机器人从当前节点移动到下一节点。
步骤7,重复步骤6,直到达到目标节点。如果在步骤6中出现找不到下一节点的情况,则转到步骤3确定当前节点以及重新规划路径。

Claims (6)

1.一种基于视觉内容的多层语义地图的创建方法,其特征在于包括以下步骤:
步骤1,将机器人在环境中漫游拍摄的图像集合按照拍摄地点场景进行标注;
设所述图像集合为P,每个场景一般不少于50帧图像;对P中的图像进行标注,形成标注文件,标注文件的每一行代表一个图像,行号与图像编号对应,每行内容包括该图像拍摄时机器人所处的场景和图像的内容,图像的内容用于显示图像是什么物体或者什么地点;
步骤2,构建分层词汇树;
步骤2.1,利用OpenCV2.4.4中的GoodFeatureToTrack检测子获得图像集P中每帧图像的特征点集合,利用OpenCV2.4.4中的SIFT描述子对特征点进行描述获得特征向量集合;
步骤2.2,利用开源库VLFeat0.9.17中C语言接口的层次化整数类型K-Means聚类模块构建多层词汇树,对图像集合的特征向量集合进行训练,得到一棵多层词汇树T;
步骤3,构建多层语义地图中的知识拓扑层,为知识拓扑层赋予知识;
知识的定义格式为:源语义关联目的语义;
其中,语义和关联所表达的知识在计算机中以有向图的方式表示和存储,源语义位于有向图的源节点,目的语义位于有向图的目的节点,关联位于源节点和目的节点之间的有向边,有向图采用邻接表的方式存储;
步骤4,构建多层语义地图中的场景拓扑层;
步骤5,构建多层语义地图中的地点拓扑层。
2.根据权利要求1所述的一种基于视觉内容的多层语义地图的创建方法,其特征在于,步骤2.2构建的所述多层词汇树的分支数为10,层数为4。
3.根据权利要求1所述的一种基于视觉内容的多层语义地图的创建方法,其特征在于,步骤4所述场景拓扑层采用无向图表示,在计算机中采用邻接表的方式存储;构建场景拓扑层的方法如下:
(1)从步骤1形成的标注文件中依次取一帧图像和其所属的场景;
(2)如果是第一帧图像,则在场景拓扑层加入第一帧图像所在的场景节点;
(3)如果不是第一帧图像,且当前图像的场景和前一个插入到场景拓扑层中的节点的场景不相同,则查询已经构建的场景拓扑层节点中是否有当前图像的场景,如果没有,则在场景拓扑层中插入当前图像的场景节点,并与前一个插入到场景拓扑层中的节点互连;如果有,则查看该图像场景节点和前一个插入到场景拓扑层中的节点是否已经互连,若没有互连,则为两个场景节点添加一条边;
(4)如果不是第一帧图像,且该图像的场景和前一个插入到场景拓扑层中的节点的场景相同,则从标注文件取下一帧图像标注,重复步骤(1)~(4),直到处理完标注文件中的所有图像。
4.根据权利要求1所述的一种基于视觉内容的多层语义地图的创建方法,其特征在于,步骤5所述地点拓扑层采用无向图表示,在计算机中采用邻接表的方式存储;构建场景拓扑层的方法如下:
(1)采用黑白国际象棋棋盘对针孔相机进行标定,得到内参矩阵K;初始化每个场景倒排索引数据库,其中以视觉单词为属性值,图像在地点拓扑层中的位置编号为记录名称构建倒排索引库;
(2)从图像集合P中顺序取一帧图像和标注文件中取其所属的场景和内容,检测图像的GoodFeatureToTrack特征点,并保存其坐标到坐标集合中,对每一个检测到的特征点进行SIFT描述,得到特征向量集合;
(3)利用词汇树获取图像SIFT特征向量集合中每个特征向量的视觉单词,构成视觉单词集合;
(4)如果图像是集合P中的第一帧图像,将当前拍摄图像地点所属的场景、视觉单词集合和对应的坐标集合插入到地点拓扑层中,生成地点拓扑节点;将图像的视觉单词集合、图像在地点拓扑层中的位置编号作为名称,插入到当前图像所在的场景的倒排索引数据库中;
(5)如果当前图像不是集合P中的第一帧图像,则根据估计当前图像和上一帧插入到地点拓扑层的图像之间的距离判断是否将当前图像作为新的节点插入到地点拓扑层:如果所述距离足够大,将当前拍摄图像地点所属的场景、视觉单词集合和对应的坐标集合插入到地点拓扑层中,生成新的地点拓扑层节点,并与上一帧插入到地点拓扑层的图像所在的拓扑节点互连;将当前图像的视觉单词集合、图像在地点拓扑层中的位置编号作为名称,插入到当前图像所在的场景的倒排索引数据库中;如果所述距离不够大,则抛弃当前图像,转到步骤(2),直到处理完图像集合P中的所有图像。
(6)计算每个场景倒排索引数据库中每个视觉单词权值,公式如下:
w i j = log ( N if j / n i j )
其中,表示第j个场景倒排索引库中第i个视觉单词的权值,
Figure FDA0000440958370000023
表示第j个场景倒排索引库中共可索引的图像的个数,
Figure FDA0000440958370000024
表示第j个场景倒排索引库中第i个视觉单词可索引的图像个数。
5.根据权利要求4所述的一种基于视觉内容的多层语义地图的创建方法,其特征在于,估计当前图像Ij与上一帧插入到地点拓扑层的图像Ik之间距离的方法如下:
(1)在地点拓扑层中获取图像Ik的视觉单词集合和坐标集合,以Ik为第一帧图像,Ij为第二帧图像,两图像之间相同的视觉单词构成匹配点集合Matches,剔除误匹配点得到新的匹配点集合Matches';剔除误匹配点的规则为:一个特征点有且只有一个匹配点,且匹配点在各自图像上坐标(uk,vk)和(uj,vj)满足:max(||uk-uj||,||vk-vj||)<thres_dist,thres_dist通常取图像宽高较大值的0.05~0.1倍;
(2)如果Matches'匹配个数小于8,则Ik和Ij之间距离足够远,判断结束;
(3)如果Matches'匹配个数大于等于8,根据更新过的Matches',采用随机采样一致性算法(RANSAC)结构下的8-points算法计算基础矩阵F,剔除||mj TFmk||>3.0的匹配点,其中,mj表示匹配点在Ij上坐标,mk表示匹配点在Ik上坐标,采用齐次坐标形式,更新Matches'得到Matches",如果Matches"匹配个数小于8,则Ik和Ij之间距离足够远,判断结束;
(4)如果Matches"匹配个数大于等于8,通过式子E=KTFK得到本质矩阵E;本质矩阵E恢复旋转矩阵R和平移向量的方向t,根据R和t利用标准的三角测量方法计算匹配点Matches"在图像Ik所在的相机坐标系下的3D坐标值构成集合X;利用3D点的坐标集合X中每个点的坐标的x、y、z的绝对值之和构成一个序列arr,并对arr排序,获得3D坐标值集合的距离中值medium;如果medium<thres_motion,则说明两帧图像Ik和Ij之间距离足够大,判断结束,thres_motion为阈值,其值根据场景大小确定,通常取40~200,medium越大,两帧图像之间距离越小,medium越小,两帧图像之间距离越大;否则,两帧图像之间的距离偏小,判断结束。
6.根据权利要求1所述的一种基于视觉内容的多层语义地图的创建方法,其特征在于,多层语义地图用于机器人视觉导航,可使机器人执行事务性任务;可以将地点拓扑层的每个节点都作为导航入口点;划分场景能缩小图像检索空间和地点拓扑层路径搜索空间;采用自然场景图像,不需要人工设置标志。
CN201310700792.9A 2013-12-18 2013-12-18 一种基于视觉内容的多层语义地图的创建方法 Active CN103712617B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310700792.9A CN103712617B (zh) 2013-12-18 2013-12-18 一种基于视觉内容的多层语义地图的创建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310700792.9A CN103712617B (zh) 2013-12-18 2013-12-18 一种基于视觉内容的多层语义地图的创建方法

Publications (2)

Publication Number Publication Date
CN103712617A true CN103712617A (zh) 2014-04-09
CN103712617B CN103712617B (zh) 2016-08-24

Family

ID=50405779

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310700792.9A Active CN103712617B (zh) 2013-12-18 2013-12-18 一种基于视觉内容的多层语义地图的创建方法

Country Status (1)

Country Link
CN (1) CN103712617B (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104732587A (zh) * 2015-04-14 2015-06-24 中国科学技术大学 一种基于深度传感器的室内3d语义地图构建方法
CN105116881A (zh) * 2015-06-26 2015-12-02 武汉科技大学 一种基于在线学习机制的轮式机器人自适应导航方法
CN105335377A (zh) * 2014-06-25 2016-02-17 联想(北京)有限公司 信息处理方法和设备
CN106272423A (zh) * 2016-08-31 2017-01-04 哈尔滨工业大学深圳研究生院 一种针对大尺度环境的多机器人协同制图与定位的方法
CN106780735A (zh) * 2016-12-29 2017-05-31 深圳先进技术研究院 一种语义地图构建方法、装置及一种机器人
CN106840161A (zh) * 2016-12-16 2017-06-13 海航生态科技集团有限公司 导航方法及装置
CN107622092A (zh) * 2017-08-24 2018-01-23 河海大学 中国象棋基于多重优化、迭代加深剪枝的搜索方法
CN107967473A (zh) * 2016-10-20 2018-04-27 南京万云信息技术有限公司 基于图文识别和语义的机器人自主定位和导航
CN107967457A (zh) * 2017-11-27 2018-04-27 全球能源互联网研究院有限公司 一种适应视觉特征变化的地点识别与相对定位方法及系统
CN108230337A (zh) * 2017-12-31 2018-06-29 厦门大学 一种基于移动端的语义slam系统实现的方法
CN108537214A (zh) * 2018-08-09 2018-09-14 中国人民解放军国防科技大学 一种室内语义地图的自动化构建方法
CN110989573A (zh) * 2019-11-05 2020-04-10 珠海格力电器股份有限公司 对象移动控制方法、装置、服务器及存储介质
CN111630346A (zh) * 2017-09-22 2020-09-04 软银机器人欧洲公司 基于图像和无线电词语的移动设备的改进定位
CN112711249A (zh) * 2019-10-24 2021-04-27 科沃斯商用机器人有限公司 机器人定位方法、装置、智能机器人和存储介质
CN113252026A (zh) * 2021-06-03 2021-08-13 炬星科技(深圳)有限公司 跨场景导航方法、设备及存储介质
CN114972938A (zh) * 2022-02-21 2022-08-30 上海应用技术大学 融合知识图谱和空间语义拓扑图的室内陌生场景识别系统
WO2022193813A1 (en) * 2021-03-15 2022-09-22 Midea Group Co., Ltd. Method and apparatus for localizing mobile robot in environment
CN115454055A (zh) * 2022-08-22 2022-12-09 中国电子科技南湖研究院 一种面向室内自主导航与作业的多层融合地图表示方法
CN117537803A (zh) * 2024-01-10 2024-02-09 常熟理工学院 机器人巡检语义-拓扑地图构建方法、系统、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101000507A (zh) * 2006-09-29 2007-07-18 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
US20080033993A1 (en) * 2006-08-04 2008-02-07 International Business Machines Corporation Database Access Through Ontologies With Semi-Automatic Semantic Mapping
KR20090078208A (ko) * 2008-01-14 2009-07-17 삼성전자주식회사 초음파 센서를 이용한 지도 작성 방법 및 이를 이용하는이동 로봇
CN102313547A (zh) * 2011-05-26 2012-01-11 东南大学 基于手绘轮廓语义地图的移动机器人视觉导航方法
CN102629328A (zh) * 2012-03-12 2012-08-08 北京工业大学 融合颜色的显著特征概率潜在语义模型物体图像识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080033993A1 (en) * 2006-08-04 2008-02-07 International Business Machines Corporation Database Access Through Ontologies With Semi-Automatic Semantic Mapping
CN101000507A (zh) * 2006-09-29 2007-07-18 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
KR20090078208A (ko) * 2008-01-14 2009-07-17 삼성전자주식회사 초음파 센서를 이용한 지도 작성 방법 및 이를 이용하는이동 로봇
CN102313547A (zh) * 2011-05-26 2012-01-11 东南大学 基于手绘轮廓语义地图的移动机器人视觉导航方法
CN102629328A (zh) * 2012-03-12 2012-08-08 北京工业大学 融合颜色的显著特征概率潜在语义模型物体图像识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CIPRIANO GALINDO ET AL.: "Robot task planning using semantic maps", 《ROBOTICS AND AUTONOMOUS SYSTEMS》 *
吴皓等: "室内非结构化环境三维栅格语义地图的构建", 《模式识别与人工智能》 *

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105335377A (zh) * 2014-06-25 2016-02-17 联想(北京)有限公司 信息处理方法和设备
CN105335377B (zh) * 2014-06-25 2019-03-29 联想(北京)有限公司 信息处理方法和设备
CN104732587B (zh) * 2015-04-14 2019-02-01 中国科学技术大学 一种基于深度传感器的室内3d语义地图构建方法
CN104732587A (zh) * 2015-04-14 2015-06-24 中国科学技术大学 一种基于深度传感器的室内3d语义地图构建方法
CN105116881A (zh) * 2015-06-26 2015-12-02 武汉科技大学 一种基于在线学习机制的轮式机器人自适应导航方法
CN105116881B (zh) * 2015-06-26 2018-03-16 武汉科技大学 一种基于在线学习机制的轮式机器人自适应导航方法
CN106272423A (zh) * 2016-08-31 2017-01-04 哈尔滨工业大学深圳研究生院 一种针对大尺度环境的多机器人协同制图与定位的方法
CN107967473B (zh) * 2016-10-20 2021-09-24 南京万云信息技术有限公司 基于图文识别和语义的机器人自主定位和导航
CN107967473A (zh) * 2016-10-20 2018-04-27 南京万云信息技术有限公司 基于图文识别和语义的机器人自主定位和导航
CN106840161A (zh) * 2016-12-16 2017-06-13 海航生态科技集团有限公司 导航方法及装置
CN106780735B (zh) * 2016-12-29 2020-01-24 深圳先进技术研究院 一种语义地图构建方法、装置及一种机器人
CN106780735A (zh) * 2016-12-29 2017-05-31 深圳先进技术研究院 一种语义地图构建方法、装置及一种机器人
CN107622092B (zh) * 2017-08-24 2019-11-12 河海大学 中国象棋基于多重优化、迭代加深剪枝的搜索方法
CN107622092A (zh) * 2017-08-24 2018-01-23 河海大学 中国象棋基于多重优化、迭代加深剪枝的搜索方法
CN111630346A (zh) * 2017-09-22 2020-09-04 软银机器人欧洲公司 基于图像和无线电词语的移动设备的改进定位
CN111630346B (zh) * 2017-09-22 2024-02-09 软银机器人欧洲公司 基于图像和无线电词语的移动设备的改进定位
CN107967457A (zh) * 2017-11-27 2018-04-27 全球能源互联网研究院有限公司 一种适应视觉特征变化的地点识别与相对定位方法及系统
CN107967457B (zh) * 2017-11-27 2024-03-19 全球能源互联网研究院有限公司 一种适应视觉特征变化的地点识别与相对定位方法及系统
CN108230337A (zh) * 2017-12-31 2018-06-29 厦门大学 一种基于移动端的语义slam系统实现的方法
CN108230337B (zh) * 2017-12-31 2020-07-03 厦门大学 一种基于移动端的语义slam系统实现的方法
CN108537214A (zh) * 2018-08-09 2018-09-14 中国人民解放军国防科技大学 一种室内语义地图的自动化构建方法
CN112711249A (zh) * 2019-10-24 2021-04-27 科沃斯商用机器人有限公司 机器人定位方法、装置、智能机器人和存储介质
WO2021077941A1 (zh) * 2019-10-24 2021-04-29 科沃斯商用机器人有限公司 机器人定位方法、装置、智能机器人和存储介质
CN110989573A (zh) * 2019-11-05 2020-04-10 珠海格力电器股份有限公司 对象移动控制方法、装置、服务器及存储介质
CN110989573B (zh) * 2019-11-05 2021-08-17 珠海格力电器股份有限公司 对象移动控制方法、装置、服务器及存储介质
WO2022193813A1 (en) * 2021-03-15 2022-09-22 Midea Group Co., Ltd. Method and apparatus for localizing mobile robot in environment
CN113252026B (zh) * 2021-06-03 2021-10-08 炬星科技(深圳)有限公司 跨场景导航方法、设备及存储介质
CN113252026A (zh) * 2021-06-03 2021-08-13 炬星科技(深圳)有限公司 跨场景导航方法、设备及存储介质
CN114972938A (zh) * 2022-02-21 2022-08-30 上海应用技术大学 融合知识图谱和空间语义拓扑图的室内陌生场景识别系统
CN115454055A (zh) * 2022-08-22 2022-12-09 中国电子科技南湖研究院 一种面向室内自主导航与作业的多层融合地图表示方法
CN115454055B (zh) * 2022-08-22 2023-09-19 中国电子科技南湖研究院 一种面向室内自主导航与作业的多层融合地图表示方法
CN117537803A (zh) * 2024-01-10 2024-02-09 常熟理工学院 机器人巡检语义-拓扑地图构建方法、系统、设备及介质
CN117537803B (zh) * 2024-01-10 2024-04-02 常熟理工学院 机器人巡检语义-拓扑地图构建方法、系统、设备及介质

Also Published As

Publication number Publication date
CN103712617B (zh) 2016-08-24

Similar Documents

Publication Publication Date Title
CN103712617B (zh) 一种基于视觉内容的多层语义地图的创建方法
CN107967457B (zh) 一种适应视觉特征变化的地点识别与相对定位方法及系统
CN111563442B (zh) 基于激光雷达的点云和相机图像数据融合的slam方法及系统
CN111199564B (zh) 智能移动终端的室内定位方法、装置与电子设备
CN113168717B (zh) 一种点云匹配方法及装置、导航方法及设备、定位方法、激光雷达
Zhang et al. Hierarchical topic model based object association for semantic SLAM
CN110969648B (zh) 一种基于点云序列数据的3d目标跟踪方法及系统
CN112784873B (zh) 一种语义地图的构建方法及设备
Drouilly et al. Semantic representation for navigation in large-scale environments
CN111652929A (zh) 一种视觉特征的识别定位方法及系统
CN114088081B (zh) 一种基于多段联合优化的用于精确定位的地图构建方法
Vishal et al. Accurate localization by fusing images and GPS signals
CN115420276B (zh) 一种面向室外场景的多机器人协同定位与建图方法
CN115063550B (zh) 一种语义点云地图构建方法、系统及智能机器人
CN111340100B (zh) Bim模型的相似度计算方法
CN114187418A (zh) 回环检测方法、点云地图构建方法、电子设备及存储介质
Wu et al. An object slam framework for association, mapping, and high-level tasks
CN111709988A (zh) 一种物体的特征信息的确定方法、装置、电子设备及存储介质
CN115727854A (zh) 一种基于bim结构信息的vslam定位方法
CN113838129B (zh) 一种获得位姿信息的方法、装置以及系统
Ma et al. Semantic geometric fusion multi-object tracking and lidar odometry in dynamic environment
Sharma et al. Navigation in AR based on digital replicas
CN111815684A (zh) 一种基于统一残差模型的空间多元特征配准优化方法及装置
Yi et al. Map representation for robots
CN116698017B (zh) 面向室内大尺度复杂场景的物体级环境建模方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20190202

Address after: Room 501-1, Building 1, Yuntian Square, 30 Binhu Road, Wuqing Business District, Tianjin 301700

Patentee after: Maowao Technology (Tianjin) Co., Ltd.

Address before: No. 100, Chaoyang District flat Park, Beijing, Beijing

Patentee before: Beijing University of Technology

TR01 Transfer of patent right