CN114626539A - 一种分布式slam系统及其学习方法 - Google Patents
一种分布式slam系统及其学习方法 Download PDFInfo
- Publication number
- CN114626539A CN114626539A CN202011435113.6A CN202011435113A CN114626539A CN 114626539 A CN114626539 A CN 114626539A CN 202011435113 A CN202011435113 A CN 202011435113A CN 114626539 A CN114626539 A CN 114626539A
- Authority
- CN
- China
- Prior art keywords
- distributed
- map
- cloud
- robot
- local
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000001514 detection method Methods 0.000 claims abstract description 12
- 238000005457 optimization Methods 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims abstract description 5
- 238000012549 training Methods 0.000 claims abstract description 5
- 230000004913 activation Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 4
- 230000008447 perception Effects 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 238000010276 construction Methods 0.000 abstract description 6
- 230000005540 biological transmission Effects 0.000 abstract description 4
- 230000006872 improvement Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000002776 aggregation Effects 0.000 description 3
- 238000004220 aggregation Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Mathematical Physics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
Abstract
本发明涉及人工智能机器人技术领域,特别涉及一种分布式SLAM系统及其学习方法;本发明包括用于接收各个机器人的传感器数据,再提取特征,从而构建位姿图及再执行位姿图的优化和回环检测,再输出各场景的词袋数据和局部地图的分布式机器人组和用于接收所述分布式机器人传输的图像和局部地图的词袋后,训练一个动态字典,然后进行场景识别和匹配,再在云端将局部地图融合,并输出全局位姿图和全局地图的云工作站;本发明使用多个机器人和一个中央云服务器来实现,以完成构建未知环境的全局地图任务,在提高大规模场景下建图效率和鲁棒性的同时也保证了隐私和数据传输的实时性。
Description
技术领域
本发明涉及人工智能机器人技术领域,特别涉及一种分布式SLAM系统及其学习方法。
背景技术
人工智能时代正席卷而来,AI逐渐被人们认为是下一个“互联网”类颠覆行业的技术,应用场景包括智能医疗、智能金融、智能安防、智能家居、智能营销、智能驾驶、电商零售、个人助手、工业机器人、服务器机器人、可穿戴设备等。
人工智能关键技术主要有关键技术主要有机器学习、计算机视觉、语音及自然语言处理三大部分。而目前的研究主要进行人工智能的关键技术研究,并基于成果实现商业化构建。人工智能应用逐渐渗透到各领域。人工智能细分领域中,自然语言处理作为主要的感知技术,应用范围很广,可用于智能家居、穿戴设备、智能汽车、智能教育、智能金融等领域。
SLAM是同步定位与地图构建(Simultaneous Localization And Mapping)的缩写,最早由Hugh Durrant-Whyte和John J.Leonard提出,其问题可以描述为:将一个机器人放入未知环境中的未知位置,是否有办法让机器人一边移动一边逐步描绘出此环境完全的地图,所谓完全的地图(a consistent map)是指不受障碍行进到房间可进入的每个角落。
现有的技术通常是利用单一传感器或机器人设备进行建图,在大规模场景下,建一张地图的耗时很长,严重影响了SLAM系统的部署和实际应用价值。
发明内容
本发明主要解决的技术问题是提供一种分布式SLAM系统及其学习方法,使用多个机器人和一个中央云服务器来实现,以完成构建未知环境的全局地图任务,在提高大规模场景下建图效率和鲁棒性的同时也保证了隐私和数据传输的实时性;还提供了一种分布式SLAM学习方法。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种分布式SLAM系统,其中,包括:
分布式机器人组,其由若干个机器人组成,用于接收各个机器人的传感器数据,再提取特征,从而构建位姿图及再执行位姿图的优化和回环检测,再输出各场景的词袋数据和局部地图;
云工作站,其作为中央云服务器,接收所述分布式机器人传输的图像和局部地图的词袋后,训练一个动态字典,然后进行场景识别和匹配,再在云端将局部地图融合,并输出全局位姿图和全局地图。
作为本发明的一种改进,所述机器人采用激光雷达和/或单目摄像机进行感知。
作为本发明的进一步改进,所述分布式机器人组采用视觉图像提取特征。
作为本发明的更进一步改进,所述分布式机器人组使用点云来构建局部地图,所述云工作站利用位置匹配关系对局部地图进行合并。
一种分布式SLAM的学习方法,其中,包括如下步骤:
步骤S1、分布式机器人组接收各个机器人的传感器数据,从传感器数据中提取特征,构建位姿图;
步骤S2、对位姿图进行优化,构建局部地图,同时进行回环检测,再输出各场景的词袋数据和局部地图;
步骤S3、接收所述分布式机器人传输的图像和局部地图的词袋后,训练一个动态字典,然后进行场景识别和匹配,再在云端将局部地图融合;
步骤S4、在云端将参数加密,然后将加密参数更新传送至云端参数服务器;
步骤S5、云端参数服务器将参数更新解密再进行共享模型的更新,从而输出全局位姿图和全局地图。
作为本发明的一种改进,在步骤S1内,机器人通过激光扫描获取单帧扫描数据形成传感器数据。
作为本发明的进一步改进,在步骤S2内,通过累积扫描来构建局部地图。
作为本发明的更进一步改进,在步骤S2内,采用像素精确扫描匹配的方法生成扫描与局部地图的约束关系,再采用回环检测来消除局部地图产生的累积误差。
作为本发明的更进一步改进,分布式机器人组采用特征提取器来提取特征,特征提取器为由卷积层、池层和激活函数组成的编码器。
作为本发明的更进一步改进,云工作站根据分布式机器人组传输的实时数据来训练动态字典。
本发明的有益效果是:与现有技术相比,本发明使用多个机器人和一个中央云服务器来实现,以完成构建未知环境的全局地图任务,在提高大规模场景下建图效率和鲁棒性的同时也保证了隐私和数据传输的实时性。
附图说明
图1为本发明的分布式SLAM学习方法的步骤框图;
图2为本发明的分布式SLAM系统的总体架构图;
图3为本发明的分布式SLAM学习方法的流程框图;
图4为本发明的特征提取网络架构图;
图5为本发明的分布式SLAM学习方法的加密及共享流程图;
图6为本发明的动态字典算法的示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
基于激光的SLAM研究较早,到目前为止已经有很多成熟的方案,如依靠单线激光雷达实现的基于粒子滤波法的Gmapping,基于图优化法的Karto和多线激光雷达实现的LOAM和基于非线性优化的Cartographer等。
基于视觉的SLAM可以分为直接法和特征点法两个分支,直接法根据所有像素的灰度信息来计算相机运动并构建周围环境地图,近年来的研究有稀疏法PTAM,SVO,半稠密法LSD-SLAM和稠密法DTAM等。特征点法先从图像中提取特征并进行匹配,依据此匹配关系完成相机运动的估计和地图的构建,较为典型的工作有ORB-SLAM等。特征点法在无明显纹理(特征缺失)的情况下下效果很差,而直接法易受光照的影响,且计算量较大。
深度学习增强的语义SLAM已经取得了广泛的研究,一些研究致力于用深度神经网络搭建端到端的SLAM系统,如通过深度学习模型估计单目相机位姿进行估计等;另一些研究给SLAM系统添加语义信息,利用语义分割信息优化相机位姿的求解,建立语义地图等。
如图1至图6所示,本发明提供一种分布式SLAM系统,包括:
分布式机器人组,其由若干个机器人组成,用于接收各个机器人的传感器数据,再提取特征,从而构建位姿图及再执行位姿图的优化和回环检测,再输出各场景的词袋数据和局部地图;
云工作站,其作为中央云服务器,接收所述分布式机器人传输的图像和局部地图的词袋后,训练一个动态字典,然后进行场景识别和匹配,再在云端将局部地图融合,并输出全局位姿图和全局地图。
其中,机器人采用激光雷达和/或单目摄像机进行感知。
进一步,分布式机器人组采用视觉图像提取特征。
在本发明内,分布式机器人组使用点云来构建局部地图,所述云工作站利用位置匹配关系对局部地图进行合并。
具体地讲,如图2所示,本发明的分布式SLAM系统可分为分布式机器人组和云工作站两个模块;(1)分布式机器人组的前端负责接收传感器数据,提取特征,构建位姿图,其后端执行图优化和回环检测,然后输出各场景的词袋数据和局部地图;(2)在云工作站,接收到分布式机器人组的图像和局部地图的词袋后,训练一个动态字典,然后进行场景识别和匹配,最后,在云端将局部地图融合,并输出全局位姿图和全局地图。各个采用激光雷达和单目摄像机进行感知;分布式机器人组主要使用点云来构建局部地图,其采用视觉图像提取特征,匹配同一场景下的图像;最后,云工作站利用位置匹配关系对局部地图进行合并。
本发明的分布式SLAM系统采用Karto SLAM作为机器人地图构建的基本算法,首先通过激光扫描获取单帧扫描数据,然后通过累积扫描来构建局部地图,再采用像素精确扫描匹配的方法生成扫描与局部地图的约束关系,最后,采用回环检测来消除局部地图产生的累积误差。
如图3所示,本发明的分布式SLAM系统采用联邦学习架构,在机器人端维护私有模型和图像,而只向云工作站的云端参数服务器发送词袋数据;具体地说,在某一私有模型产生参数更新之后,通过加密算法将参数加密,然后将加密参数更新传送至云端参数服务器,服务其首先将参数更新解密,然后根据参数的个数判断是否需要聚合或是直接进行共享模型的更新。
如图1所示,本发明提供一种分布式SLAM的学习方法,包括如下步骤:
步骤S1、分布式机器人组接收各个机器人的传感器数据,从传感器数据中提取特征,构建位姿图;
步骤S2、对位姿图进行优化,构建局部地图,同时进行回环检测,再输出各场景的词袋数据和局部地图;
步骤S3、接收所述分布式机器人传输的图像和局部地图的词袋后,训练一个动态字典,然后进行场景识别和匹配,再在云端将局部地图融合;
步骤S4、在云端将参数加密,然后将加密参数更新传送至云端参数服务器;
步骤S5、云端参数服务器将参数更新解密再进行共享模型的更新,从而输出全局位姿图和全局地图。
其中,在步骤S1内,机器人通过激光扫描获取单帧扫描数据形成传感器数据。
在步骤S2内,通过累积扫描来构建局部地图,采用像素精确扫描匹配的方法生成扫描与局部地图的约束关系,再采用回环检测来消除局部地图产生的累积误差。
在本发明内,分布式机器人组采用特征提取器来提取特征,特征提取器为由卷积层、池层和激活函数组成的编码器;云工作站根据分布式机器人组传输的实时数据来训练动态字典。
具体地讲,本发明基于联邦学习架构,在机器人端维护私有模型和图像,而只向云工作站的云端参数服务器发送词袋数据,如图5所示,在某一私有模型产生参数更新之后,通过加密算法将参数加密,然后将加密参数更新传送至云端参数服务器,服务器首先将参数更新解密,然后根据参数的个数判断是否需要聚合或是直接进行共享模型的更新,其包括云端参数服务器融合方法、私人模型参数更新算法、共享模型参数更新方法,具体如下:
1、云端参数服务器融合算法:
公式1:
公式2:
其中,fj为节点j处的模型的损失函数,Pj为节点j处的数据,P=|Pj为所有数据的并集,||表示数据的大小,Wj为节点j处的模型参数,W为参数服务器处的模型参数。
2、私人模型参数更新算法:
公式3:
其中,α为学习率,为节点j处在接收全局更新之后的参数,若未发生全局更新则t表示当前时刻,t-1表示上一时刻,为梯度符号,值得注意的是,此处不止局限于梯度下降法,由于通信瓶颈问题的存在,这里会采取更加有效的迭代算法,如牛顿法,基于动量的方法等。
3、共享模型参数更新算法:
公式4:
公式5:
本发明的特征提取器的结构采用了类似于VGG的架构,如图4所示,该网络共享一个由卷积层、池层和激活函数组成的编码器,然后分成两个网络分别提取特征点和描述符;由于计算原因,特征点提取网络没有采用经典的编解码结构,而是采用亚像素卷积方法实现上采样;特征提取网络输出与原始图像大小相同的概率图,提取描述符后,为了与0RB描述符具有相同的格式,便于单词包的计算,通过添加二进制激活层,将描述符转换为二进制格式。
如图6所示,使用DBoW实现的闭环基本方法进行场景匹配,通过计算场景的词袋模型,构建词典并计算位置之间的相似度,字典可以表示为词的集合,在第k时刻观察到的场景表示为Zk={z1,z2...zi...zN},其中zi表示第i个词的词频(TF)和反文档频率(IDF)的乘积,x点和y点之间的相似性可以描述为公式6:
其中,字典方法的性能可能会受到训练图像(例如室内和室外)的数量和环境来源的影响,这导致场景识别和匹配的不稳定;与传统方法相反,充分利用了云工作站的计算资源,并在云端维护了一个动态字典,因此,通过分布式机器人组传输的实时数据来训练字典,以在不同环境中更新字典,为了确保对数搜索效率,使用k-means树方法构建词汇表,动态字典算法的具体流程如图6所示。
如图5所示,在某一私人模型产生参数更新之后,通过加密算法将参数加密,然后将加密参数更新传送至云端参数服务器,服务其首先将参数更新解密,然后根据参数的个数判断是否需要聚合或是直接进行共享模型的更新;同时,设置一陈旧度阈值S,当某一私人模型的更新次数超过平均水平S次时,则暂停该私人模型的更新,该步骤的目的是防止某一私人模型更新过于频繁而使得共享模型更新的质量下降。
本发明具备如下优点:
(1)由于多机参与建图,建图效率显著提高;
(2)无需上传用户原始数据,并且采取参数加密策略,有效保证了用户隐私;
(3)保证了数据传输的实时性;
(4)提高了云端场景匹配的准确性。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种分布式SLAM系统,其特征在于,包括:
分布式机器人组,其由若干个机器人组成,用于接收各个机器人的传感器数据,再提取特征,从而构建位姿图及再执行位姿图的优化和回环检测,再输出各场景的词袋数据和局部地图;
云工作站,其作为中央云服务器,接收所述分布式机器人传输的图像和局部地图的词袋后,训练一个动态字典,然后进行场景识别和匹配,再在云端将局部地图融合,并输出全局位姿图和全局地图。
2.根据权利要求1所述的一种分布式SLAM系统,其特征在于,所述机器人采用激光雷达和/或单目摄像机进行感知。
3.根据权利要求2所述的一种分布式SLAM系统,其特征在于,所述分布式机器人组采用视觉图像提取特征。
4.根据权利要求3所述的一种分布式SLAM系统,其特征在于,所述分布式机器人组使用点云来构建局部地图,所述云工作站利用位置匹配关系对局部地图进行合并。
5.一种分布式SLAM的学习方法,其特征在于,包括如下步骤:
步骤S1、分布式机器人组接收各个机器人的传感器数据,从传感器数据中提取特征,构建位姿图;
步骤S2、对位姿图进行优化,构建局部地图,同时进行回环检测,再输出各场景的词袋数据和局部地图;
步骤S3、接收所述分布式机器人传输的图像和局部地图的词袋后,训练一个动态字典,然后进行场景识别和匹配,再在云端将局部地图融合;
步骤S4、在云端将参数加密,然后将加密参数更新传送至云端参数服务器;
步骤S5、云端参数服务器将参数更新解密再进行共享模型的更新,从而输出全局位姿图和全局地图。
6.根据权利要求5所述的一种分布式SLAM的学习方法,其特征在于,在步骤S1内,机器人通过激光扫描获取单帧扫描数据形成传感器数据。
7.根据权利要求6所述的一种分布式SLAM的学习方法,其特征在于,在步骤S2内,通过累积扫描来构建局部地图。
8.根据权利要求7所述的一种分布式SLAM的学习方法,其特征在于,在步骤S2内,采用像素精确扫描匹配的方法生成扫描与局部地图的约束关系,再采用回环检测来消除局部地图产生的累积误差。
9.根据权利要求6所述的一种分布式SLAM的学习方法,其特征在于,分布式机器人组采用特征提取器来提取特征,特征提取器为由卷积层、池层和激活函数组成的编码器。
10.根据权利要求6所述的一种分布式SLAM的学习方法,其特征在于,云工作站根据分布式机器人组传输的实时数据来训练动态字典。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011435113.6A CN114626539A (zh) | 2020-12-10 | 2020-12-10 | 一种分布式slam系统及其学习方法 |
PCT/CN2020/139640 WO2022120997A1 (zh) | 2020-12-10 | 2020-12-25 | 一种分布式slam系统及其学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011435113.6A CN114626539A (zh) | 2020-12-10 | 2020-12-10 | 一种分布式slam系统及其学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114626539A true CN114626539A (zh) | 2022-06-14 |
Family
ID=81895199
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011435113.6A Pending CN114626539A (zh) | 2020-12-10 | 2020-12-10 | 一种分布式slam系统及其学习方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114626539A (zh) |
WO (1) | WO2022120997A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116030213A (zh) * | 2023-03-30 | 2023-04-28 | 千巡科技(深圳)有限公司 | 一种多机云边协同地图创建与动态数字孪生方法及系统 |
CN117213470A (zh) * | 2023-11-07 | 2023-12-12 | 武汉大学 | 一种多机碎片地图聚合更新方法及系统 |
CN117723048A (zh) * | 2023-12-18 | 2024-03-19 | 哈尔滨工业大学 | 一种通信受限下的多机器人压缩通信协同建图方法及系统 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115187667B (zh) * | 2022-09-08 | 2022-12-20 | 中国科学院合肥物质科学研究院 | 一种基于认知理解的大场景精准定位方法及系统 |
CN115965673B (zh) * | 2022-11-23 | 2023-09-12 | 中国建筑一局(集团)有限公司 | 基于双目视觉的集中式多机器人定位方法 |
CN116405880B (zh) * | 2023-05-31 | 2023-09-12 | 湖北国际贸易集团有限公司 | 一种基于联邦学习的无线电地图构建方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109491383A (zh) * | 2018-11-06 | 2019-03-19 | 上海应用技术大学 | 多机器人定位与建图系统及方法 |
CN109559277B (zh) * | 2018-11-28 | 2023-02-28 | 中国人民解放军国防科技大学 | 一种面向数据共享的多无人机协同地图构建方法 |
CN111131771B (zh) * | 2019-12-12 | 2021-08-13 | 中国科学院深圳先进技术研究院 | 一种视频监控系统 |
CN111292722B (zh) * | 2019-12-13 | 2023-08-15 | 中国科学院深圳先进技术研究院 | 异步联合架构的模型训练方法、终端、服务器及存储装置 |
-
2020
- 2020-12-10 CN CN202011435113.6A patent/CN114626539A/zh active Pending
- 2020-12-25 WO PCT/CN2020/139640 patent/WO2022120997A1/zh active Application Filing
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116030213A (zh) * | 2023-03-30 | 2023-04-28 | 千巡科技(深圳)有限公司 | 一种多机云边协同地图创建与动态数字孪生方法及系统 |
CN117213470A (zh) * | 2023-11-07 | 2023-12-12 | 武汉大学 | 一种多机碎片地图聚合更新方法及系统 |
CN117213470B (zh) * | 2023-11-07 | 2024-01-23 | 武汉大学 | 一种多机碎片地图聚合更新方法及系统 |
CN117723048A (zh) * | 2023-12-18 | 2024-03-19 | 哈尔滨工业大学 | 一种通信受限下的多机器人压缩通信协同建图方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2022120997A1 (zh) | 2022-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112132893B (zh) | 一种适用于室内动态环境的视觉slam方法 | |
CN114626539A (zh) | 一种分布式slam系统及其学习方法 | |
Ahmed et al. | Region and decision tree-based segmentations for Multi-objects detection and classification in Outdoor Scenes | |
CN108229479B (zh) | 语义分割模型的训练方法和装置、电子设备、存储介质 | |
CN110363816B (zh) | 一种基于深度学习的移动机器人环境语义建图方法 | |
CN114862949B (zh) | 一种基于点线面特征的结构化场景视觉slam方法 | |
CN111985343A (zh) | 一种行为识别深度网络模型的构建方法及行为识别方法 | |
CN112132197A (zh) | 模型训练、图像处理方法、装置、计算机设备和存储介质 | |
US11495055B1 (en) | Pedestrian trajectory prediction method and system based on multi-interaction spatiotemporal graph network | |
JP2019149142A (ja) | 対象物標識のためのシステムおよび方法 | |
CN110334607B (zh) | 一种视频人体交互行为识别方法及系统 | |
CN111998862B (zh) | 一种基于bnn的稠密双目slam方法 | |
CN113361710B (zh) | 学生模型训练方法、图片处理方法、装置及电子设备 | |
CN112446882A (zh) | 一种动态场景下基于深度学习的鲁棒视觉slam方法 | |
Maalej et al. | Vanets meet autonomous vehicles: A multimodal 3d environment learning approach | |
CN108009549B (zh) | 一种迭代协同显著性检测方法 | |
Pire et al. | Real-time dense map fusion for stereo SLAM | |
CN115311538A (zh) | 一种基于场景先验的智能体目标搜索的方法 | |
CN111611869B (zh) | 一种基于串行深度神经网络的端到端单目视觉避障方法 | |
CN110390724B (zh) | 一种带有实例分割的slam方法 | |
CN108921852B (zh) | 基于视差与平面拟合的双分支室外非结构化地形分割网络 | |
CN113255514B (zh) | 基于局部场景感知图卷积网络的行为识别方法 | |
Ge et al. | An improved U-net architecture for image dehazing | |
CN112308893B (zh) | 一种基于迭代搜索策略的单目深度估计方法 | |
CN113537359A (zh) | 训练数据的生成方法及装置、计算机可读介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |