CN110909637A - 一种基于视触融合的室外移动机器人地形识别方法 - Google Patents
一种基于视触融合的室外移动机器人地形识别方法 Download PDFInfo
- Publication number
- CN110909637A CN110909637A CN201911088893.9A CN201911088893A CN110909637A CN 110909637 A CN110909637 A CN 110909637A CN 201911088893 A CN201911088893 A CN 201911088893A CN 110909637 A CN110909637 A CN 110909637A
- Authority
- CN
- China
- Prior art keywords
- visual
- feature
- width learning
- matrix
- tactile
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提出的一种基于视触融合的室外移动机器人地形识别方法,首先根据不同路面材质选择地形种类;针对不同地形采集触觉和视觉两种模态数据,并划分训练集和测试集;构建级联宽度学习网络并使用触觉训练样本集和视觉训练样本集对该网络进行训练,训练过程中,先进行触觉和视觉初步特征提取,再进行触觉和视觉融合特征提取,随后将融合后的触觉特征矩阵和视觉特征矩阵经宽度学习分类算法,通过岭回归的广义逆近似求得地形识别分类结果作为级联宽度学习网络的输出;最后将测试集输入训练完毕的级联宽度学习网络中,得到地形识别的分类结果。本发明基于宽度学习,将视触觉信息相融合,可实现小数据下的移动机器人地形识别,且鲁棒性和准确性高。
Description
技术领域
本发明涉及机器人环境感知技术领域,具体是涉及一种基于视触融合的室外移动机器 人地形识别方法。
背景技术
随着机器人技术的快速发展,室外移动机器人在灾害救援、野外搜寻以及星际探索等 任务中均有重要应用。在与环境交互过程中,地形几何特征对机器人的移动性能具有较大 的影响,机器人需要针对不同的地形特征采取不同的移动模式。其中,在平坦、坚硬且摩 擦力大的路面可以用相对较高的速度移动,而松软,泥泞的路面有可能给机器人带来危险。 因此,室外移动机器人必须具备快速、有效的地形识别能力。不同地形的正确分类可以在 很大程度上提高移动机器人在错综复杂的野外自然环境中的自主导航及避障能力,具有很 大的研究价值和意义。
室外移动机器人在感知外界环境的过程中主要依靠视觉信息完成地形特征的分类识 别。作为最接近人类的环境感知方式,视觉可以提供丰富的地形信息,成为了当前机器人 感知的重要输入。然而,丰富的视觉信息增加了分类难度。阴影、光线和抖动等外界因素 都会影响地形的视觉表现,给视觉地形分类带来了挑战。对于上述外界因素,人脑会本能 的将同一物体的不同模态感知特征进行融合,从而达到对物体正确分类的目的。移动机器 人运动过程中与不同类型地面相互作用,触觉传感器会产生有差异的振动信号,因此,可 以使用与视觉信息互补的触觉信息来进行地形识别。
目前在关于地形识别算法的研究中,深层神经网络由于其多层次多角度通过反向传播 算法自动从复杂数据中提取特征,能出色地完成地形识别任务。然而,大量的超参数和复 杂的结构使得深层神经网络经历一个耗时的训练过程。为了达到满意的精度,深层神经网 络结构需要不断增加隐含层数或调整网络参数,这给深度学习的训练带来了进一步的困难。
一个具有多模式感知系统的室外移动机器人能够收集大量的传感器信息,这为机器人 地形的正确识别奠定了基础。但是,处理大量的信息,降低了它的反应速度。并且在实际 应用中,由于外界条件传感器收集的数据量有限,无法为深度学习算法提供足够的数据进 行学习训练。如何在充分利用传感器信息资源的基础上提高机器人反应速度成为机器人研 究的一个热点。
2017年陈俊龙教授等人提出了宽度学习(Broad learning,BRL)算法,该算法作为深度 学习的替代方法以其强大的数学理论支撑、简洁的平层网络结构、快速的增量建模过程等 优点,成功地应用于图像识别、分类和回归以及数据建模等领域。目前,还未见宽度学习 算法在机器人地形识别领域中的应用。
发明内容
本发明的目的是为了克服已有技术的不足之处,提出了一种基于视触融合的室外移动 机器人地形识别方法,本发明是在宽度学习的基础上提出的地形识别方法,该方法可以很 好地融合视觉和触觉数据,避免了耗时的训练过程,且在小样本数据情况下完成地形识别 任务,提高了地形识别的鲁棒性和准确性。
为实现上述目的,本发明采用如下技术方案予以实现。
本发明提出的一种基于视触融合的室外移动机器人地形识别方法,其特征在于,包括 以下步骤:
本发明提出的一种基于视触融合的室外移动机器人地形识别方法,其特征在于,包括 以下步骤:
1)地形种类选择
根据路面材质选取生活中常见的若干类经典室外地形;
2)构建地形数据库,包括触觉和视觉两种模态数据
2-1)触觉和视觉数据采集
控制移动机器人以不同的速度、光照条件在步骤1)选取的各类地形上行驶,通过移 动机器人上搭载的三轴加速度计采集各种场景下的三维振动信号作为触觉数据;同时,通 过移动机器人上搭载的摄像机采集与各触觉数据相同场景下的图像作为相应的各视觉数 据;
2-2)对采集的各触觉数据和视觉数据进行预处理
2-2-1)触觉数据预处理
对步骤2-1)采集的各种场景下的三维振动信号依次进行分段、数据增强和滤波处理; 通过快速傅里叶变换将滤波后的各三维振动信号分别组合成一维振动信号;利用短时傅里 叶变换,将各一维振动信号转换到频域,得到对应的加速频谱图像,对该频谱图像进行降 采样,统一各频谱图像的大小;
2-2-2)视觉数据预处理
对步骤2-1)采集的各图像分别进行降采样,降采样后的各图像与步骤2-2-1)降采样 后的频谱图像大小相同;
2-3)将上述预处理后的所有触觉数据和视觉数据共同构成地形数据库,每一触觉数据 分别与一视觉数据相对应;选择地形数据库中70~80%的触觉数据和视觉数据分别作为触 觉训练样本集和视觉训练样本集,剩余的触觉数据和视觉数据分别作为触觉测试样本集和 视觉测试样本集;
3)构建级联宽度学习网络并使用触觉训练样本集和视觉训练样本集对该级联宽度学 习网络进行训练
3-1)构建级联宽度学习网络
所述级联宽度学习网络包括两个并列的级联宽度学习子网络,分别用于触觉特征和视 觉特征的提取;各级联宽度学习子网络均分别由m组特征节点和M组增强节点组成,前一组特征节点的输出作为下一组特征节点的输入,第m组特征节点作为各组增强节点的输入;
3-2)使用触觉训练样本集和视觉训练样本集对上述级联宽度学习网络进行训练
3-2-1)触觉和视觉初步特征提取
令用于触觉特征提取的第一级联宽度学习子网络中第i组触觉特征节点Fci的表达式为:
式中,G是线性激活函数;Wcfi和βcfi分别为第一级联宽度学习子网络中生成第i组触觉 特征节点的权重和偏置;为通过步骤2-3)得到的输入第一级联宽度学习子网络的触觉训 练样本集,该触觉训练样本集中共含有N个触觉训练样本, i=1,2,…,m;
令用于触觉特征提取的第一级联宽度学习子网络中第j组触觉增强节点Ecj的表达式为:
式中,ξ是非线性激活函数;Wcej和βcej分别为第一级联宽度学习子网络中生成第j组触觉 增强节点的权重和偏置,j=1,2,…,M;
记触觉初步特征矩阵Hc内第g个向量为eg,则Hc={e1,e2,…,eg,…,eN},g=1,2,…,N;
令用于视觉特征提取的第二级联宽度学习子网络中第i组视觉特征节点Fsi的表达式为:
式中,G是线性激活函数;Wsfi和βsfi分别为第二级联宽度学习子网络中生成第i组视觉 特征节点的权重和偏置;为输入第二级联宽度学习子网络的视觉训练样本集,该视觉训练样本集中共含有N个视觉训练样本,i=1,2,…,m;
令用于视觉特征提取的第二级联宽度学习子网络中第j组视觉增强节点Esj的表达式为:
式中,ξ是非线性激活函数;Wsej和βsej分别为第二级联宽度学习子网络中生成第j组视觉 增强节点的权重和偏置,j=1,2,…,M;
记视觉初步特征矩阵Hs内第h个向量为fh,则Hs={f1,f2,…,fh,…,fN},h=1,2,…,N;
3-2-2)触觉和视觉融合特征提取
使用核典型相关分析算法,最大化上述触觉初步特征矩阵Hc和视觉初步特征矩阵Hs之 间的相关性,实现融合特征降维,确定两个N维向量α和β,使得两种模态样本的线性组合 和的相系数最大,得到融合后的触觉特征矩阵U和视觉特征 矩阵V;其中,和是分别将触觉初步特征矩阵Hc和视觉初步特征矩阵Hs映 射到非线性特征空间得到;
3-2-3)融合后的触觉特征矩阵U和视觉特征矩阵V经宽度学习分类算法,通过岭回归的广义逆近似求得地形识别分类结果Y作为级联宽度学习网络的输出,级联宽度学习网络训练完毕;其中,所述地形识别分类结果Y的表达式如下:
4)将触觉测试样本集和视觉测试样本集输入通过步骤3)得到训练完毕的级联宽度学 习网络中,得到地形识别的分类结果。
进一步地,步骤3-2-2)触觉和视觉融合特征提取的具体实现过程如下:
3-2-2-2)设映射后的样本矩阵均值为零,将向量α和β的求解过程转化为以下约束优化 问题:
maxρ(U,V)=αT∑HcHsβ
式中,∑HcHs表示触觉初步特征矩阵Hc和视觉初步特征矩阵Hs的互协方差矩阵;
则令核典型相关分析算法的目标函数为:
将核典型相关分析算法的目标函数改写为:
设约束条件为:
引入拉格朗日乘子,利用上述约束条件和改写后的核典型相关分析算法目标函数,得 到以下特征问题:
本发明提供的一种基于视触融合的室外移动机器人地形识别方法,相比于现有技术, 具有以下有益效果:
1)针对室外复杂的非结构化地形,移动机器人有时无法仅仅依靠视觉信息完成地形 识别任务,视触融合的方法充分地利用多种模态信息,在空间和时间上将互补与冗余信息 依据某种优化准则组合起来,形成视触觉信息的优势互补,来提高室外移动机器人地形识 别的准确率。
2)本发明基于级联宽度学习提出了一种视触融合识别算法,该方法将视触觉特征融 合起来,实现了特征维数的融合约简,并利用宽度学习分类器获得了地形识别结果,为室 外移动机器人地形识别任务提供了一个高效的宽度结构,本发明方法具有良好的分类性能 和泛化性能。
3)宽度学习以其强大的数学理论支撑、简单的平层网络结构、快速的增量建模过程 等优点,成功地应用于各种分类和回归任务中。为解决机器人处理视触觉信息反应速度变 慢的问题,并且考虑到实际应用中传感器采集到的数据量有限,本发明针对小样本数据将 宽度学习应用到机器人地形识别领域,充分利用采集的现有数据,在降低模型训练时间、 节约成本的基础上对视触觉信息进行融合学习。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行 进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限 定本发明的保护范围。
为了更好地理解本发明,以下详细阐述一个本发明一种基于视触融合的室外移动机器 人地形识别方法的应用实例。
本发明提出的一种基于视触融合的室外移动机器人地形识别方法,包括以下步骤:
1)地形种类选择
根据路面材质(road surface materia,RSM)选取生活中常见的若干类经典室外地形, 本实施例中共涉及六类经典室外地形,分别是沥青(Asphalt)、草地(Grass)、马赛克路(Mosaic road)、木板(Wood)、泥土(Dirt)以及塑胶跑道(Plastic track),其中,泥土是经长期碾压的紧 实泥土,马赛克路是岩石材质组成的方格路面。
2)构建地形数据库,包括触觉和视觉两种模态数据;具体步骤如下:
2-1)触觉和视觉数据采集
控制移动机机器人以不同的速度、光照条件在步骤1)选取的各类地形上直线行驶, 通过移动机器人上搭载的三轴加速度计采集各种场景下的三维振动信号作为触觉数据;同 时,通过移动机器人上搭载的摄像机采集与各触觉数据相同场景下的图像作为相应的各视 觉数据;
本实施例采用型号为Autolabor Pro1(AP1)的机器人移动底盘,其在室内外均可实现 流畅作业,且适用于全地形,尺寸726mm×617mm×273mm,负载能力50kg。AP1共具 有四种速度档位,分别是最高速的25%,50%,75%和100%,最高速度是0.8m/s。在移 动机器人车身一侧,平行且靠近地面的位置配备一个AKF392B三轴向加速度计,它提供 的输出速率范围为5HZ-1000HZ,共有8种选择,偏差典型值小于0.1%,具有输出稳定, 环境性能好等优点。加速度计采样频率选择100HZ和200HZ采集不同地形的三维振动信 号。本实施例中控制AP1机器人以不同的速度在六种地形上直线行驶,移动机器人在每种 地形上分别行驶了20分钟,在四种车速和两种采样频率总计八种场景下采集了16万个数 据点。
本实施例的视觉数据是使用AP1机器人上搭载的摄像机进行图像采集得到,获取的视 觉数据主要用于后续通过视觉特征对地形进行分类。现实生活中除了道路常见的颜色,如 黑色的沥青、绿色的草地以及红色的塑胶跑道等,还有许多混杂的颜色,如沥青具有白色 的斑马线以及黄色和蓝色的漆线、蓝色的塑胶跑道等。很多地形中还掺杂其他种类地形, 如草地稀疏的部分有泥土、木板上有树叶、泥土上有杂草和岩石等凸起。除了颜色和地形 的交叉,不同的天气和光照条件也会影响采集图像的色彩,因此在采集视觉数据时考虑了 晴天、遮荫、傍晚光线弱以及晚上有灯光等光照条件,每类地型采集50张图像,全地形共计300张图像。
2-2)对采集的各触觉数据和视觉数据进行预处理,具体步骤如下:
2-2-1)触觉数据预处理
为了保证数据的稳定,将移动机器人启动以及转弯等时候采集的三维振动信号去掉, 保留了9.6万个数据点,将其分割成段(本实施例每种场景含有30段三维振动信号),每种车速和采样频率设置有1.2万个数据点,然后进行数据增强,在一种车速和采样频率下,每类地形的触觉数据增强为50段三维振动信号(即每类地形的各段三维振动信号分别与步骤2-1)采集的一张图像相对应),全部地形共计300段三维振动信号。其后通过截止频 率为10HZ的高通滤波器去除数据增强后各三维振动信号中因重力和加速度计漂移产生的 干扰噪声;利用快速傅里叶变换(DFT321)算法将滤波后的三维振动信号组合成一维振动 信号;通过上述处理保留了三轴分量的时频和光谱特性,并且合成前后信号的总功率保持 不变,减少了特征计算的工作量。随后,利用短时傅里叶变换的方法,将上述一维振动信 号转换到频域,短时傅里叶变换中的汉明窗的窗口长度是128,窗口偏移量是64,采样频 率为100HZ,得到加速的频谱图像,对该频谱图像进行降采样,得到大小为32*32*3的频 谱图像。
2-2-2)视觉数据预处理
对步骤2-1)得到的各视觉数据分别进行降采样,降采样后每张图像的大小均为32*32*3,用于避免因每幅图像特征太多对系统造成的噪声和冗余。
2-3)将上述预处理后的所有触觉数据和视觉数据共同构成地形数据库,每一触觉数据 分别与一视觉数据相对应;选择地形数据库中70~80%的触觉数据和视觉数据分别作为触 觉训练样本集和视觉训练样本集,剩余的触觉数据和视觉数据分别作为触觉测试样本集和 视觉测试样本集。
本实施例中把经过预处理的300个触觉样本和300个图像分别按4:1的比例随机划分 成240个触觉训练样本和240个视觉训练样本以及60个触觉测试样本和60个视觉测试样本。
3)构建级联宽度学习网络并使用触觉训练样本集和视觉训练样本集对该级联宽度学 习网络进行训练,具体包括:
3-1)构建级联宽度学习网络
所述级联宽度学习网络包括两个并列的级联宽度学习子网络,分别用于触觉特征和视 觉特征的提取;各级联宽度学习子网络均分别由m组特征节点和M组增强节点组成,其中,前一组特征节点的输出作为下一组特征节点的输入,第m组特征节点作为各组增强节点的输入。
3-2)使用触觉训练样本集和视觉训练样本集对上述级联宽度学习网络进行训练
3-2-1)触觉和视觉初步特征提取,包括以下步骤:
令用于触觉特征提取的第一级联宽度学习子网络中第i组触觉特征节点Fci的表达式为:
式中,G是线性激活函数;Gi中的上标i表示进行了i次线性激活处理;Wcfi和βcfi分别为 第一级联宽度学习子网络中生成第i组触觉特征节点的权重和偏置;为通过步骤2-3)得 到的输入第一级联宽度学习子网络的触觉训练样本集,该触觉训练样 本集中共含有N=240个触觉训练样本;i=1,2,…,m。
令用于触觉特征提取的第一级联宽度学习子网络中第j组触觉增强节点Ecj的表达式为:
式中,ξ是非线性激活函数,本实施例使用Sigmoid函数(此外,常见的非线性激活函数还 包括tanh函数,Relu函数和Leaky Relu函数等);Wcej和βcej分别为第一级联宽度学习子 网络中生成第j组触觉增强节点的权重和偏置;j=1,2,…,M。
记触觉初步特征矩阵Hc内第g个向量为eg,则Hc={e1,e2,…,eg,…,eN},g=1,2,…,N。
同样地,令用于视觉特征提取的第二级联宽度学习子网络中第i组视觉特征节点Fsi的 表达式为:
式中,G是线性激活函数;Gi中的上标i表示进行了i次线性激活处理;Wsfi和βsfi分别为第二级联宽度学习子网络中生成第i组视觉特征节点的权重和偏置;为输入第二级联宽度学习子网络的视觉训练样本集,该视觉训练样本集中共含有 N=240个视觉训练样本;i=1,2,…,m。
令用于视觉特征提取的第二级联宽度学习子网络中第j组视觉增强节点Esj的表达式为:
式中,ξ是非线性激活函数,本实施例使用Sigmoid函数(此外,常见的非线性激活函数还 包括tanh函数,Relu函数和Leaky Relu函数等);Wsej和βsej分别为第二级联宽度学习子 网络中生成第j组视觉增强节点的权重和偏置;j=1,2,…,M。
记视觉初步特征矩阵Hs内第h个向量为fh,则Hs={f1,f2,…,fh,…,fN},h=1,2,…,N。
3-2-2)触觉和视觉融合特征提取
使用核典型相关分析算法(Kernel Canonical Correlation Analysis,KCCA),最大化上 述触觉初步特征矩阵Hc和视觉初步特征矩阵Hs之间的相关性,实现融合特征降维,确定两 个N维向量α和β,使得两种模态样本的线性组合和的相系数 最大,得到融合后的触觉特征矩阵U和视觉特征矩阵V;其中,和是分别 将触觉初步特征矩阵Hc和视觉初步特征矩阵Hs映射到非线性特征空间得到。具体实现过程 如下:
3-2-2-2)为使数学表达简便,设映射后的样本矩阵均值为零,则需求解两个N维向量 α=[α1,α2,…,αN]T和β=[β1,β2,…,βN]T,使得两种模态样本的线性组合和 的相系数ρ最大。将向量α和β的求解过程转化为以下约束优化问题:
maxρ(U,V)=αT∑HcHsβ (12)
式中,∑HcHs表示触觉初步特征矩阵Hc和视觉初步特征矩阵Hs的互协方差矩阵。
则令KCCA的目标函数为:
将目标函数(13)改写为:
设约束条件为:
引入拉格朗日乘子,利用公式(15)和(16),得到以下特征问题:
3-2-3)融合后的触觉特征矩阵和视觉特征矩阵经宽度学习(Broad Learning,BRL)分 类算法,通过岭回归的广义逆近似求得地形识别分类结果Y作为级联宽度学习网络的输出, 级联宽度学习网络训练完毕;地形识别分类结果Y的表达式如下:
4)将触觉测试样本集和视觉测试样本集输入通过步骤3)得到训练完毕的级联宽度学 习网络中,得到地形识别的分类结果。
Claims (3)
1.一种基于视触融合的室外移动机器人地形识别方法,其特征在于,包括以下步骤:
1)地形种类选择
根据路面材质选取生活中常见的若干类经典室外地形;
2)构建地形数据库,包括触觉和视觉两种模态数据
2-1)触觉和视觉数据采集
控制移动机器人以不同的速度、光照条件在步骤1)选取的各类地形上行驶,通过移动机器人上搭载的三轴加速度计采集各种场景下的三维振动信号作为触觉数据;同时,通过移动机器人上搭载的摄像机采集与各触觉数据相同场景下的图像作为相应的各视觉数据;
2-2)对采集的各触觉数据和视觉数据进行预处理
2-2-1)触觉数据预处理
对步骤2-1)采集的各种场景下的三维振动信号依次进行分段、数据增强和滤波处理;通过快速傅里叶变换将滤波后的各三维振动信号分别组合成一维振动信号;利用短时傅里叶变换,将各一维振动信号转换到频域,得到对应的加速频谱图像,对该频谱图像进行降采样,统一各频谱图像的大小;
2-2-2)视觉数据预处理
对步骤2-1)采集的各图像分别进行降采样,降采样后的各图像与步骤2-2-1)降采样后的频谱图像大小相同;
2-3)将上述预处理后的所有触觉数据和视觉数据共同构成地形数据库,每一触觉数据分别与一视觉数据相对应;选择地形数据库中70~80%的触觉数据和视觉数据分别作为触觉训练样本集和视觉训练样本集,剩余的触觉数据和视觉数据分别作为触觉测试样本集和视觉测试样本集;
3)构建级联宽度学习网络并使用触觉训练样本集和视觉训练样本集对该级联宽度学习网络进行训练
3-1)构建级联宽度学习网络
所述级联宽度学习网络包括两个并列的级联宽度学习子网络,分别用于触觉特征和视觉特征的提取;各级联宽度学习子网络均分别由m组特征节点和M组增强节点组成,前一组特征节点的输出作为下一组特征节点的输入,第m组特征节点作为各组增强节点的输入;
3-2)使用触觉训练样本集和视觉训练样本集对上述级联宽度学习网络进行训练
3-2-1)触觉和视觉初步特征提取
令用于触觉特征提取的第一级联宽度学习子网络中第i组触觉特征节点Fci的表达式为:
式中,G是线性激活函数;Wcfi和βcfi分别为第一级联宽度学习子网络中生成第i组触觉特征节点的权重和偏置;为通过步骤2-3)得到的输入第一级联宽度学习子网络的触觉训练样本集,该触觉训练样本集中共含有N个触觉训练样本,i=1,2,…,m;
令用于触觉特征提取的第一级联宽度学习子网络中第j组触觉增强节点Ecj的表达式为:
式中,ξ是非线性激活函数;Wcej和βcej分别为第一级联宽度学习子网络中生成第j组触觉增强节点的权重和偏置,j=1,2,…,M;
记触觉初步特征矩阵Hc内第g个向量为eg,则Hc={e1,e2,…,eg,…,eN},g=1,2,…,N;
令用于视觉特征提取的第二级联宽度学习子网络中第i组视觉特征节点Fsi的表达式为:
式中,G是线性激活函数;Wsfi和βsfi分别为第二级联宽度学习子网络中生成第i组视觉特征节点的权重和偏置;为输入第二级联宽度学习子网络的视觉训练样本集,该视觉训练样本集中共含有N个视觉训练样本,i=1,2,…,m;
令用于视觉特征提取的第二级联宽度学习子网络中第j组视觉增强节点Esj的表达式为:
式中,ξ是非线性激活函数;Wsej和βsej分别为第二级联宽度学习子网络中生成第j组视觉增强节点的权重和偏置,j=1,2,…,M;
记视觉初步特征矩阵Hs内第h个向量为fh,则Hs={f1,f2,…,fh,…,fN},h=1,2,…,N;
3-2-2)触觉和视觉融合特征提取
使用核典型相关分析算法,最大化上述触觉初步特征矩阵Hc和视觉初步特征矩阵Hs之间的相关性,实现融合特征降维,确定两个N维向量α和β,使得两种模态样本的线性组合和的相系数最大,得到融合后的触觉特征矩阵U和视觉特征矩阵V;其中,和是分别将触觉初步特征矩阵Hc和视觉初步特征矩阵Hs映射到非线性特征空间得到;
3-2-3)融合后的触觉特征矩阵U和视觉特征矩阵V经宽度学习分类算法,通过岭回归的广义逆近似求得地形识别分类结果Y作为级联宽度学习网络的输出,级联宽度学习网络训练完毕;其中,所述地形识别分类结果Y的表达式如下:
4)将触觉测试样本集和视觉测试样本集输入通过步骤3)得到训练完毕的级联宽度学习网络中,得到地形识别的分类结果。
2.根据权利要求1所述的室外移动机器人地形识别方法,其特征在于,步骤1)中选取的室外地形种类包括沥青、草地、马赛克路、木板、泥土以及塑胶跑道。
3.根据权利要求1所述的室外移动机器人地形识别方法,其特征在于,步骤3-2-2)触觉和视觉融合特征提取的具体实现过程如下:
3-2-2-2)设映射后的样本矩阵均值为零,将向量α和β的求解过程转化为以下约束优化问题:
maxρ(U,V)=αT∑HcHsβ
式中,∑HcHs表示触觉初步特征矩阵Hc和视觉初步特征矩阵Hs的互协方差矩阵;
则令核典型相关分析算法的目标函数为:
将核典型相关分析算法的目标函数改写为:
设约束条件为:
引入拉格朗日乘子,利用上述约束条件和改写后的核典型相关分析算法目标函数,得到以下特征问题:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911088893.9A CN110909637A (zh) | 2019-11-08 | 2019-11-08 | 一种基于视触融合的室外移动机器人地形识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911088893.9A CN110909637A (zh) | 2019-11-08 | 2019-11-08 | 一种基于视触融合的室外移动机器人地形识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110909637A true CN110909637A (zh) | 2020-03-24 |
Family
ID=69817065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911088893.9A Pending CN110909637A (zh) | 2019-11-08 | 2019-11-08 | 一种基于视触融合的室外移动机器人地形识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110909637A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111582051A (zh) * | 2020-04-17 | 2020-08-25 | 五邑大学 | 一种基于无人机的毒品原植物识别方法、系统及存储介质 |
CN111598142A (zh) * | 2020-04-26 | 2020-08-28 | 南京工业大学 | 一种用于轮式移动机器人的室外地形分类方法 |
CN111752285A (zh) * | 2020-08-18 | 2020-10-09 | 广州市优普科技有限公司 | 四足机器人自主导航方法、装置、计算机设备及存储介质 |
CN112257817A (zh) * | 2020-12-18 | 2021-01-22 | 之江实验室 | 一种地形地质在线语义识别方法、装置及电子设备 |
CN112288008A (zh) * | 2020-10-29 | 2021-01-29 | 四川九洲电器集团有限责任公司 | 一种基于深度学习的马赛克多光谱图像伪装目标检测方法 |
CN112380976A (zh) * | 2020-11-12 | 2021-02-19 | 华东师范大学 | 基于神经网络视觉触觉传感器融合的手势识别系统及方法 |
CN112766349A (zh) * | 2021-01-12 | 2021-05-07 | 齐鲁工业大学 | 一种基于机器视觉与触觉感知的物体描述生成方法 |
CN113246175A (zh) * | 2021-05-07 | 2021-08-13 | 配天机器人技术有限公司 | 机器人末端震动分类方法、机器人及存储介质 |
CN113514544A (zh) * | 2020-12-29 | 2021-10-19 | 大连理工大学 | 一种基于声音特征的移动机器人路面材质识别方法 |
CN116502069A (zh) * | 2023-06-25 | 2023-07-28 | 四川大学 | 一种基于深度学习的触觉时序信号识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105426858A (zh) * | 2015-11-26 | 2016-03-23 | 哈尔滨工业大学 | 一种基于视觉和振动信息融合的地面类型辨识方法 |
CN105844291A (zh) * | 2016-03-18 | 2016-08-10 | 常州大学 | 一种基于核典型相关分析的特征融合方法 |
CN107463952A (zh) * | 2017-07-21 | 2017-12-12 | 清华大学 | 一种基于多模态融合深度学习的物体材质分类方法 |
-
2019
- 2019-11-08 CN CN201911088893.9A patent/CN110909637A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105426858A (zh) * | 2015-11-26 | 2016-03-23 | 哈尔滨工业大学 | 一种基于视觉和振动信息融合的地面类型辨识方法 |
CN105844291A (zh) * | 2016-03-18 | 2016-08-10 | 常州大学 | 一种基于核典型相关分析的特征融合方法 |
CN107463952A (zh) * | 2017-07-21 | 2017-12-12 | 清华大学 | 一种基于多模态融合深度学习的物体材质分类方法 |
Non-Patent Citations (5)
Title |
---|
C.L.PHILIP CHEN等: "Broad Learning System An Effective and Efficient Incremental Learning System Without the Need for Deep Architecture", 《IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS》 * |
C.L.PHILIP CHEN等: "Universal Approximation Capability of Broad Learning System and Its Structural Variations", 《IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS》 * |
CAIXIA LIU等: "Field terrain recognition based on extreme learning theory using wavelet and texture features", 《ADVANCES IN MECHANICAL ENGINEERING》 * |
王瑜: "基于核典型相关分析的姿态人耳、人脸多模态识别", 《北京科技大学学报》 * |
贾晨等: "基于宽度学习方法的多模态信息融合", 《智能系统学报》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111582051A (zh) * | 2020-04-17 | 2020-08-25 | 五邑大学 | 一种基于无人机的毒品原植物识别方法、系统及存储介质 |
CN111582051B (zh) * | 2020-04-17 | 2023-06-16 | 五邑大学 | 一种基于无人机的毒品原植物识别方法、系统及存储介质 |
CN111598142A (zh) * | 2020-04-26 | 2020-08-28 | 南京工业大学 | 一种用于轮式移动机器人的室外地形分类方法 |
CN111752285A (zh) * | 2020-08-18 | 2020-10-09 | 广州市优普科技有限公司 | 四足机器人自主导航方法、装置、计算机设备及存储介质 |
CN112288008B (zh) * | 2020-10-29 | 2022-03-01 | 四川九洲电器集团有限责任公司 | 一种基于深度学习的马赛克多光谱图像伪装目标检测方法 |
CN112288008A (zh) * | 2020-10-29 | 2021-01-29 | 四川九洲电器集团有限责任公司 | 一种基于深度学习的马赛克多光谱图像伪装目标检测方法 |
CN112380976A (zh) * | 2020-11-12 | 2021-02-19 | 华东师范大学 | 基于神经网络视觉触觉传感器融合的手势识别系统及方法 |
CN112257817A (zh) * | 2020-12-18 | 2021-01-22 | 之江实验室 | 一种地形地质在线语义识别方法、装置及电子设备 |
CN113514544A (zh) * | 2020-12-29 | 2021-10-19 | 大连理工大学 | 一种基于声音特征的移动机器人路面材质识别方法 |
CN112766349A (zh) * | 2021-01-12 | 2021-05-07 | 齐鲁工业大学 | 一种基于机器视觉与触觉感知的物体描述生成方法 |
CN113246175A (zh) * | 2021-05-07 | 2021-08-13 | 配天机器人技术有限公司 | 机器人末端震动分类方法、机器人及存储介质 |
CN113246175B (zh) * | 2021-05-07 | 2024-05-03 | 配天机器人技术有限公司 | 机器人末端震动分类方法、机器人及存储介质 |
CN116502069A (zh) * | 2023-06-25 | 2023-07-28 | 四川大学 | 一种基于深度学习的触觉时序信号识别方法 |
CN116502069B (zh) * | 2023-06-25 | 2023-09-12 | 四川大学 | 一种基于深度学习的触觉时序信号识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110909637A (zh) | 一种基于视触融合的室外移动机器人地形识别方法 | |
Dai et al. | Data fusion using artificial neural networks: a case study on multitemporal change analysis | |
CN110728324B (zh) | 基于深度复值全卷积神经网络的极化sar图像分类方法 | |
CN110020693B (zh) | 基于特征注意和特征改善网络的极化sar图像分类方法 | |
CN111598142B (zh) | 一种用于轮式移动机器人的室外地形分类方法 | |
CN105718955B (zh) | 一种基于多重编码与特征融合的视觉地形分类方法 | |
CN111027627A (zh) | 一种基于多层感知机的振动信息地形分类识别方法 | |
CN109902585A (zh) | 一种基于图模型的手指三模态融合识别方法 | |
CN112766411B (zh) | 一种自适应区域精修的目标检测知识蒸馏方法 | |
CN113538218B (zh) | 基于位姿自监督对抗生成网络的弱配对图像风格迁移方法 | |
CN110110794A (zh) | 基于特征函数滤波的神经网络参数更新的图像分类方法 | |
Feng et al. | Fully convolutional network-based infrared and visible image fusion | |
CN113514544A (zh) | 一种基于声音特征的移动机器人路面材质识别方法 | |
CN106446833A (zh) | 一种用于复杂场景图像识别的多通道仿生视觉方法 | |
Shafaey et al. | Pixel-wise classification of hyperspectral images with 1D convolutional SVM networks | |
CN116863247A (zh) | 一种融合全局和局部信息的多模态遥感数据分类方法 | |
CN108764459B (zh) | 基于语义定义的目标识别网络设计方法 | |
CN116206214A (zh) | 一种基于轻量化卷积神经网络和双注意力的自动识别滑坡方法、系统、设备及介质 | |
CN114037922B (zh) | 一种基于层级上下文网络的航拍图像分割方法 | |
Li et al. | Design of the 3D Digital Reconstruction System of an Urban Landscape Spatial Pattern Based on the Internet of Things | |
Saxena et al. | An Optimized Technique for Image Classification Using Deep Learning | |
Liu et al. | Weather recognition of street scene based on sparse deep neural networks | |
Ducke | Archaeological predictive modelling in intelligent network structures | |
Ge et al. | Theory and method of data collection for mixed traffic flow based on image processing technology | |
Tiwari et al. | Deep learning based lateral control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200324 |
|
WD01 | Invention patent application deemed withdrawn after publication |