CN111368755A - 一种基于视觉的四足机器人行人自主跟随方法 - Google Patents

一种基于视觉的四足机器人行人自主跟随方法 Download PDF

Info

Publication number
CN111368755A
CN111368755A CN202010155207.1A CN202010155207A CN111368755A CN 111368755 A CN111368755 A CN 111368755A CN 202010155207 A CN202010155207 A CN 202010155207A CN 111368755 A CN111368755 A CN 111368755A
Authority
CN
China
Prior art keywords
pedestrian
target
layer
image
vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010155207.1A
Other languages
English (en)
Inventor
李贻斌
杨彤
柴汇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN202010155207.1A priority Critical patent/CN111368755A/zh
Publication of CN111368755A publication Critical patent/CN111368755A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

一种基于视觉的四足机器人行人自主跟随方法,目标行人站于距离机器人正前方,双目立体相机获取输入图像,降低其分辨率后输入已训练好的行人检测网络,识别定位出相机视野内的所有行人,并记录所有候选框信息;选取距离图像中心区域最近的框作为跟踪目标,将目标信息发送给尺度特征自适应建模完的视觉跟踪器;当有行人干扰时,重新定位目标并初始化视觉跟踪器;将基于视觉传感器获得目标行人的水平偏转角和距离信息发送给四足机器人分别控制机器人的行进速度和行驶角度。本发明可实现四足机器人在野外环境下对目标行人的自主随行,既解除了遥控器给控制人员带来的操作负担,又帮助人类以更方便的方式完成了物资搬运等复杂任务。

Description

一种基于视觉的四足机器人行人自主跟随方法
技术领域
本发明涉及一种基于视觉的四足机器人行人自主跟随方法,属于四足机器人环境感知技术领域,特别涉及了计算机视觉技术领域。
背景技术
相较于轮式和履带式机器人,腿足式机器人在运动过程中依靠离散的落脚点几乎可以到达地面上的任何位置,能跨越更为复杂崎岖的地形,具有更加优异的运动灵活性、环境适应性及负载能力,更适用于室外的非结构化环境,因而得到了越来越多研究人员的重视。四足机器人既有超于双足机器人的平稳性及负载能力又避免了六足机器人复杂的机体结构,既能以静态步行方式缓慢行走又能以动态步行方式奔跑甚至跳跃。因而在腿足式机器人研究领域,四足机器人是一种最佳的选择方式,在复杂地形环境下的军事-民用物质运输、野外勘探与探险、抢险救灾等领域都具有广阔的发展前景。
为了适应复杂多样的野外环境,需要提高四足机器人的运动自主能力及对复杂环境的感知能力,而环境感知、定位及导航技术是实现四足机器人自主运动的必不可少的关键技术。野外环境属于非结构化环境,地形-地貌-地面复杂多样,障碍物多,这给高维的环境建模带来严峻的挑战,即便有最先进的导航设备,机器人也容易跟丢目标,所以通常采用领航员前方引导、机器人跟随的策略来提高跟踪的实时准确性。
在四足机器人领域,四足机器人最早实现采用近红外相机+激光扫描仪+反射标贴的策略进行领航员检测与自主跟随,在没有领航员控制的情况下,机器人完成了自主路面感知和路径规划。有的研究机构以SCalf四足机器人为平台,搭建了激光雷达+单目相机+TOF相机的环境感知系统,做了四足机器人环境感知、地形识别、路径规划及领航员跟随研究;还有的研究机构通过双目视觉定位和单目视觉定位融合方法,实现了一种识别性高、检测容易的标志的四足机器人野外随行研究。
四足机器人主要依靠外置的传感器来获取目标行人的信息,常用的传感器有激光测距传感器,视觉传感器,红外传感器,惯性测量单元等。目前的研究多依靠于反射标贴、二维码、高识别标志物等穿戴在行人身上的外部物件,容易受周围环境的影响,不能做到对行人的可视化检测与跟踪。
发明内容
本发明针对现有的四足机器人行人自主跟随方法存在的不足,提出一种能够做到对行人的可视化检测与跟踪的基于视觉的四足机器人行人自主跟随方法。该方法融合了深度学习行人检测算法、核相关滤波目标跟踪算法与行人重识别算法的基于立体视觉的行人检测跟踪方法,最终实现野外环境下的四足机器人行人自主跟随。
本发明的基于视觉的四足机器人行人自主跟随方法,具体步骤如下:
(1)通过双目立体相机获取输入图像,降低图片分辨率,将其作为行人检测网络的输入数据;
(2)基于Caffe深度学习框架训练一个不需要大量数据和预训练模型的行人检测模型,识别定位出立体相机视野内的所有行人,并记录每个行人候选框信息;
(3)选取距离图像中心区域最近的框作为跟踪目标,将目标信息发送给视觉跟踪器,并对跟踪目标进行尺度特征自适应建模;
(4)存在其他行人干扰时,在行人检测和视觉跟踪运行后,启动行人重实别模块,对视觉跟踪的结果进行再辨识,重新定位目标,并以此结果作为初始值重新初始化视觉跟踪器;
(5)主动视觉系统中,伺服舵机带动相机转动保证目标尽量处于视野中心,当目标的偏移超出设定角度时,将基于视觉传感器获得的目标行人的水平偏转角和距离信息发送给四足机器人分别控制机器人的行进速度和行驶角度。
所述步骤(2)中行人检测模型训练的具体过程是:
将一个单张的图片x0输入到一个有
Figure BDA0002403785340000026
层的卷积网络,每层的激励函数设为
Figure BDA0002403785340000027
为网络层的编号;前馈卷积神经网络将第
Figure BDA0002403785340000028
层的输出作为第
Figure BDA0002403785340000029
层的输入,所以第
Figure BDA00024037853400000210
层的输出为:
Figure BDA00024037853400000211
Figure BDA00024037853400000212
层接收网络层
Figure BDA00024037853400000213
的特征图作为输入,每一层的变换为
Figure BDA00024037853400000214
其中
Figure BDA00024037853400000215
指在层
Figure BDA00024037853400000216
中产生的特征图的拼接;
采用密集连接的卷积神经网络进行行人检测,检测网络包括3个密集卷积块(每个密集卷积块中包含4个卷积层),两个相邻块之间的层为过渡层,通过卷积和池化来改变特征图的大小,最后通过线性分类器完成分类;
在前端子网络中加入致密结构,综合每个尺度获取多尺度信息,其中一半的特征图由前层尺度连接卷积层得到,另一半由相邻的高分辨率的特征图下采样获得到;下采样由一个2×2的最大池化层和一个1×1的卷积层组成,池化层用来减少计算,卷积层用来减少通道数量;对于每个尺度,仅仅需要学习一半的新特征,重新使用之前尺度的剩余的那一半,用少量参数获得更准确的结果。
所述步骤(3)中目标尺度特征自适应建模的具体过程是:
在传统的KCF跟踪算法基础上,针对单一特征表示弱的不足,采用多通道特征融合,利用特征之间优势互补加强对目标的描述;构建一个三维滤波器,先用一个二维平移滤波器估计目标的位置,然后在更新后的目标位置用一个一维的尺度滤波器预测目标的尺度。
(1)多通道特征融合
分别提取图像灰度特征、颜色相关图特征和方向梯度直方图特征用于分类器的训练,分别得到响应值最大的位置,作为各自的跟踪结果。最后通过响应值的大小自适应调节各自的权重,将各自的跟踪结果通过权重进行加权矢量叠加融合得到最终的跟踪结果:
Figure BDA0002403785340000021
Figure BDA0002403785340000022
表示x的傅里叶变换,⊙表示点乘运算,
Figure BDA0002403785340000023
指离散傅里叶逆变换,
Figure BDA00024037853400000217
Figure BDA00024037853400000218
的共轭,xc是三个特征融合后的特征;
(2)尺度自适应
选用d维特征图表示图像信号,从特征图矩阵块中提取特征映射目标,记为f,fl表示不同维数的图像块,特征维数l∈{1,2…d},通过下式寻找最佳滤波器h,每个特征维度包含一个滤波器hl
Figure BDA0002403785340000031
其中g是f对应的相关期望输出;λs≥0,是正则化参数,缓解零频率问题;解得的傅里叶变换解如下:
Figure BDA0002403785340000032
“^”表示离散傅里叶变换,“*”表示矩阵的共轭矩阵,通过最小化输出误差函数ε训练目标图像块获得最优滤波器h,为了增加滤波器的鲁棒性,分别更新最优滤波器
Figure BDA0002403785340000033
的分子
Figure BDA0002403785340000034
和分母Bt
Figure BDA0002403785340000035
此处η表示学习速率,计算特征图的矩形区域的相关滤波响应y估算新的目标尺度:
Figure BDA0002403785340000036
所述步骤(4)中行人重识别的具体过程是:
给定目标行人图像p和gallery数据集,包含N幅图像,
Figure BDA0002403785340000037
p和gi的原始距离由马氏距离计算得:d(p,gi)=(xp,xgi)TM(xp-xgi),其中xp和xgi分别表示probe p和gallerygi的特征向量,N是一个半正定矩阵;两张图片相似的k-reciprocal集合会重叠,即会有重复的样本(重复的样本越多,这两张图片就越相似);通过Jaccard距离度量集合的相似度:
Figure BDA0002403785340000038
取λ∈[0,1],最终计算距离如下:
d*(p,gi)=(1-λ)dJ(p,gi)+λd(p,gi)。
上述方法融合了深度学习行人检测算法、核相关滤波目标跟踪算法与行人重识别算法的基于立体视觉的行人检测跟踪方法,最终实现野外环境下的四足机器人行人自主跟随。不需要主动发射信号,既隐蔽又安全,其采样频率较高,更加适用于对实时性要求高的室外环境。
本发明采用结合基于深度学习的行人检测算法、基于核相关滤波器的目标跟踪算法与行人重识别算法的策略,构建四足机器人对目标行人的自主跟随系统,做到了对行人的可视化跟踪,有效地适应了四足机器人的高频振动、目标的尺度变化及室外光照明暗的变化,在满足跟踪实时性要求的前提下,四足机器人可以在野外环境下稳定地自主跟随行人完成变速行走、急停、爬坡、S路线、通过复杂地形等任务。
附图说明
图1是四足机器人自主跟随目标行人方法流程图。
图2是密集连接的卷积神经网络行人检测结构图。
具体实施方式
本发明提出了一种基于视觉的四足机器人行人自主跟随方法,该方法由五个部分组成:图像输入模块、行人检测模块、视觉跟踪模块、行人重识别模块、数据传输模块,方法总体如图1所示。目标行人站于距离机器人正前方1~2米处,双目立体相机获取输入图像,降低其分辨率后输入已训练好的行人检测网络,识别定位出相机视野内的所有行人,并记录所有候选框信息;选取距离图像中心区域最近的框作为跟踪目标,将目标信息发送给尺度特征自适应建模完的视觉跟踪器;当有行人干扰时,启动重识别模块,重新定位目标并初始化视觉跟踪器;将基于视觉传感器获得目标行人的水平偏转角和距离信息发送给四足机器人分别控制机器人的行进速度和行驶角度。
1.图像输入过程
双目立体视觉相机获取输入图像,降低图像分辨率为1080x720,输入到深度学习行人检测网络。双目立体相机基于视差原理,计算从不同的位置获取的目标行人两幅图像对应点间的位置偏差,准确获取行人的空间深度信息。视觉传感器可获得更加丰富的图像颜色、纹理等特征信息,能够很好的复现周围环境场景;视觉系统不需要主动发射信号,既隐蔽又安全,更加适用于对实时性要求高的室外环境。
2.行人检测过程
基于Caffe深度学习框架训练一个不需要大量数据和预训练模型的行人检测模型,识别定位出立体相机视野内的所有行人,并记录每个行人候选框信息。
密集连接的卷积神经网络中,每一层网络从前面的所有层网络获得输入,使用级联方式将本层的特征映射传递到后续的所有层,保证了网络各层之间的最大信息流,促进了特征再用,大大减少了参数的数量。
将一个单张的图片x0输入到一个有
Figure BDA0002403785340000041
层的卷积网络,每层的激励函数设为
Figure BDA0002403785340000042
为网络层的编号。前馈卷积神经网络将第
Figure BDA0002403785340000043
层的输出作为第
Figure BDA0002403785340000044
层的输入,所以第
Figure BDA0002403785340000045
层的输出为:
Figure BDA0002403785340000046
Figure BDA0002403785340000047
层接收网络层
Figure BDA0002403785340000048
的特征图作为输入,每一层的变换为
Figure BDA0002403785340000057
其中
Figure BDA0002403785340000058
指在层
Figure BDA0002403785340000059
中产生的特征图的拼接。
采用密集连接的卷积神经网络进行行人检测,检测网络包括3个密集卷积块(每个密集卷积块中包含4个卷积层),两个相邻块之间的层为过渡层,通过卷积和池化来改变特征图的大小,最后通过线性分类器完成分类,如图2所示。
在前端子网络中加入致密结构,综合每个尺度获取多尺度信息,其中一半的特征图由前层尺度连接卷积层得到,另一半由相邻的高分辨率的特征图下采样获得到。下采样由一个2×2的最大池化层和一个1×1的卷积层组成,池化层用来减少计算,卷积层用来减少通道数量。对于每个尺度,仅仅需要学习一半的新特征,重新使用之前尺度的剩余的那一半,用少量参数获得更准确的结果。
3.视觉跟踪过程
选取距离图像中心区域最近的框作为跟踪目标,将目标信息发送给视觉跟踪器,并对跟踪目标进行尺度特征自适应建模。KCF目标跟踪算法巧妙地将当前图像帧通过循环移位的方法构建大量的样本来训练分类器,利用脊回归训练目标检测器,借助循环矩阵在傅里叶空间可对角化的性质将矩阵的运算转为向量的的点乘,减少运算量,提高运算速度,满足实时性要求。
在传统的KCF跟踪算法基础上,针对单一特征表示弱的不足,采用多通道特征融合,利用特征之间优势互补加强对目标的描述;构建一个三维滤波器,先用一个二维平移滤波器估计目标的位置,然后在更新后的目标位置用一个一维的尺度滤波器预测目标的尺度。
(1)多通道特征融合
分别提取图像灰度特征、颜色相关图特征和方向梯度直方图特征用于分类器的训练,分别得到响应值最大的位置,作为各自的跟踪结果。最后通过响应值的大小自适应调节各自的权重,将各自的跟踪结果通过权重进行加权矢量叠加融合得到最终的跟踪结果:
Figure BDA0002403785340000051
Figure BDA0002403785340000052
表示x的傅里叶变换,⊙表示点乘运算,
Figure BDA0002403785340000053
指离散傅里叶逆变换,
Figure BDA0002403785340000054
Figure BDA0002403785340000055
的共轭,xc是三个特征融合后的特征。
(2)尺度自适应
选用d维特征图表示图像信号,从特征图矩阵块中提取特征映射目标,记为f,fl表示不同维数的图像块,特征维数l∈{1,2…d},通过下式寻找最佳滤波器h,每个特征维度包含一个滤波器hl
Figure BDA0002403785340000056
其中g是f对应的相关期望输出。λs≥0是正则化参数,缓解零频率问题。解得的傅里叶变换解如下:
Figure BDA0002403785340000061
“^”表示离散傅里叶变换,“*”表示矩阵的共轭矩阵,通过最小化输出误差函数ε训练目标图像块获得最优滤波器h,为了增加滤波器的鲁棒性,分别更新最优滤波器
Figure BDA0002403785340000062
的分子
Figure BDA0002403785340000063
和分母Bt
Figure BDA0002403785340000064
此处η表示学习速率,计算特征图的矩形区域的相关滤波响应y估算新的目标尺度:
Figure BDA0002403785340000065
4.行人重识别过程
给定一个探测对象和一个图库,分别提取每个人的外观特征和k-reciprocal特征;然后针对每对probe对象和gallery人员计算原始距离e和Jaccard距离dJ;最后由d和dJ计算得到距离d*,用于获取建议的排名列表。
给定目标行人图像p和gallery数据集(包含N幅图像,
Figure BDA0002403785340000066
),p和gi的原始距离由马氏距离计算得:d(p,gi)=(xp,xgi)TM(xp-xgi),其中xp和xgi分别表示probep和gallerygi的特征向量,N是一个半正定矩阵。两张图片相似的k-reciprocal集合会重叠,即会有重复的样本。重复的样本越多,这两张图片就越相似。通过Jaccard距离度量集合的相似度:
Figure BDA0002403785340000067
取λ∈[0,1],最终计算距离如下:
d*(p,gi)=(1-λ)dJ(p,gi)+λd(p,gi)。
5.机器人控制过程
在基于视觉传感器获得目标行人的水平偏转角和距离信息后,分别控制四足机器人的行进速度和偏航角度达到自主跟随目标行人的运动效果。对于主动视觉系统,使用较为激进的调整策略,以数字舵机为基础带动相机转动,保证目标尽量处于视野中心,实现对目标行人的稳定跟踪。
而在机器人控制中,当目标在水平方向的偏移很微小的时候,机器人不改变行驶方向。设立一个安全角度(-θss),当目标水平偏移角度在安全角度之内时,主动视觉系统运作保证目标位于视野中心;而当目标的偏移超出安全角度时,机器人获取主动视觉系统发来的偏转角度做出航向偏转来继续跟随目标行人。
当光照强弱变化时,双目相机获取领航员信息出现飘移,经过行人重识别定位后可再次跟随初始化目标行人,但四足机器人会突然得到一个急速偏转航向角,发生急速偏转,最终造成跟随失败。为应对这种跟踪飘逸、延迟等情况,对向四足机器人发送的航向角数据进行平滑滤波,将处理后的数据发送给四足机器人以消除突变扰动。
本发明结合了基于深度学习的行人检测算法、基于核相关滤波器的目标跟踪算法与行人重识别算法,设计了一个无需预训练、直接基于训练样本训练目标检测模型的行人检测框架,大幅度缩减网络参数数量以提高检测速度;针对四足机器人的高频振动、运动目标形姿变化、光照强度变化、部分或全部遮挡等问题,对目标跟踪算法做多特征融合和多尺度估计改进,提高跟踪性能;考虑到目标行人周围出现其他行人或者出现遮挡情况,引入行人重识别模块,融合单帧图像的内容特征和图像帧与帧之间的运动特征用于在多个人之间重新定位目标行人。

Claims (4)

1.一种基于视觉的四足机器人行人自主跟随方法,其特征是,具体步骤如下:
(1)双目立体相机获取输入图像,降低图片分辨率,将其作为行人检测网络的输入数据;
(2)基于Caffe深度学习框架训练一个不需要大量数据和预训练模型的行人检测模型,识别定位出立体相机视野内的所有行人,并记录每个行人候选框信息;
(3)选取距离图像中心区域最近的框作为跟踪目标,将目标信息发送给视觉跟踪器,并对跟踪目标进行尺度特征自适应建模;
(4)存在其他行人干扰时,在行人检测和视觉跟踪运行后,启动行人重实别模块,对视觉跟踪的结果进行再辨识,重新定位目标,并以此结果作为初始值重新初始化视觉跟踪器;
(5)主动视觉系统中,伺服舵机带动相机转动保证目标尽量处于视野中心,当目标的偏移超出设定角度时,将基于视觉传感器获得的目标行人的水平偏转角和距离信息发送给四足机器人分别控制机器人的行进速度和行驶角度。
2.根据权利要求1所述的一种基于视觉的四足机器人行人自主跟随方法,其特征是,所述步骤(2)中行人检测模型训练的具体过程是:
将一个单张的图片x0输入到一个有
Figure FDA0002403785330000012
层的卷积网络,每层的激励函数设为
Figure FDA0002403785330000013
Figure FDA0002403785330000014
为网络层的编号;前馈卷积神经网络将第
Figure FDA00024037853300000111
层的输出作为第
Figure FDA00024037853300000112
层的输入,所以第
Figure FDA00024037853300000113
层的输出为:
Figure FDA0002403785330000015
Figure FDA0002403785330000016
层接收网络层
Figure FDA0002403785330000017
的特征图作为输入,每一层的变换为
Figure FDA0002403785330000018
其中
Figure FDA0002403785330000019
指在层
Figure FDA00024037853300000110
中产生的特征图的拼接;
采用密集连接的卷积神经网络进行行人检测,检测网络包括3个密集卷积块,每个密集卷积块中包含4个卷积层,两个相邻块之间的层为过渡层,通过卷积和池化来改变特征图的大小,最后通过线性分类器完成分类;
在前端子网络中加入致密结构,综合每个尺度获取多尺度信息,其中一半的特征图由前层尺度连接卷积层得到,另一半由相邻的高分辨率的特征图下采样获得到;下采样由一个2×2的最大池化层和一个1×1的卷积层组成,池化层用来减少计算,卷积层用来减少通道数量。对于每个尺度,仅仅需要学习一半的新特征,重新使用之前尺度的剩余的那一半,用少量参数获得更准确的结果。
3.根据权利要求1所述的一种基于视觉的四足机器人行人自主跟随方法,其特征是,所述步骤(3)中行人检测模型训练的具体过程是:
(1)多通道特征融合:
分别提取图像灰度特征、颜色相关图特征和方向梯度直方图特征用于分类器的训练,分别得到响应值最大的位置,作为各自的跟踪结果;最后通过响应值的大小自适应调节各自的权重,将各自的跟踪结果通过权重进行加权矢量叠加融合得到最终的跟踪结果:
Figure FDA0002403785330000011
Figure FDA0002403785330000021
表示x的傅里叶变换,⊙表示点乘运算,
Figure FDA0002403785330000022
指离散傅里叶逆变换,
Figure FDA0002403785330000023
Figure FDA0002403785330000024
的共轭,xc是三个特征融合后的特征;
(2)尺度自适应:
选用d维特征图表示图像信号,从特征图矩阵块中提取特征映射目标,记为f,fl表示不同维数的图像块,特征维数l∈{1,2…d},通过下式寻找最佳滤波器h,每个特征维度包含一个滤波器hl
Figure FDA0002403785330000025
其中g是f对应的相关期望输出;λs≥0是正则化参数,缓解零频率问题;解得的傅里叶变换解如下:
Figure FDA0002403785330000026
“^”表示离散傅里叶变换,“*”表示矩阵的共轭矩阵,通过最小化输出误差函数ε训练目标图像块获得最优滤波器h,为了增加滤波器的鲁棒性,分别更新最优滤波器
Figure FDA0002403785330000027
的分子
Figure FDA0002403785330000028
和分母Bt
Figure FDA0002403785330000029
此处η表示学习速率,计算特征图的矩形区域的相关滤波响应y估算新的目标尺度:
Figure FDA00024037853300000210
4.根据权利要求1所述的一种基于视觉的四足机器人行人自主跟随方法,其特征是,所述步骤(4)中行人检测模型训练的具体过程是:
给定目标行人图像p和gallery数据集,包含N幅图像,
Figure FDA00024037853300000211
p和gi的原始距离由马氏距离计算得:
Figure FDA00024037853300000212
其中xp
Figure FDA00024037853300000213
分别表示probe p和gallery gi的特征向量,N是一个半正定矩阵;两张图片相似的k-reciprocal集合会重叠,即会有重复的样本。重复的样本越多,这两张图片就越相似。通过Jaccard距离度量集合的相似度:
Figure FDA00024037853300000214
取λ∈[0,1],最终计算距离如下:
d*(p,gi)=(1-λ)dJ(p,gi)+λd(p,gi)。
CN202010155207.1A 2020-03-09 2020-03-09 一种基于视觉的四足机器人行人自主跟随方法 Pending CN111368755A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010155207.1A CN111368755A (zh) 2020-03-09 2020-03-09 一种基于视觉的四足机器人行人自主跟随方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010155207.1A CN111368755A (zh) 2020-03-09 2020-03-09 一种基于视觉的四足机器人行人自主跟随方法

Publications (1)

Publication Number Publication Date
CN111368755A true CN111368755A (zh) 2020-07-03

Family

ID=71208628

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010155207.1A Pending CN111368755A (zh) 2020-03-09 2020-03-09 一种基于视觉的四足机器人行人自主跟随方法

Country Status (1)

Country Link
CN (1) CN111368755A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132864A (zh) * 2020-09-21 2020-12-25 大连遨游智能科技有限公司 基于视觉的机器人跟随方法及跟随机器人
CN112207821A (zh) * 2020-09-21 2021-01-12 大连遨游智能科技有限公司 视觉机器人的目标搜寻方法及机器人
CN112528817A (zh) * 2020-12-04 2021-03-19 重庆大学 一种基于神经网络的巡检机器人视觉检测及跟踪方法
CN112731918A (zh) * 2020-11-30 2021-04-30 北京理工大学 一种基于深度学习检测跟踪的地面无人平台自主跟随系统
CN113012201A (zh) * 2021-03-24 2021-06-22 中国北方车辆研究所 一种基于深度学习的地面无人平台人员跟踪方法
CN113312953A (zh) * 2021-01-05 2021-08-27 武汉大学 基于步态识别的类人机器人身份鉴别方法及系统
CN113381667A (zh) * 2021-06-25 2021-09-10 哈尔滨工业大学 一种基于ros与图像处理的寻苗行走系统及其方法
CN114296443A (zh) * 2021-11-24 2022-04-08 贵州理工学院 一种无人驾驶模块化联合收割机
US11458627B2 (en) 2020-08-13 2022-10-04 National Chiao Tung University Method and system of robot for human following
CN115705064A (zh) * 2021-08-03 2023-02-17 北京小米移动软件有限公司 足式机器人的跟随控制方法、装置及机器人

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108510521A (zh) * 2018-02-27 2018-09-07 南京邮电大学 一种多特征融合的尺度自适应目标跟踪方法
CN109741369A (zh) * 2019-01-03 2019-05-10 北京邮电大学 一种用于机器人跟踪目标行人的方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108510521A (zh) * 2018-02-27 2018-09-07 南京邮电大学 一种多特征融合的尺度自适应目标跟踪方法
CN109741369A (zh) * 2019-01-03 2019-05-10 北京邮电大学 一种用于机器人跟踪目标行人的方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
TONG YANG ET AL.: "A Leader-following Method Based on Binocular Stereo Vision For Quadruped Robots", 《PROCEEDINGS OF 9TH IEEE INTERNATIONAL CONFERENCE ON CYBER TECHNOLOGY IN AUTOMATION, CONTROL, AND INTELLIGENT SYSTEMS》 *
ZHIQIANG SHEN ET AL.: "DSOD: Learning Deeply Supervised Object Detectors from Scratch", 《ARXIV:1708.01241V2 [CS.CV]》 *
ZHUN ZHONG ET AL.: "Re-ranking Person Re-identification with k-reciprocal Encoding", 《ARXIV:1701.08398V1 [CS.CV]》 *
陈佳兴: "基于KCF和视觉注意的多特征动态融合视觉目标跟踪研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11458627B2 (en) 2020-08-13 2022-10-04 National Chiao Tung University Method and system of robot for human following
CN112207821A (zh) * 2020-09-21 2021-01-12 大连遨游智能科技有限公司 视觉机器人的目标搜寻方法及机器人
CN112132864A (zh) * 2020-09-21 2020-12-25 大连遨游智能科技有限公司 基于视觉的机器人跟随方法及跟随机器人
CN112132864B (zh) * 2020-09-21 2024-04-09 大连遨游智能科技有限公司 基于视觉的机器人跟随方法及跟随机器人
CN112207821B (zh) * 2020-09-21 2021-10-01 大连遨游智能科技有限公司 视觉机器人的目标搜寻方法及机器人
CN112731918A (zh) * 2020-11-30 2021-04-30 北京理工大学 一种基于深度学习检测跟踪的地面无人平台自主跟随系统
CN112731918B (zh) * 2020-11-30 2022-02-11 北京理工大学 一种基于深度学习检测跟踪的地面无人平台自主跟随系统
CN112528817A (zh) * 2020-12-04 2021-03-19 重庆大学 一种基于神经网络的巡检机器人视觉检测及跟踪方法
CN112528817B (zh) * 2020-12-04 2024-03-19 重庆大学 一种基于神经网络的巡检机器人视觉检测及跟踪方法
CN113312953B (zh) * 2021-01-05 2022-10-04 武汉大学 基于步态识别的类人机器人身份鉴别方法及系统
CN113312953A (zh) * 2021-01-05 2021-08-27 武汉大学 基于步态识别的类人机器人身份鉴别方法及系统
CN113012201A (zh) * 2021-03-24 2021-06-22 中国北方车辆研究所 一种基于深度学习的地面无人平台人员跟踪方法
CN113012201B (zh) * 2021-03-24 2024-03-19 中国北方车辆研究所 一种基于深度学习的地面无人平台人员跟踪方法
CN113381667B (zh) * 2021-06-25 2022-10-04 哈尔滨工业大学 一种基于ros与图像处理的寻苗行走系统及其方法
CN113381667A (zh) * 2021-06-25 2021-09-10 哈尔滨工业大学 一种基于ros与图像处理的寻苗行走系统及其方法
CN115705064A (zh) * 2021-08-03 2023-02-17 北京小米移动软件有限公司 足式机器人的跟随控制方法、装置及机器人
CN114296443B (zh) * 2021-11-24 2023-09-12 贵州理工学院 一种无人驾驶模块化联合收割机
CN114296443A (zh) * 2021-11-24 2022-04-08 贵州理工学院 一种无人驾驶模块化联合收割机

Similar Documents

Publication Publication Date Title
CN111368755A (zh) 一种基于视觉的四足机器人行人自主跟随方法
CN110335337B (zh) 一种基于端到端半监督生成对抗网络的视觉里程计的方法
US11017550B2 (en) End-to-end tracking of objects
CN108496127B (zh) 集中于对象的有效三维重构
CN110009674B (zh) 基于无监督深度学习的单目图像景深实时计算方法
CN111325797A (zh) 一种基于自监督学习的位姿估计方法
Weerakoon et al. Terp: Reliable planning in uneven outdoor environments using deep reinforcement learning
CN112097769B (zh) 仿信鸽脑-海马的无人机同时定位与建图导航系统及方法
CN112509051A (zh) 一种基于仿生学的自主移动平台环境感知与建图方法
Browning et al. A neural model of how the brain computes heading from optic flow in realistic scenes
Oliveira et al. Three-dimensional mapping with augmented navigation cost through deep learning
Sleaman et al. Monocular vision with deep neural networks for autonomous mobile robots navigation
Aziz et al. Survivor search with autonomous UGVs using multimodal overt attention
CN114708435A (zh) 基于语义分割的障碍物尺寸预测与不确定性分析方法
Yao et al. Vision-based environment perception and autonomous obstacle avoidance for unmanned underwater vehicle
CN111611869B (zh) 一种基于串行深度神经网络的端到端单目视觉避障方法
Zhu et al. Autonomous reinforcement control of visual underwater vehicles: Real-time experiments using computer vision
CN113031002A (zh) 基于Kinect3和激光雷达的SLAM陪跑小车
Guzel Mobile robot vavigation using a vision based approach
CN116824433A (zh) 基于自监督神经网络的视觉-惯导-雷达融合自定位方法
US20230267615A1 (en) Systems and methods for generating a road surface semantic segmentation map from a sequence of point clouds
Narayanan et al. Ewarenet: Emotion-aware pedestrian intent prediction and adaptive spatial profile fusion for social robot navigation
Yang et al. ALeader-following Method Based on Binocular Stereo Vision For Quadruped Robots
Béres et al. Enhancing Visual Domain Randomization with Real Images for Sim-to-Real Transfer
Jonasson et al. Structured light based depth and pose estimation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200703

WD01 Invention patent application deemed withdrawn after publication