CN112907625A - 应用于四足仿生机器人的目标跟随方法及系统 - Google Patents
应用于四足仿生机器人的目标跟随方法及系统 Download PDFInfo
- Publication number
- CN112907625A CN112907625A CN202110160018.8A CN202110160018A CN112907625A CN 112907625 A CN112907625 A CN 112907625A CN 202110160018 A CN202110160018 A CN 202110160018A CN 112907625 A CN112907625 A CN 112907625A
- Authority
- CN
- China
- Prior art keywords
- target
- following
- robot
- image
- quadruped
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本公开提出了应用于四足仿生机器人的目标跟随方法及系统,包括:获取四足仿生机器人所在环境的图像;识别跟随目标并获取跟随目标的位置坐标,识别障碍物并获取障碍物的凸包坐标信息,以进行四足机器人在自转跟随跟踪目标的同时横移躲避障碍物。实现了四足机器人在跟踪人的同时有效的躲避障碍物,提高了四足机器人与环境交互的智能性。较好的提高四足机器人环境感知能力。
Description
技术领域
本公开属于人工智能和机器人技术领域,尤其涉及应用于四足仿生机器人的目标跟随方法及系统。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术信息,不必然构成在先技术。
自20世纪60年代以来,机器人学成为了国内外众多科研机构和企业的一个研究热点,它涉及到许多学科之间的研究与发展,集人工智能、电子信息技术、自动控制、计算机科学、传感器等多学科于一体,形成了一个非常广阔的研究领域。人们对于机器人的研究更侧重于如何利用机器人对生活中遇到的实际应用问题提供帮助,现如今,随着计算机技术以及人工智能各领域技术的快速发展,在工业、服务业、农业、建筑业等领域,都可以看到各种各样的机器人代替人类完成各种作业的画面,除此之外,机器人还发展出了新的需求与新的市场,尤其是在灾害救护、军事作战、航天探测、深海作业、医疗护理等领域发挥出了不可替代的作用。由于履式和轮式机器人其良好的运动平稳性,其环境感知能力的研究比四足机器人研究早一些,但受到其运动灵活性的限制,大多数只能在室内或者平坦的路面环境中运动。如今,随着对四足仿生机器人的研究,其结构和稳定运动控制技术已经越来越成熟,提高四足机器人的智能化已经势不容缓,环境感知方面的研究成为了四足机器人研究领域的核心内容之一,是四足机器人展现其优越的运动灵活性完成高级任务的基础,是实现四足机器人智能化的必经之路。
国外较早的展开了对四足机器人环境感知方面的研究,2003年发表在《IEEEInternational Conference on Robotics,Intelligent Systems and SignalProcessing》(《机器人、智能系统和信号处理国际会议》)501-506页的《Local obstaclerecognition for a quadruped robot by distance sensors》(《基于距离传感器的四足机器人局部障碍识别》)提出了一种利用距离传感器进行局部障碍物识别的可靠的感知方法,并且克服了轨迹运动的方法和姿态控制方法。2006年发表在《International JointInternational on SICE-ICASE》(《SICE-ICASE国际联合会》)5120-5125页的《A SensorFusion Technique Using Visual and Ultrasonic Information to Acquire ObstacleAvoidance Behaviors for Quadruped Robots》(《一种基于视觉和超声波信息的四足机器人避障行为传感器融合技术》)提出了一种基于摄像机图像和超声波传感器的四足步行机器人避障方法,利用单台摄像机获取三维障碍物的粗略信息,利用部分超声波传感器获取障碍物的准确信息,通过适当地组合这些传感器进行有效地障碍物测量。2009年发表在《IEEE International Conference on Robotics&Automation》(《IEEE机器人与自动化国际会议》)1557-1564页的《Stereo Vision and Terrain Modeling for QuadrupedRobots》(《四足机器人的立体视觉和地形建模》)为四足机器人提供了一个集成的感知和控制系统,该系统允许机器人感知和穿越以前从未见过的包括大型不规则障碍物在内的崎岖地形,该系统的一个关键要素是一种新的地形建模算法,用于填补由机载视觉系统产生的遮挡模型。2010年发表在《IEEE International Conference on Robotics andAutomation》(《IEEE机器人与自动化国际会议》)4736-4741页的《Autonomous Navigationfor BigDog》(《BigDog的自主导航》)为BigDog装备LMS291激光扫描仪、双目相机立体视觉系统以及感知和导航算法,利用这些传感器和算法,BigDog在非结构化森林环境中执行自动导航到目标位置,该系统具备实时避障功能,机器人感知障碍物,如树木、巨石和地面特征,并在通往目标的路上转向避开它们,能够在没有人控制和引领的情况下自主行走约130米。2012年同样发表在《IEEE International Conference on Robotics and Automation》(《IEEE机器人与自动化国际会议》)619-626页的《Robust Multi-Sensor,Day/Night 6-DOFPose Estimation for a Dynamic Legged Vehicle in GPS-denied Environments》(《无GPS环境下动力腿车的鲁棒多传感器、昼夜六自由度姿态估计》)在LS3四足机器人上搭载了LMS111激光扫描仪、二自由度云台、近红外光源与全向近红外相机、Bumblebee双目相机等感知工具,实现了该四足机器人可以在没有人干预的情况下通过遥感和GPS前往指定的地点,并且在没有GPS信号的情况下,可以通过立体视觉传感器、惯性测量单元(IMU)和基于扩展卡尔曼滤波的腿部里程计(EKF)实现自主行进,并且通过路标校正能够将每50m的误差降低到0.5m以下。2015年6月,波士顿动力公司在Cheetah2四足机器人上搭载二维平面激光扫描仪实现了对障碍物的检测,并且完成了障碍物的跨越。同年2月,该公司融合了BigDog,LS3,Cheetah的研究经验,推出了Spot四足机器人,该款机器人使用激光雷达和立体视觉相机以及一套机载传感器来感知复杂的地形环境,并实现了其稳定的穿越复杂地形。之后,又研制出Spot小型版Spot Mini,该四足机器人使用激光雷达、深度相机、腿部传感器和陀螺仪来实现运动平衡与自动导航。
除波士顿动力公司外,HyQ四足机器人在环境感知领域也做了较多尝试,2013年,Stephane Bazeille等通过HyQ机器人上的双目相机感知目标及地形信息,从而引导四足机器人朝前方目标前进,并根据地形调整腿部运动;2014年,Alexander Winkler等使用Kinect创建离线地图并配合足力反馈实现HyQ机器人对复杂地形的通过能力;2015年,Marco Camurri等使用双目相机与Kinect共同完成了HyQ机器人同步定位与地图绘制(SLAM)。
综上,近年来,四足机器人在目标跟踪和自主避障方面,取得了一些较好的成果,但是,大部分都是采用激光雷达+双目相机的方式,或采用其它造价比较高的环境感知设备组合方式;另外,现有的人员跟随方面的研究大多依靠识别穿戴在行人身上的反射标贴、二维码、高识别标志物等外部物件来跟随目标,不具有一般性。为了解决上述技术问题,本公开在目标跟随和自主避障方面,仅采用深度相机和英伟达Jetson TX2硬件,在不需要特殊标志物的基础上,主要利用有效的图像处理方法和YOLOv3深度学习模型,结合四足机器人的有效运动控制方法,实现了机器人的目标跟随和自主避障。
发明内容
为解决上述现有技术问题,本公开提供了应用于四足仿生机器人的目标跟随方法,实现了四足机器人在跟踪人的同时有效的躲避障碍物,提高了四足机器人与环境交互的智能性。
为实现上述目的,本公开的一个或多个实施例提供了如下技术方案:
第一方面,公开了应用于四足仿生机器人的目标跟随方法,包括:
获取四足仿生机器人所在环境的图像;
识别跟随目标并获取跟随目标的位置坐标,识别障碍物并获取障碍物的凸包坐标信息,以进行四足机器人在自转跟随跟踪目标的同时横移躲避障碍物。
进一步的技术方案,识别跟随目标时,对四足仿生机器人所在环境的图像进行处理,产生不同尺寸的预测特征图,在不同尺寸的预测特征图上进行目标的预测。
进一步的技术方案,在不同尺寸的预测特征图上进行目标的预测时,将输入图像划分为相对应尺寸的网格,聚类得到多组尺度的预测框;
在每个预测特征图上会预测多种尺度的预测框,每个网格检测中心点落在该格子内的目标,真实框中心所在的网格作为负责预测目标的单元格,每个单元格会预测多种预测框,从这多种预测框中选择和真实框的IOU最大的来作为最终预测该目标的预测框,最终,每个单元格会预测产生出有关目标坐标的参数。
进一步的技术方案,识别障碍物并获取障碍物的凸包坐标信息,具体为:
图像二值化处理,突显出障碍物图形的轮廓;
二值化处理后对图像先进行腐蚀操作处理然后再进行膨胀处理;
基于以上图像处理之后,提取出障碍物的最大外围轮廓,进而确定其凸包矩形框,继而得到具体的像素坐标值。
进一步的技术方案,识别跟随目标并获取跟随目标的位置坐标之后,将此坐标进一步转换为预测框左上角的像素坐标,并且得到矩形框的宽度高度信息,自转跟随跟踪目标。
进一步的技术方案,自转跟随跟踪目标,跟踪目标公式:
其中k和XPCC分别是自转速度比例系数和包围人的矩形框的中心点的像素横坐标,具体由以下式给出:
k=1.5
其中xperson是在像素平面内包围人矩形框左上角的像素横坐标,pwidth为包围人矩形框的像素宽度值。
进一步的技术方案,确定其凸包矩形框,继而得到具体的像素坐标值,具体为获得凸包矩阵框左上角的像素点坐标信息即确定障碍物的像素位置信息,与此同时也将得到凸包矩阵框的宽度高度信息。
进一步的技术方案,横移躲避障碍物时,根据障碍物在图像中位置信息来决定四足机器人躲避障碍物时的横移速度大小。
进一步的技术方案,横移速度具体为:
其中Vleftshift,Vrightshift表示四足机器人左右横移的速度;α和XOCC分别是自转速度比例系数和包围人的矩形框的中心点的像素横坐标,具体由下式给出:
α=0.5
其中xobject是在像素平面内包围障碍物矩形框左上角的像素横坐标,owidth为包围障碍物矩形框的像素宽度值。
第二方面,公开了应用于四足仿生机器人的目标跟随系统,包括:
图像获取模块,获取四足仿生机器人所在环境的图像;
目标跟随模块,识别跟随目标并获取跟随目标的位置坐标,识别障碍物并获取障碍物的凸包坐标信息,以进行四足机器人在自转跟随跟踪目标的同时横移躲避障碍物。
以上一个或多个技术方案存在以下有益效果:
本公开技术方案通过深度相机采集到彩色图像信息和深度图像信息,通过图像处理手段获取计算机可识别的图像像素信息;基于此图像像素信息设计出了跟随转向算法和避障横移算法,实现了四足机器人在跟踪人的同时有效的躲避障碍物,提高了四足机器人与环境交互的智能性。较好的提高四足机器人环境感知能力。
本发明附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。
图1本公开实施例子的Realsense D435深度相机;
图2本公开实施例子的Jetson TX2;
图3本公开实施例子的卷积层Convolutional组成结构图;
图4本公开实施例子的残差块Residual输出原理图;
图5本公开实施例子的卷积序列Convolutional Set组成结构图;
图6本公开实施例子的YOLOv3总体网络结构;
图7本公开实施例子的YOLOv3输入-输出映射图;
图8本公开实施例子的图像处理流程图图;
图9本公开实施例子的自转跟踪算法原理图;
图10本公开实施例子的余弦函数模型图;
图11本公开实施例子的横移避障算法原理图;
图12本公开实施例子的四足机器人人员跟随自主避障流程图。
具体实施方式
应该指出,以下详细说明都是示例性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
本公开提出的总体思路:
主要思想是通过开启Realsense D435相机的彩色摄像头和深度摄像头,获取彩色图像信息和深度图像信息,通过调用深度学习中的YOLOv3网络,识别检测人并获取其位置坐标,深度图像信息经过图像处理后,得到障碍物的凸包坐标信息,设计出全新的自转跟随算法,实现人的自主跟踪,并且通过引入余弦函数模型设计出了横移避障算法躲避障碍物。
实施例一
本实施例公开了应用于四足仿生机器人的目标跟随方法,具体过程为:
步骤一:首先搭建环境感知系统:
在具体实施例子中,使用先进的RGBD深度相机传感器RealSense D435,如图1所示。通过这款相机右边的彩色相机用于采集彩色图片收集彩色信息,通过左右红外相机进行测量深度获取深度数据,通过采用其强大的RealSense模块,实现相机的调用和图像信息的获取。
与此同时,使用了高性能超级计算机Jetson TX2,如图2所示。通过这款处理器驱动Realsense D435相机,通过其强大的内核实现多线程程序运行和调用庞大的YOLOv3网络框架,并且通过其内部的视频编码器和解码器提高了对图像信息的处理速度。
步骤二:目标感知识别:为了能够实时的处理视频流数据,使用当前最流行的YOLOv3目标检测算法,YOLOv3已经提供可预测80类物体的COCO(Common Objects inContext)数据集的模型参数,支持直接用于物体检测。视频的本质就是图像,假设某一帧的图像,保持宽高比不变的情况下,缩放生成416*416大小的图像,作为网络的输入。运行网络后,便开始一系列的处理操作,具体如下:
通过Darknet-53基本网络框架从输入图像中进行特征提取,Darknet-53网络采用大量的1*1、3*3卷积,共53层卷积,并且该网络采用了Resnet残差网络思想。输入图像首先经过一个3*3的卷积层,然后是5组重复的残差单元处理。该网络的每个卷积层由普通卷积层和BN层进行批归一化后再经过Leaky RELU激活而成,如图3所示。以某一层1*1加上一层3*3的卷积为一个残差块,残差块中将捷径分支上的输出从主分支的输入引过来和主分支上的输出进行相加得到残差块的输出,如图4所示。将每个残差块的输出和上一层残差块输出相加构成残差单元,图中虚线框部分;下采样则是通过每组残差单元的第一个单独的卷积层的一次步长为2的卷积操作来实现。经过残差单元的处理后,会在后三组残差单元分别形成13*13,26*26,52*52尺寸大小的特征图。
YOLOv3会产生三种不同尺寸的预测特征图。第一个预测特征图是从Darknet-53基础网络结构当中去掉全连接层和最大池化层后的结构而输出的特征图大小为13*13,接着一个分支通过一个卷积序列,该卷积序列由5个卷积层堆叠在一起,如图5所示,在经过一个3*3卷积层处理,便得到了第一个预测特征图,另外一个分支通过一个1*1的卷积层,在经过一个上采样层将宽和高扩大为原来的两倍,从13*13变成26*26,扩大之后的特征图会和Darknet-53输出的26*26的特征图进行拼接,拼接之后的特征图一个分支经过卷积序列进行处理,再经过一个3*3的卷积层,便得到了第二种预测特征图,尺寸为26*26,同样另外一个分支则是经过一个1*1的卷积层,通过上采样,将特征图从26*26变成52*52,然后和Darknet-53输出进行拼接,再经过卷积序列处理后再经过一个3*3卷积层,便得到了第三种预测特征图。到现在,已经得到了三种不同尺寸的预测特征图,根据预测特征图尺寸的不同,在尺寸为13*13预测特征图预测相对较大的目标,在尺寸为26*26的预测特征图上预测中等的目标,在尺寸为52*52的预测特征图上预测出小目标,这样会根据跟踪目标的远近选择使用合适的预测特征图。YOLOv3总体网络结构如图6所示。
在经过一系列的处理之后,YOLOv3会在三种尺寸的预测特征图上进行目标的预测,将输入图像划分为相对应尺寸的网格,由K-means聚类算法得到9组尺度的预测框分别为:(10*13),(16*30),(33*23)(30*61),(62*45),(59*119)(116*90),(156*198),(373*326),每三组为一种,分组如下:13*13预测特征图对应{(116*90),(156*198),(373*326)};26*26的预测特征图对应{(30*61),(62*45),(59*119)};52*52的预测特征图对应为{(10*13),(16*30),(33*23)}。因此在每个预测特征图上会预测3种尺度的预测框,每个网格去检测那些中心点落在该格子内的目标,真实框中心所在的网格会作为负责预测目标的单元格,每个单元格会预测三种预测框,从这三种预测框中会选择和真实框的IOU(一种测量在特定数据集中检测相应物体准确度的一个标准)最大的来作为最终预测该目标的预测框,最终,每个单元格会预测产生出有关目标坐标的参数(x,y,w,h),x和y是预测框中心点的坐标,w和h为预测框宽度和高度。输入-输出映射关系图如图7所示。
通过YOLOv3可以提取到更精细化的特征,对环境背景变化具有更强的鲁棒性,大大提高了识别的精度。
步骤三:接着图像处理,图像处理流程图如图8所示。这一部分主要是利用图像处理的手段提取出有效的障碍物信息,并将此信息转化为计算机语言,具体的操作如下:
步骤3-1):图像二值化处理
为了减小计算机对图像的处理负担并有效的处理图像,通过图像二值化处理降低图像所包含的信息量,让图像呈现出黑白效果,突显出障碍物图形的轮廓,增强了图像的识别率,并有利于对图像作进一步的处理。
步骤3-2):开运算
由于图像周围可能会出现其它噪点,虽然经过二值化处理之后的彩色图像变得简单,但在其中出现的噪点不会去除掉,反而会造成很大干扰,开运算就是对图像先进行腐蚀操作处理然后再进行膨胀处理,其数学表达式如下:
式中和指腐蚀和膨胀。首先将图像A与核B进行腐蚀的卷积,计算出核B覆盖的区域的像素点的最小值,并把这个最小值赋值给参考点指定的像素,这样就会使得图像中的高亮区域逐渐减少,然后经过腐蚀后的图像再与核B做膨胀的卷积,计算出核B覆盖的区域的像素点的最大值,再使图像进行高亮扩张。经过开运算的图像有效的将噪点消除,在平滑较大物体的边界的同时不明显改变其面积,并且在纤细点处分离物体,使得障碍物的轮廓更加突出,有利于轮廓的寻找和提取。
步骤3-3):寻找轮廓
基于以上图像处理之后,提取出障碍物的最大外围轮廓,进而确定其凸包矩形框。一个轮廓一般对应于一系列的点,通过二值图像寻找出外轮廓。当寻找轮廓结束后,对每个轮廓计算凸包,通过最大面积法寻找最大轮廓,设定一个轮廓索引,每一个索引号对应于一个轮廓,通过遍历所有的轮廓并比较每一个轮廓的面积,确定出最大面积轮廓。
步骤3-4):绘制轮廓及其凸包
得到最大轮廓后,绘制轮廓及其凸包,从而可以确定出障碍物的矩形框,便可以得到具体的像素坐标值。
步骤四:自转跟随算法
在经过YOLOv3网络后检测并识别人后,可以提取出人在图像中的预测框中心点的坐标信息(x,y),将此坐标进一步转换为预测框左上角的像素坐标Pperson(xperson,yperson),并且得到矩形框的宽度高度信息Mp(pwidth,pheight),自转跟踪算法原理图如图9所示。
于是,设定以下跟踪目标公式:
其中k和XPCC分别是自转速度比例系数和包围人的矩形框的中心点的像素横坐标,具体由以下(3)(4)式给出:
k=1.5 (3)
其中xperson是在像素平面内包围人矩形框左上角的像素横坐标,pwidth为包围人矩形框的像素宽度值。
步骤五:横移避障算法
通过图像处理操作后提取出障碍物的凸包矩阵,从而获得凸包矩阵框左上角的像素点坐标信息Pobject(xobject,yobject)即确定障碍物的像素位置信息,与此同时也将得到凸包矩阵框的宽度高度信息Mo(owidth,oheight)。
考虑到四足机器人躲避前方障碍物的时效性,本发明提出了一种快速避障方法,引用余弦函数模型,如图10所示。
利用余弦函数模型的重要性质,在一定范围内,当x增大时,y会随之减少,基本思想是根据障碍物在图像中位置信息来决定四足机器人躲避障碍物时的横移速度大小,即当障碍物正对四足机器人时,四足机器人会以一个较大的速度躲避障碍物,具体的函数公式如下(5)(6)所示:
其中Vleftshift,Vrightshift表示四足机器人左右横移的速度;α和XOCC分别是自转速度比例系数和包围人的矩形框的中心点的像素横坐标,具体由以下(7)(8)式给出:
α=0.5 (7)
其中xobject是在像素平面内包围障碍物矩形框左上角的像素横坐标,owidth为包围障碍物矩形框的像素宽度值。横移避障算法原理图如图11所示。
本公开技术方案的整个流程是在ROS的话题(topic)通信架构下完成的,用深度相机的彩色摄像头采集彩色图像信息,并将此信息通过话题发布,另一个节点首先作为订阅者订阅彩色图像信息后,通过调用YOLOV3网络实现对图像进行实时检测,从而确定出我们要识别的人的类别并确定其在图像中的位置信息,然后此节点作为发布者再将人的位置信息发布,由深度相机节点确定出人的距离以及检测障碍物的位置和距离信息,主要思想是通过调用OpenCV库函数做一定的图像处理:首先通过二值化,将0.5米之外的安全距离置零不考虑,然后通过开运算去除掉一些噪点,在求出所有障碍物的凸包,这个时候要计算面积,当面积小于一定的阈值的时候不予考虑,最终输出障碍物的凸包坐标。将这些信息通过指定的话题通道发布,完成所有这些信息的采集工作之后,由跟踪订阅者订阅所有的信息,当接收到这些信息后,会触发回调函数,跟踪人主要是通过设定自转速度来完成,躲避障碍物则是通过一个余弦函数去调节横移速度来实现。自主跟随避障流程图如图12所示。
实施例二
本实施例的目的是提供一种计算装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述方法的步骤。
实施例三
本实施例的目的是提供一种计算机可读存储介质。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时执行上述方法的步骤。
实施例四
本实施例的目的是提供应用于四足仿生机器人的目标跟随系统,包括:
图像获取模块,获取四足仿生机器人所在环境的图像;
目标跟随模块,识别跟随目标并获取跟随目标的位置坐标,识别障碍物并获取障碍物的凸包坐标信息,以进行四足机器人在自转跟随跟踪目标的同时横移躲避障碍物。
本公开技术方案公开了一种自主跟随避障算法,该方法主要通过深度相机的彩色摄像头采集彩色图像信息,通过调用YOLOv3网络实现对图像进行实时检测,从而确定出要识别的人的类别并确定其在图像中的位置信息,由深度相机确定出人的距离以及检测障碍物的位置和距离信息,主要思想是通过调用OpenCV库函数做一定的图像处理:首先通过二值化,将0.5米之外的安全距离置零不考虑,然后通过开运算去除掉一些噪点,在求出所有障碍物的凸包,这个时候要计算面积,当面积小于一定的阈值的时候不予考虑,最终输出障碍物的凸包坐标。根据所有这些采集到的信息,设计出全新的自转跟随算法实现人的跟踪,并且通过引入余弦函数模型设计出了横移避障算法躲避障碍物,提高了四足机器人环境感知能力。
以上实施例二、三和四的装置中涉及的各步骤与方法实施例一相对应,具体实施方式可参见实施例一的相关说明部分。术语“计算机可读存储介质”应该理解为包括一个或多个指令集的单个介质或多个介质;还应当被理解为包括任何介质,所述任何介质能够存储、编码或承载用于由处理器执行的指令集并使处理器执行本公开中的任一方法。
本领域技术人员应该明白,上述本公开的各模块或各步骤可以用通用的计算机装置来实现,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。本公开不限制于任何特定的硬件和软件的结合。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
上述虽然结合附图对本公开的具体实施方式进行了描述,但并非对本公开保护范围的限制,所属领域技术人员应该明白,在本公开的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本公开的保护范围以内。
Claims (10)
1.应用于四足仿生机器人的目标跟随方法,其特征是,包括:
获取四足仿生机器人所在环境的图像;
识别跟随目标并获取跟随目标的位置坐标,识别障碍物并获取障碍物的凸包坐标信息,以进行四足机器人在自转跟随跟踪目标的同时横移躲避障碍物。
2.如权利要求1所述的应用于四足仿生机器人的目标跟随方法,其特征是,识别跟随目标时,对四足仿生机器人所在环境的图像进行处理,产生不同尺寸的预测特征图,在不同尺寸的预测特征图上进行目标的预测。
3.如权利要求2所述的应用于四足仿生机器人的目标跟随方法,其特征是,在不同尺寸的预测特征图上进行目标的预测时,将输入图像划分为相对应尺寸的网格,聚类得到多组尺度的预测框;
在每个预测特征图上会预测多种尺度的预测框,每个网格检测中心点落在该格子内的目标,真实框中心所在的网格作为负责预测目标的单元格,每个单元格会预测多种预测框,从这多种预测框中选择和真实框的IOU最大的来作为最终预测该目标的预测框,最终,每个单元格会预测产生出有关目标坐标的参数。
4.如权利要求1所述的应用于四足仿生机器人的目标跟随方法,其特征是,识别障碍物并获取障碍物的凸包坐标信息,具体为:
图像二值化处理,突显出障碍物图形的轮廓;
二值化处理后对图像先进行腐蚀操作处理然后再进行膨胀处理;
基于以上图像处理之后,提取出障碍物的最大外围轮廓,进而确定其凸包矩形框,继而得到具体的像素坐标值。
5.如权利要求1所述的应用于四足仿生机器人的目标跟随方法,其特征是,识别跟随目标并获取跟随目标的位置坐标之后,将此坐标进一步转换为预测框左上角的像素坐标,并且得到矩形框的宽度高度信息,自转跟随跟踪目标。
7.如权利要求1所述的应用于四足仿生机器人的目标跟随方法,其特征是,确定其凸包矩形框,继而得到具体的像素坐标值,具体为获得凸包矩阵框左上角的像素点坐标信息即确定障碍物的像素位置信息,与此同时也将得到凸包矩阵框的宽度高度信息。
进一步的技术方案,横移躲避障碍物时,根据障碍物在图像中位置信息来决定四足机器人躲避障碍物时的横移速度大小。
进一步的技术方案,横移速度具体为:
其中Vleftshift,Vrightshift表示四足机器人左右横移的速度;α和XOCC分别是自转速度比例系数和包围人的矩形框的中心点的像素横坐标,具体由下式给出:
α=0.5
其中xobject是在像素平面内包围障碍物矩形框左上角的像素横坐标,owidth为包围障碍物矩形框的像素宽度值。
8.应用于四足仿生机器人的目标跟随系统,其特征是,包括:
图像获取模块,获取四足仿生机器人所在环境的图像;
目标跟随模块,识别跟随目标并获取跟随目标的位置坐标,识别障碍物并获取障碍物的凸包坐标信息,以进行四足机器人在自转跟随跟踪目标的同时横移躲避障碍物。
9.一种计算装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征是,所述处理器执行所述程序时实现上述权利要求1-7任一所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征是,该程序被处理器执行时执行上述权利要求1-7任一所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110160018.8A CN112907625B (zh) | 2021-02-05 | 2021-02-05 | 应用于四足仿生机器人的目标跟随方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110160018.8A CN112907625B (zh) | 2021-02-05 | 2021-02-05 | 应用于四足仿生机器人的目标跟随方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112907625A true CN112907625A (zh) | 2021-06-04 |
CN112907625B CN112907625B (zh) | 2023-04-28 |
Family
ID=76122670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110160018.8A Active CN112907625B (zh) | 2021-02-05 | 2021-02-05 | 应用于四足仿生机器人的目标跟随方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112907625B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113566833A (zh) * | 2021-07-28 | 2021-10-29 | 上海工程技术大学 | 一种多传感器融合的车辆定位方法及系统 |
WO2023241395A1 (zh) * | 2022-06-17 | 2023-12-21 | 灵动科技(北京)有限公司 | 一种机器人避障方法、装置及计算机程序产品 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070070190A1 (en) * | 2005-09-26 | 2007-03-29 | Objectvideo, Inc. | Video surveillance system with omni-directional camera |
CN108121333A (zh) * | 2016-11-26 | 2018-06-05 | 沈阳新松机器人自动化股份有限公司 | 导购机器人 |
CN108415434A (zh) * | 2018-03-29 | 2018-08-17 | 五邑大学 | 一种机器人调度方法 |
US20180259971A1 (en) * | 2017-03-08 | 2018-09-13 | Nec Corporation | Autonomous mobile robot, and method and program for controlling the same |
CN109117794A (zh) * | 2018-08-16 | 2019-01-01 | 广东工业大学 | 一种运动目标行为跟踪方法、装置、设备及可读存储介质 |
CN109263826A (zh) * | 2018-08-30 | 2019-01-25 | 武汉理工大学 | 基于操纵性建模的船舶智能避碰系统及方法 |
CN109746922A (zh) * | 2019-03-11 | 2019-05-14 | 河海大学常州校区 | 一种基于有限时间切换控制的非完整机器人控制方法 |
CN109976338A (zh) * | 2019-03-14 | 2019-07-05 | 山东大学 | 一种多模态四足机器人人机交互系统及方法 |
CN110097586A (zh) * | 2019-04-30 | 2019-08-06 | 青岛海信网络科技股份有限公司 | 一种人脸检测追踪方法及装置 |
CN110103223A (zh) * | 2019-05-27 | 2019-08-09 | 西安交通大学 | 一种基于视觉识别的自动跟随避障方法及机器人 |
CN110109457A (zh) * | 2019-04-29 | 2019-08-09 | 北方民族大学 | 一种智能语音导盲机器人控制方法及控制系统 |
CN110103237A (zh) * | 2019-05-13 | 2019-08-09 | 湖北经济学院 | 基于视觉目标跟踪的跟随型伙伴机器人 |
CN110751206A (zh) * | 2019-10-17 | 2020-02-04 | 北京中盾安全技术开发公司 | 一种多目标智能成像与识别装置及方法 |
CN111914809A (zh) * | 2020-08-19 | 2020-11-10 | 腾讯科技(深圳)有限公司 | 目标对象定位方法、图像处理方法、装置和计算机设备 |
CN112130559A (zh) * | 2020-08-21 | 2020-12-25 | 同济大学 | 一种基于uwb与激光雷达的室内行人跟随与避障方法 |
-
2021
- 2021-02-05 CN CN202110160018.8A patent/CN112907625B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070070190A1 (en) * | 2005-09-26 | 2007-03-29 | Objectvideo, Inc. | Video surveillance system with omni-directional camera |
CN108121333A (zh) * | 2016-11-26 | 2018-06-05 | 沈阳新松机器人自动化股份有限公司 | 导购机器人 |
US20180259971A1 (en) * | 2017-03-08 | 2018-09-13 | Nec Corporation | Autonomous mobile robot, and method and program for controlling the same |
CN108415434A (zh) * | 2018-03-29 | 2018-08-17 | 五邑大学 | 一种机器人调度方法 |
CN109117794A (zh) * | 2018-08-16 | 2019-01-01 | 广东工业大学 | 一种运动目标行为跟踪方法、装置、设备及可读存储介质 |
CN109263826A (zh) * | 2018-08-30 | 2019-01-25 | 武汉理工大学 | 基于操纵性建模的船舶智能避碰系统及方法 |
CN109746922A (zh) * | 2019-03-11 | 2019-05-14 | 河海大学常州校区 | 一种基于有限时间切换控制的非完整机器人控制方法 |
CN109976338A (zh) * | 2019-03-14 | 2019-07-05 | 山东大学 | 一种多模态四足机器人人机交互系统及方法 |
CN110109457A (zh) * | 2019-04-29 | 2019-08-09 | 北方民族大学 | 一种智能语音导盲机器人控制方法及控制系统 |
CN110097586A (zh) * | 2019-04-30 | 2019-08-06 | 青岛海信网络科技股份有限公司 | 一种人脸检测追踪方法及装置 |
CN110103237A (zh) * | 2019-05-13 | 2019-08-09 | 湖北经济学院 | 基于视觉目标跟踪的跟随型伙伴机器人 |
CN110103223A (zh) * | 2019-05-27 | 2019-08-09 | 西安交通大学 | 一种基于视觉识别的自动跟随避障方法及机器人 |
CN110751206A (zh) * | 2019-10-17 | 2020-02-04 | 北京中盾安全技术开发公司 | 一种多目标智能成像与识别装置及方法 |
CN111914809A (zh) * | 2020-08-19 | 2020-11-10 | 腾讯科技(深圳)有限公司 | 目标对象定位方法、图像处理方法、装置和计算机设备 |
CN112130559A (zh) * | 2020-08-21 | 2020-12-25 | 同济大学 | 一种基于uwb与激光雷达的室内行人跟随与避障方法 |
Non-Patent Citations (2)
Title |
---|
LUO QIJUN, ZHANG XIUYAN: "《An Improved BCM Obstacle Avoidance Algorithm for Outdoor Patrol Robot》", 《2014 SIXTH INTERNATIONAL CONFERENCE ON MEASURING TECHNOLOGY AND MECHATRONICS AUTOMATION》 * |
李彬: "《地面移动机器人自主跟随目标识别技术》", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113566833A (zh) * | 2021-07-28 | 2021-10-29 | 上海工程技术大学 | 一种多传感器融合的车辆定位方法及系统 |
WO2023241395A1 (zh) * | 2022-06-17 | 2023-12-21 | 灵动科技(北京)有限公司 | 一种机器人避障方法、装置及计算机程序产品 |
Also Published As
Publication number | Publication date |
---|---|
CN112907625B (zh) | 2023-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112859859B (zh) | 一种基于三维障碍物体素对象映射的动态栅格地图更新方法 | |
US10192113B1 (en) | Quadocular sensor design in autonomous platforms | |
US10437252B1 (en) | High-precision multi-layer visual and semantic map for autonomous driving | |
US10794710B1 (en) | High-precision multi-layer visual and semantic map by autonomous units | |
US11462023B2 (en) | Systems and methods for 3D object detection | |
CN112740268B (zh) | 目标检测方法和装置 | |
Jebamikyous et al. | Autonomous vehicles perception (avp) using deep learning: Modeling, assessment, and challenges | |
Pfeiffer et al. | Modeling dynamic 3D environments by means of the stixel world | |
Zhao et al. | Lidar mapping optimization based on lightweight semantic segmentation | |
CN113112491B (zh) | 一种悬崖检测方法、装置、机器人及存储介质 | |
CN112907625B (zh) | 应用于四足仿生机器人的目标跟随方法及系统 | |
CN111797836A (zh) | 一种基于深度学习的地外天体巡视器障碍物分割方法 | |
GB2610410A (en) | Incremental dense 3-D mapping with semantics | |
Li et al. | Robust localization for intelligent vehicles based on compressed road scene map in urban environments | |
Pang et al. | Low-cost and high-accuracy LiDAR SLAM for large outdoor scenarios | |
CN115639823A (zh) | 崎岖起伏地形下机器人地形感知与移动控制方法及系统 | |
CN114049362A (zh) | 一种基于transformer的点云实例分割方法 | |
WO2023155903A1 (en) | Systems and methods for generating road surface semantic segmentation map from sequence of point clouds | |
Ouyang et al. | Semantic slam for mobile robot with human-in-the-loop | |
Roggeman et al. | Embedded vision-based localization and model predictive control for autonomous exploration | |
CN113515128B (zh) | 一种无人车实时路径规划方法及存储介质 | |
Nandkumar et al. | Simulation of Indoor Localization and Navigation of Turtlebot 3 using Real Time Object Detection | |
Qiu et al. | Semantic map construction via multi-sensor fusion | |
Jeong et al. | Fast and Lite Point Cloud Semantic Segmentation for Autonomous Driving Utilizing LiDAR Synthetic Training Data | |
Yan et al. | RH-Map: Online Map Construction Framework of Dynamic Object Removal Based on 3D Region-wise Hash Map Structure |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |